Bilder des Jahres 2018

Das alles fand 2018 auf dem IT-techBlog statt

Der Jahreswechsel ist stets ein beliebter Anlass, Rückschau abzuhalten. Daher folgt an dieser Stelle ein Rückblick auf mein vergangenes Jahr aus IT-techBlog-Sicht. Viel Spaß beim Schmökern.

Januar 2018: IBM-Cloud und ein Intel-CPU-GAU

Vor ungefähr einem Jahr beherrschte ein ziemlicher Intel-Aufreger die Nachrichten und Gazetten, indem schlaue Menschen zwei CPU-Schwachstellen aufgetan haben. Unter den Bezeichnungen „Spectre“ und „Meltdown“ sollte es damit möglich sein, eine Besonderheit vieler Prozessoren zu kriminellen Zwecken auszunutzen.

Für alle, die auf der Suche nach Infos rund um die bekannten Dateisysteme FAT und NTFS sind, habe ich die wichtigsten Fakten in einem Blogbeitrag zusammengetragen.

Und gegen Ende des Monats war ich auf einer IBM-Presseveranstaltung, wo ich zwei Interviews führen durfte zum Thema IBM-Cloud. Yasser Eissa sprach unter anderem über die DSGVO und Datensicherheit, und Patrick Palacin von der Firma Teleclinic verriet mir, was die IBM-Cloud mit der Digitalisierung der Ärzte-Branche zu tun hat.

Februar 2018: Künstliche Intelligenz, mit TenAsys auf der Embedded World

Der zweite Monat des vergangenen Jahres brachte mich intensiv mit dem Thema Künstliche Intelligenz (KI) zusammen. So wollte ich wissen, was die KI mit uns Menschen zu tun hat, wieviel Rechenleistung für KI-Anwendungen erforderlich ist, in welcher Beziehung der Turing Test mit der KI steht und was meine Leser über Machine Learning wissen sollten.

Darüber hinaus warfen die IBM Spectrum Scale Strategy Days erste Schatten voraus, und für meinen Kunden TenAsys war ich in Nürnberg auf der Embedded World.

März 2018: IBM Spectrum Scale Strategy Days, IoT und Machine Learning

Wie im Februar angekündigt, war ich im März für IBM auf deren Spectrum Scale Strategy Days. Im weitesten Sinne drehte sich dort alles rund um das Thema virtualisierte Speicherlandschaften, und genau dazu habe ich Videointerviews samt Blogbeiträgen verfasst.

So habe ich mit Dirk Thometzek von Rohde & Schwarz über deren Spycer-Boxen gesprochen, die auf Basis der IBM Spectrum Scale-Technik Fernsehanstalten und andere Anbieter von Videoinhalten beim ruckel- und störungsfreien Ausstrahlen von Bewegtbildern unterstützen. Aber auch ein IBM-Kunde kam zu Wort, nämlich Alf Wachsmann vom Max Delbrück Centrum für molekulare Medizin, der sich ganz begeistert zeigte von der Veranstaltung – und von Spectrum Scale.

Neben dieser Highend-IBM-Technik hat mich auch das Thema Internet of Things (IoT) im März beschäftigt. So war ich auf einer IDC-Veranstaltung, auf der eine groß angelegte Studie zum Thema IoT veröffentlicht wurde. Dazu habe ich Mark Alexander Schulte, der sich für die Befragung der IT-Entscheider verantwortlich zeichnete, vor der Videokamera befragt. 

Doch nicht nur mit ihm, sondern auch mit Oliver Edinger von der Software AG habe ich über das Internet der Dinge im Allgemeinen und deren Cumulocity-Plattform im Speziellen gesprochen.

Natürlich durfte auch die Künstliche Intelligenz nicht fehlen, und so habe ich im März den zweiten Teil des Machine Learning-Specials verfasst und zudem darüber gebloggt, wie die Europäische Union unseren Kontinent fit für die KI machen will.

April 2018: IBM Spectrum Scale, Hannover-Messe-Vorschau und IBM Mainframe-Roadshow

Die im März stattgefundene IBM Spectrum Scale-Veranstaltung beschäftigte mich auch noch im April, und zwar in Form zweier weiterer Videointerviews. Das eine habe ich mit Peter Ratuschni von der Deutschen Nationalbibliothek geführt, der vor allem wegen der wichtigen Infos und der guten Gespräche auf dem IBM-Event zugegen war. Und im anderen sprach Piyush Chaudhary von IBM über die Kombination Spectrum Scale/Hadoop.

Im April fand auch die Hannover-Messe statt, und so kam ich nicht umhin, erste News darüber online zu stellen. So kündigte die Software AG diverse Themen an, die das Unternehmen auf der Industriemesse zeigen wollte. Aber auch Dassault Systèmes und ihre geplanten Neuheiten rund um das Thema Simulation war mir einen Blogbeitrag wert.

Für IBM war ich im April gleich zweimal unterwegs: Zunächst ging es nach Frankfurt, einer Mainframe-Roadshow wegen, und dann fuhr ich auf die Hannover-Messe (dazu gibt es im Mai-Rückblick mehr Infos). Das Mainframe-Event stellte neue Z-Maschinen in den Vordergrund, genauer gesagt die IBM z14 ZR1 sowie den Linux-Server IBM LinuxOne Rockhopper II. Auf der Veranstaltung habe ich vier Interviews geführt, allesamt mit IBM-Experten. Das waren konkret:

Wer noch mehr Infos dazu haben möchte, dem empfehle ich den ersten und den zweiten Teil meiner ausführlichen Z-Roadshow-Rückschau.

Mai 2018: IBM auf der Hannover-Messe 2018 und ein IDC-KI-Event

Wie bereits angekündigt, folgte im Mai meine Videoblogserie für IBM, die auf der Hannover-Messe mit einem großen eigenen Stand waren. Dort durfte ich zahlreiche Interviews führen. Im einzelnen waren das:

Daneben habe ich noch auf der Messe mit Florian Jurecka von Dassault Systèmes über das Thema Digital Twins zu Simulationszwecken gesprochen. Auch ein sehr spannendes Thema.

Im Mai fand dann wieder einer der zahlreichen IDC-Presseevents statt, dieses Mal zum Thema Künstliche Intelligenz. Dort durfte ich mit Jürgen Wirtgen über die KI aus Microsoft-Sicht sprechen und mit Konstantin Greger von Tableau Software ebenfalls ein Videogespräch führen.

Juni 2018: Software-AG IoT-Roadshow, Lenovo-Interviews und CEBIT 2018

Zwar begann die IoT-Roadshow der Software AG bereits im Mai, die Videointerviews samt der zugehörigen Blogbeiträge habe ich aber erst im Juni veröffentlicht. Im einzelnen waren das:

Zudem habe ich noch eine ganz persönliche Rückschau der IoT Innovation Tour 2018 veröffentlicht, mit zahlreichen Tweets und weiteren Interviews.

Zum ersten – und leider gleichzeitig letzten – Mal fand die renovierte und reformierte CEBIT im Juni statt, und klar, dass ich dabei war. Wenn ich gewusst hätte, dass es die letzte Veranstaltung ihrer Art war, wäre ich noch ein bisschen länger geblieben. So sind es genau drei Interviews geworden, die die „Ehre“ hatten, meine finalen CEBIT-Videogespräche auf dem IT-techBlog zu sein.

Das eine habe ich mit Matthias Hartmann, dem deutschen Geschäftsführer von IBM, über die digitale Transformation geführt. Das zweite brachte mich mit dem werten Gero Dieckmann von der SVA GmbH zusammen, der in gewohnt souveräner Art über den CEBIT-Auftritt seiner Firma referierte. Die SVA wäre sehr gerne ein weiteres Mal auf der runderneuerten IT-Messe gewesen. Tja, und das dritte folgt dann im Juni-Rückblick.

Juli 2018: CEBIT, TRIAX A/S und Lenovo auf der ISC 18

Im Juni veröffentlichte ich das letzte von insgesamt drei CEBIT-Interviews, und zwar das mit Dominic Gaspary von der Volkswagen AG über VW We Experience. Darin spricht er über Machine Learning-Algorithmen, die verstärkt in Autos zum Einsatz kommen sollen, und was das alles mit IBM zu tun hat.

Für die Firma TRIAX war ich Anfang Juni in Köln auf einer großen Messe rund um das Thema Videolösungen. Dort zeigte das dänische Unternehmen, was es in diesem Kontext alles in petto hat. Herausgekommen sind folgende Videogespräche:

Für Lenovo war ich ebenfalls wieder einmal unterwegs, und zwar auf der International Supercomputing Conference 2018. Dort habe ich insgesamt vier Interviews geführt:

Daneben war ich erneut auf einem IDC-Event, auf dem eine Studie zum Thema IT-Sicherheit vorgestellt wurde. Im Anschluss an die Präsentationen habe ich wie immer Interviews geführt, und zwar mit Udo Schneider von Trend Micro über die aktuelle IT-Sicherheitslage sowie mit Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen.

Und klar, dass das Thema Künstliche Intelligenz nicht außen vor blieb im Juli. So durfte ich mit Dagmar Schuller vom Startup-Unternehmen audEERING über deren Sprachsoftware sprechen, mit der Audio-Emotionen „sichtbar“ gemacht werden können.

August 2018: audEERING, Cloud-Daten verschlüsseln und Lenovo auf der IFA

Der August ist zwar traditionell mein Urlaubsmonat, trotzdem war ich ein wenig aktiv. So ging der zweite Teil des Videointerviews mit Dagmar Schuller von audEERING online, in dem sie über ihre Software-Lösungen openSMILE und sensAI spricht.

Darüber hinaus habe ich für luckycloud aus Berlin aufgeschrieben, wie man effizient seine Cloud-Daten verschlüsselt. Und finally war ich mit Lenovo auf der IFA in Berlin, wo ich all die neuen Notebooks begutachten durfte.

September 2018: IFA-Interviews, Android-Handy, SuperMUC-NG, IDC-Cloud-Event und IBM Storage Strategy Days

Der September war ziemlich voll, so rückblickend betrachtet. Er begann damit, dass ich zwei IFA-Interviews nachreichte, und zwar das mit Mirco Krebs von Lenovo über KI in Notebooks sowie mein Gespräch mit Poppy Szkiler von der britischen Firma Quiet Mark zum Thema geräuscharme Gerätschaften.

Apropos IFA: Dort hatte ich das erste Mal Kontakt mit einem Motorola-Android-Smartphone, das mich als langjährigen iPhone-Anwender derart überzeugt hat, dass ich es immer noch nutze – und darüber gebloggt habe.

Wenn ein Supercomputer wie der SuperMUC-NG quasi vor der Haustür eingeweiht wird, bin ich mit meiner Videokamera nicht weit. Und so durfte ich mit einem der Verantwortlichen des LRZ Garching ein Interview führen.

Was im September ebenfalls stattfand war ein IDC-Event, dieses Mal zum Thema Multi-Cloud. Herausgekommen sind drei Interviews:

Um den September so richtig voll zu machen, war ich dann noch für IBM in Ehningen, und zwar auf den Storage Strategy Days, wo ich wieder in typischer Manier meine Videoblogposts produziert habe.

Oktober 2018: it-sa, it-sa, it-sa

Falls ich angenommen haben sollte, dass der September voll war, wusste ich noch nicht, was im Oktober auf mich wartete. Der stand nämlich ganz und gar im Zeichen der Security-Messe it-sa in Nürnberg. Dort habe ich an drei Tagen etwa 20 Videos gedreht, von denen viele auf meinem Blog landeten. Das waren im einzelnen:

Daneben habe ich noch die Zeit gefunden, auf Einladung der Firma OVH nach Paris zu reisen, um mit deren CTO ein Videogespräch zum Thema Cloud-Plattform zu führen und mit dem CEO Michel Paulin über die Open-Source-Strategie von OVH zu sprechen.

Den Abschluss des zehnten Monats des Jahres bildete ein Interview zum Thema Unified Collaboration & Communications, das ich mit Philipp Bohn von der Firma Unify/Atos führen durfte.

November 2018: Sumo Logic, Delphix, Fujitsu Forum & IoT Security Kongress

Der November startete mit einem sehr entspannten Interview mit dem Gründer der US-amerikanischen Firma Sumo Logic, Christian Beedgen. Darin spricht er über die Monitoring Services seines Unternehmens und warum diese wichtig sind für Online-Dienste wie AirBnB, die zu den Kunden von Sumo Logic gehören.

Am gleichen Tag veröffentlichte ich ein Videointerview, das in den Räumen von T-Systems entstanden ist. Sein Thema: Maskierungstechniken, mit denen sich sensible Daten unkenntlich machen lassen. Das wird in Zeiten von DSGVO und Cloud-Anwendungen immer wichtiger.

Im November fand auch das Fujitsu Forum statt, also jene „Hausmesse“, die alljährlich mehrere tausende Menschen in die Münchner Messehallen lockt. Dort durfte ich vier sehr interessante Interviews zu den Themen Künstliche Intelligenz, Storage und Multi-Cloud führen.

Zum Abschluss des vorletzten Monats des Jahres 2018 begab ich mich noch auf eine IoT-Veranstaltung, die die Uniscon GmbH gemeinsam mit dem TÜV Süd veranstaltet hatte. Auch dort konnte ich interessante Gesprächspartner vor die Kamera locken:

„Mit LUCON lassen sich kritische von unkritischen Daten a priori unterscheiden“

„Der IoT Security Kongress soll das Projekt car-bits.de bekannter machen“

Dezember 2018: Dassault Systèmes Anwenderkonferenz

Den Abschluss des Jahres 2018 bildete eine Reise nach Hanau, wohin es mich wegen eines Fachartikels zum Thema Model-based Systems Engineering verschlug. Da ich aber schon mal dort war, habe ich mit meinem Interviewpartner auch noch ein Videogespräch geführt, in dem er kurz und knapp Wissenswertes zu dem Thema und zu der Akquisition der Firma No Magic erzählt hat.

Und klar, dass ich kurz nach Bekanntwerden des Aus‘ für die CEBIT meine Gedanken darüber in meinen Blog gekippt habe. Wofür betreibe ich diese Plattform schließlich…

Gauthier Fanmuy, Dassault Systèmes, über No Magic und MBSE

Videoblog: „Mit No Magic lassen sich sämtliche Design-Prozesse abbilden“

Model-based Systems Engineering ermöglicht den Übergang von der realen Welt in ein virtuelles Konzept. Sagt Gauthier Fanmuy von Dassault Systèmes, mit dem ich dieses Interview während der Dassault Systèmes-Anwenderkonferenz 2018 geführt habe. Darüber hinaus spricht er über die Akquisition des MBSE-Experten No Magic und was das für Dassault Systèmes bedeutet.

MBSE hilft vor allem, die Herausforderungen besser zu verstehen, die man mithilfe eines Produkts oder Systems lösen möchte. Denn es ermöglicht einen Blick auf sämtliche Funktionen und Aktionen, die beispielsweise für den Autonomen Verkehr und ähnliches erforderlich sind.

Genau diese Option hat bisher innerhalb des Software-Portfolios von Dassault Systèmes gefehlt. Also ein Tool, mit dessen Hilfe man die Abhängigkeiten und das Zusammenspiel unterschiedlicher Systeme und Produkte im Vorfeld simulieren und verstehen kann. Und das, ohne eine einzige Designstunde dafür aufgewendet zu haben.

No Magic schließt eine wichtige Lücke im DS-Software-Portfolio

Mithilfe der Software-Tools von No Magic wie MagicDraw steht Dassault Systèmes die Option zur Verfügung, vollständige Designkonzepte von Anfang an auf nur noch einer Plattform zu planen und zu realisieren. Damit lassen sich sämtliche Abhängigkeiten und Auswirkungen darstellen und bewerten. Zudem verfolgt Dassault Systèmes mit der Akquisition von No Magic einen vollständigen DevOps-Ansatz, was den Kunden eine agile und konsistente Integration aller Design-Schritte von Anfang bis Ende ermöglicht.

Dassault-Systèmes-Kunden profitieren von der „Heirat“ mit No Magic

Da eine komplette Top-to-Buttom-Verbindung der einzelnen Design-Abschnitte bisher nicht gegeben war, können Dassault Systèmes-Kunden dank der künftigen Integration der No Magic-Tools in die 3DExperience-Plattform den gesamten Engineering-Prozess vollständig orchestrieren. Das beginnt ganz oben auf der Konzeptebene und endet auf CAD- und Elektronik-Level. Damit schaffen Dassault Systèmes und No Magic einen Ende-zu-Ende-Prozess, mit dem eine ganz neue digitale Kontinuität auf einer einzigen Plattform möglich sein wird. Das reicht dann bis in die Lieferantenkette hinein.

Das komplette Interview mit Gauthier Fanmuy

Disclaimer: Für diesen Videoblogbeitrag hat mit Dassault Systèmes beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Cebit Brücke

Abgesang auf eine Messe: Lebe wohl, du Cebit!

2018 – 1992, das macht genau 27 Jahre. 27 mal Hin- und Rückfahrt nach Hannover. 27 mal Koffer ein- und wieder auspacken. 27 mal Cebit.

Ok, genau genommen waren es nur 26 mal Cebit, da ich tatsächlich 2013 nicht den Weg  in die niedersächsische Landeshauptstadt gefunden habe. Und schon dieses eine Mal war schmerzhaft für mich, und jetzt soll es ganz und gar vorbei sein?! Das kann und mag ich mir noch gar nicht vorstellen. Zumal die Cebit immer so etwas wie „nach Hause“ kommen bedeutete. Schließlich bin ich ganz in der Nähe von Hannover aufgewachsen.

Schmerzhaft? Da werden sicherlich die Augenbrauen des ein oder anderen Lesers noch oben wandern. Ja, ich mochte sie, diese viele Jahre lang größte Computermesse der Welt (auch wenn die Kolleg*innen von CES und Computex das auch nie so richtig glauben wollten). Und ich habe alle Phasen der Cebit mitgemacht. Die guten und die weniger guten.

1992: Für Intel als Spracherkennungsexperte

Angefangen hat das – wie gesagt – 1992. Damals habe ich noch studiert und war das erste Mal für Intel auf der Cebit. Dort habe ich eine Woche lang (zusammen mit meinem Bruder) die Faszination der PC-gestützten Spracherkennung zum Leben erweckt. So haben wir sieben Tage lang (inklusive Wochenende) immer und immer wieder den immer gleichen Text eingesprochen, und das Diktierprogramm (Dragon Dictate, das es in einer ähnlichen Form immer noch gibt) hat daraus Text gezaubert. Viele Besucher waren seinerzeit ziemlich beeindruckt ob der hohen Trefferquote. Was vor allem daran lag, dass die Software sehr gut trainiert war.

Das Jahr drauf habe ich das noch mal gemacht, und dieses Mal ganz alleine. Wieder habe ich eine Woche lang diktiert und diktiert und diktiert, sodass meine Stimme sieben Tage später eine ganze Oktave tiefer klang. Oder so ähnlich. Es hat auf jeden Fall wieder unfassbaren Spaß gemacht.

Das war übrigens die Zeit der legendären Standpartys. Da hat der Chef einer großen Elektronikmarktkette einfach mal so ein paar tausend D-Mark hingeblättert, damit die Fete weitergehen und die Leute weitertanzen konnten. Ja, auch das war immer mit sehr viel Spaß verbunden.

1995: Viele Tage und Nächte für Intel auf der Cebit

Ab 1995 war ich dann als festangestellter Intel-Mann auf der Cebit, und das war nicht immer Spaß. So waren ich und meine Kollegen (nur Männer) zwei Wochen lang in Hannover, um sicherzustellen, dass die komplette Hard- und Software nebst Netzwerktechnik am Intel-Stand funktionieren. Da waren viele Nachtschichten dabei, und am Ende lief immer alles wie am Schnürchen. Unvergessen sind auch hier die Partys, dieses Mal am eigenen Stand. Damals gab es diesen einen Spruch: „Work hard, dance hard!“. Und daran haben wir uns immer gehalten.

Die „Sunny Side“ der Cebit – als IT-Journalist

Dann, nach meinem Ausstieg bei Intel und meinem Einstieg in die Redaktionswelt, bot sich für mich  von der Cebit ein ganz neues Bild. Auf einmal gab es keine Nachtschichten mehr, auf einmal war ich der „Star“. Unvergessen sind die Toshiba-Zug-Fahrten nach Hannover, inklusive Verpflegung und Entertainment. Ok, die Unterkünfte waren bescheidener als zu meinen Intel-Zeiten, aber dafür wurde ich als Schreiberling hofiert und mit Geschenken bedacht. Ja, auch das war eine gute Zeit.

Das war auch die Zeit, als die Cebit noch so etwas wie ein alljährliches Klassentreffen war. So begab man sich im Laufe eines Tages mehrmals ins zentral gelegene Pressezentrum, um bei Kaffee oder Bier das ein oder andere Schwätzchen zu halten und sich mit den Kolleg*innen über die neuesten Neuigkeiten auf der Cebit auszutauschen. Das hatte immer etwas sehr Verbindendes.

Klar, das wurde nicht weniger, aber es hat sich in all den Jahren doch zusehends verändert. Die Kolleg*innen kamen immer seltener auf nach Hannover, weil die Redaktionen kleiner und kleiner wurden. Schon damals (ich spreche hier von Anfang/Mitte 2000) wurde der schleichende Abstieg bei den Besucherzahlen deutlich, was sich auch im abnehmenden Interesse seitens der IT-Verlage und -Journalist*innen widerspiegelte.

Cebit-Besucherzahlen 1986 bis 2013

Cebit-Besucherzahlen 1986 bis 2013

2006: Mein Leben als IT-Blogger und wieder eine neue Cebit-Zeitrechnung

Cebit Presseausweis2006 war ich dann zum ersten Mal als Blogger auf der Cebit, und es war großartig! Wir (Richard Joerges und ich) stellten unsere neu gegründete Blogplattform insight-infonet diversen Firmen vor, und es kam insgesamt sehr gut an. Richtig verdient haben wir damit zwar nie etwas, aber vor allem für mich war es der perfekte Einstieg in die Bloggerei. Von der ich ja bis heute seht gut leben kann.

Ein weiterer Wendepunkt in meiner Cebit-Historie war das Jahr 2014. Da war ich für IBM zum ersten Mal auf der Messe in Hannover und durfte dort zahlreiche Videointerviews mit IBM-Partnern und -Experten führen. Das war immer großartig und ich habe immer eine Menge gelernt. Dieser Trend ließ sich die Jahre danach weiter fortsetzen, und so war für mich die Cebit immer eine wichtige Veranstaltung, wenn es um das Akquirieren neuer Themen und neuer Kunden ging. Und ja, die Unterkünfte wurden in der Zeit auch wieder ein ganzes Stück besser. Auch dank AirBnB.

Cebit Unterkunft

2018 als Neuanfang – und dann doch das schnelle Aus

Um so erfreulicher und mutiger fand ich dann den Neuanfang der Cebit in diesem Jahr. Damit sollte so eine Art South by Southwest in Niedersachsen etabliert werden. Klar knirschte es noch an einigen Stellen, doch die ersten Schritte und Versuche in eine neue Cebit-Ära fand ich sehr ermutigend und richtig. Was sich vor allem im Zentralbereich rund um den EXPO Plaza widerspiegelte. Aber letzten Endes war das der Messegesellschaft wohl zu wenig – vor allem in Sachen Besucher- und Ausstellerzahlen. Aber so ist das halt, wenn man nur die Quantität, und nicht die Qualität einer Veranstaltung im Blick hat.

Mach’s gut, Cebit! War immer schön mit dir!

So bleibt mir nur noch zu sagen: Ich werde dich vermissen, Cebit, mit all deinen zahllosen Zufuß-Kilometern, deinen zu schlecht belüfteten Hallen, deinem zu ungesunden Essen. Und vor allem werde ich die zahlreichen Gespräche mit tollen und interessanten Menschen vermissen. Aber die treffe ich ja hoffentlich in Zukunft auf anderen Events.

Dr. Joseph Reger, Fujitsu

Videoblog: „Der KI mangelt es vor allem an gut ausgebildeten Experten“

Er ist multilingual, „Cheftechniker“ bei Fujitsu und sehr unterhaltsam. Die Rede ist von Dr. Joseph Reger, mit dem ich das folgende Interview während des Fujitsu Forum 2018 führen durfte. Zentrales Thema war die Künstliche Intelligenz.

KI ist für viele Unternehmen noch eher unwichtig

Eine von Fujitsu in Auftrag gegebene Studie zum Thema Künstliche Intelligenz zeigt recht schonungslos auf, woran es hierzulande in Sachen KI mangelt: Strategisch wichtig scheint sie (noch) nicht zu sein, und eine richtige KI-Strategie haben auch nur wenige Unternehmen.

Das hat einen recht einfachen Grund: Der Mangel an gut ausgebildeten KI-Experten, die für Projekte und Anwendungen zwingend erforderlich wären. Zwar wird aktuell eine Menge getan, um diesen Missstand zu verbessern, was allerdings noch einiges an Zeit in Anspruch nehmen wird. Im Widerspruch dazu steht, dass die KI möglichst bald in Firmen Einzug halten sollte, um brachliegendes Potential zu aktivieren und bestmöglich nutzen zu können.

Fujitsu leistet seinen KI-Beitrag auf ganz unterschiedlichen Ebenen

Fujitsu hat die Zeichen der Zeit erkannt und investiert auf ganz unterschiedlichen Ebenen in die Künstliche Intelligenz. Dazu gehören auch interne Fortbildungen und der Wissensaufbau rund um das Thema KI. Hierfür hat das Unternehmen ein Programm ins Leben gerufen, dass sich „Fujitsu Distinguished Engineers“  nennt.

Darin sind die besten Ingenieure und Entwickler von Fujitsu vereint mit dem Ziel, ihr Wissen rund um Machine Learning, Deep Learning, etc. fundiert auszubilden, damit sie möglichst schnell Fujitsu-Kunden bei der Realisierung von KI-Projekten unterstützen können. Daneben sollen diese KI-Experten an Schulen und Unis Schüler und Studenten für die Möglichkeiten der Künstlichen Intelligenz begeistern.

Fujitsu Labs entwickeln intelligente Deep-Learning-Technik mithilfe transitiver Methoden

Die Fujitsu-Labore in Japan und Europa beschäftigen sich schon eine ganze Weile mit dem Bereich „Transitives Lernen“. Hierbei geht es im Wesentlichen um die Wiederverwendbarkeit von bereits gelernten Inhalten. Herausgekommen ist dabei ein System, das sich für die unterschiedlichsten KI-Projekte nutzen lässt, selbst wenn diese auf den ersten Blick nichts miteinander zu tun haben.

Der Vorteil dieser Methode liegt auf der Hand: Die Trainingsphase für ein neues Machine-Learning-Modell ist relativ kurz, und die hierfür benötigten Daten umfassen deutlich weniger Datensätze als bei herkömmlichen Methoden. Dieser ganz neue Ansatz der Fujitsu-Labore soll vor allem in der Predictive Maintenance eingesetzt werden, also für das frühzeitige Erkennen von potentiellen Maschinenfehlern oder Materialschwächen, was speziell in der fertigenden Industrie wichtig ist.

Das vollständige Interview mit Dr. Joseph Reger

Dr. Hubert Jäger über den IoT Security Kongress 2018

Videoblog: „Der IoT Security Kongress soll das Projekt car-bits.de bekannter machen“

Als Einlader und Hausherr kam Dr. Hubert Jäger von der Uniscon GmbH vor meiner Kamera während des IoT Security Kongresses zu Wort. Er sprach über das Event selbst, über den Sinn und Zweck der Veranstaltung und verriet mir Wissenwertes rund um das zugehörige Projekt car-bits.de.

Der IoT Security Kongress präsentierte Ergebnisse des Projekts „car-bits.de“

Anders als auf anderen Veranstaltungen dieser Art hatte der IoT Security Kongress in den heiligen Hallen des TÜV Süd in München nur einen Zweck: Er wollte die wichtigsten Ergebnisse und Erkenntnisse des Connected-Cars-Projekts „car-bits.de“ zusammenfassen. Hierfür kamen vor allem die Beteiligten zu Wort, also Vertreter von Continental, vom Fraunhofer AISEC, vom TÜV Süd, von Deloitte und andere mehr.

Damit sollte eine breitere Öffentlichkeit erreicht werden, um auf diesem Weg wichtige Aspekte rund um das Thema „Vernetztes Fahren“ präsentieren zu können. Speziell eine höchstmögliche Sicherheit stand dabei auf der Agenda, wie sich also zB sichere Backends bei den Automobilherstellern und den Prüforganisationen wie dem TÜV implementieren lassen. Es stand aber auch die Sicherheit für branchenübergreifende IoT-Anwendungen im Vordergrund.

Anwesend waren unter anderem Vertreter der Automobilindustrie, der IT- und Cloud-Wirtschaft und der IT-Sicherheitsbranche.

Uniscon steuerte Organisation und die Sealed Cloud-Plattform zu car-bits.de bei

Einerseits übernahm Uniscon die Konsortialführerschaft des car-bits.de-Projekts, war also für die Koordination aller Beteiligten und den reibungslosen Ablauf dieses zwei Jahre währenden Forschungsprojekts zuständig. Zum anderen steuerte Uniscon seine Sealed Cloud-Plattform bei, was für einen der Partner (Continental) ausschlaggebend war, das Konsortium zu gründen. Darüber hinaus konnte Uniscon weitere wichtige Partner aus dem Forschungsbereich für das Projekt gewinnen.

Car-bits.de wurde in Teilen vom Bundeswirtschaftsministerium gefördert

Das es sich bei car-bits.de um ein Förderprojekt im Rahmen der zahlreichen Programme des Bundeswirtschaftsministeriums handelte, wurde ein Teil der notwendigen Gelder auf diesem Weg bereitgestellt. Den Großteil der Geldmittel brachten allerdings Uniscon selbst und die Continental AG auf. Die Fördergelder flossen in kleineren Maßen an die Industriepartner des Projekts und zum größeren Teil an die beteiligten Forschungsinstitute.

Das komplette Interview mit Dr. Hubert Jäger

Dr. Julia Schütte, Fraunhofer AISEC

Videoblog: „Mit LUCON lassen sich kritische von unkritischen Daten a priori unterscheiden“

Dieses Interview habe ich mit Dr. Julian Schütte von Fraunhofer AISEC geführt. Darin spricht er über die Rolle seines Instituts im Rahmen des car-bits.de-Projekts und was es mit dem dem Begriff „LUCON“ auf sich hat.

Das Internet of Things erfordert neue Datenschutzkonzepte

Während des IoT Security Kongress der Firma Uniscon habe ich vor allem eins gelernt: Das Thema Zugriffskontrolle in Zeiten von IoT im Allgemeinen und Connected Cars im Speziellen erfordert ganz neue Ansätze.

Das hat vor allem damit zu tun, dass im Gegensatz zur klassischen IT in der Welt des IoT Daten sich nicht nur an einer Position befinden, sondern ständig in Bewegung sind. So werden sie von Sensoren erfasst, dann zur weiteren Verarbeitung in die Cloud transferiert, usf. Und an jeder dieser Positionen stellt sich die Frage: Wer darf diese Daten an welcher Stelle bearbeiten? Und für die Antwort dieser Frage sind eben neue Ansätze und neue Konzepte erforderlich.

Mit „LUCON“ werden Datenschutzverletzungen erkannt, bevor diese passieren

Genau an dieser Stelle und zu diesem Zweck kommt das Policy-System „LUCON“ von Fraunhofer AISEC ins Spiel. Denn mit dieser Software-Lösung, die im Rahmen des car-bits.de-Projekts eingesetzt wurde, lässt sich eine Architektur auf ihre Durchlässigkeit in Sachen Datenschutz untersuchen. Daraus ergeben sich zwei mögliche Zustände: Ja, eine Datenschutzregel könnte durch einen bestimmten Datenfluss verletzt werden – oder nicht.

LUCON steht übrigens für Label-Based Usage CONtrol und klassifiziert zum beschriebenen Zweck Daten an dem Ort, wo sie entstehen. Während die Daten dann verarbeitet werden, untersucht LUCON diese anhand ihrer Klassifizierung. Damit lässt sich bestimmen, wie mit den erfassten Daten umgegangen werden soll, wie sie sich also beispielsweise aggregieren oder weiterverarbeiten lassen. Damit können die Anforderungen des Datenschutzes direkt in der zugrundeliegenden Technik umgesetzt werden.

LUCON spielte bei car-bits.de ein wichtige Rolle

So ist es kaum verwunderlich, dass LUCON im Rahmen des Connected-Car-Projekts car-bits.de eine wichtige Rolle inne hatte, nämlich das Klassifizieren der dort erfassten Daten – und das sind ziemlich viele. So werden bei einem vernetzen Auto unkritische Daten für die Position und Größe eines Schlaglochs auf der Fahrbahn genauso erfasst und verarbeitet wie die kritischen, die oft personenbezogen sind. Damit muss ein System wie LUCON automatisch anhand geeigneter Kriterien quasi vorab erkennen können, ob ein Datum im Hinblick auf den Datenschutz besonders heikel ist – oder eben nicht.

Das komplette Interview mit Julian Schütte

 

Wilfried Cleres, Fujitsu Deutschland

Videoblog: „Die KI im Rechenzentrum erkennt Anomalien schon im Voraus“

Dieses Videointerview habe ich mit Wilfried Cleres von Fujitsu und Wolfram Muehlboeck von CA Technologies auf dem Fujitsu Forum 2018 geführt. Thema war der Einsatz der Künstlichen Intelligenz im Rechenzentrum und wo es dort bereits sinnvoll genutzt werden kann.

Die KI sorgt für „vorausschauende Rechenzentren“

Die KI im Rechenzentrum scheint den Kinderschuhen zu entwachsen und kommt immer öfter auch in Produktivsystemen zum Einsatz. So gibt es beispielsweise eine Software, die sich Mainframe Operational Intelligence nennt. Diese KI-Software erfasst kontinuierlich den riesigen Datenstrom eines Rechenzentrums und lernt damit nach und nach, Anomalien im RZ selbstständig zu erkennen und davor rechtzeitig zu warnen.

Praktische Anwendung der KI im Rechenzentrum

Anhand der zahlreichen Metriken, die in einem Rechenzentrum anfallen, vermag die KI-Software anhand des Zeitablaufs das „normale“ Verhalten sämtlicher Parameter von „auffälligen“ Situationen zu unterscheiden. Das gelingt vor allem wegen der möglichen Korrelationen der vorhandenen Werte zueinander, woraus sich eine immer bessere Vorhersage eines möglichen Hardware-Defekts oder zu erwartenden Netzwerkproblems ergibt. Davon lassen sich natürlich eine Vielzahl an möglichen Reaktionen ableiten: Von der E-Mail-Warnung bis hin zur automatischen Fehlerbehebung ist so ziemlich alles denkbar.

Das Verständnis für die KI im Rechenzentrum sollte verbessert werden

Da es sich bei der KI im Rechenzentrum ja immer noch um eine sehr junge Disziplin handelt, gilt ein besonderes Augenmerk der Bewusstsein-Schaffung für die Möglichkeiten der Künstlichen Intelligenz. Denn nur anhand probater und sinnvoller Einsatzszenarien und -möglichkeiten lassen sich die Anwender eines Rechenzentrums auch von der Sinnhaftigkeit der KI in ihrem Umfeld überzeugen. Denn auch hier gilt: Die KI will keine Arbeitsplätze wegnehmen, sondern diese sichern und neu schaffen.

Das komplette Interview zur KI im Rechenzentrum

Uwe Scheuber, Fujitsu Deutschland

Videoblog: „Mit unseren Management-Tools gelingt der Umstieg in die Multi-Cloud“

Dem Thema Multi-Cloud begegnet man allerorten, also auch auf dem diesjährigen Fujitsu Forum, auf dem ich zum zweiten Mal dabei sein durfte.

Dort habe ich das nachfolgende Interview mit einem der Fujitsu-Experten zum Thema Cloud geführt, nämlich mit Uwe Scheuber, seines Zeichens Director Cloud & Hybrid IT. Von ihm wollte ich wissen, was seine Kunden zum Thema Cloud gerade umtreibt, wie Fujitsu seine Kunden beim Gang in die Multi-Cloud unterstützt, wie die Migration in die Multi-Cloud aussehen kann und wie es Fujitsu schafft, in Multi-Cloud-Projekten als „Single Point of Contact“ wahrgenommen zu werden.

Firmen gehen gerade vermehrt in mehrere Cloud-Umgebungen

Der Trend zur Multi-Cloud hält an, keine Frage. Dass hierbei Fujitsu seine Kunden berät und unterstützt, ist ja wohl klar. Und das sowohl im Bezug auf Public als auch auf Private Clouds. Hierfür hat Fujitsu ein Software-Tool entwickelt, das sich Fujitsu Cloud Services Management nennt. Damit führt Fujitsu mehrere Cloud-Plattform unter einer Bedieneroberfläche zusammen und schafft es so, Microsoft Azure, Amazon AWS, Google Cloud, Oracle Cloud, VMware Cloud und viele andere in eine Multi-Cloud zu migrieren.

Das birgt zwei wesentliche Vorteile in sich: Vorhandene Workloads können beinahe beliebig von einer Cloud-Plattform auf die andere verschoben werden, und die Kosten lassen sich damit wesentlich einfacher transparent machen.

Multi-Cloud-Migration in der Praxis mit Fujitsu

Selbst mit großen Private-Cloud-Installationen, bestehend aus 3.500 virtuellen Azure-Instanzen und virtuellen VMware-Instanzen im eigenen Rechenzentrum, lassen sich diese riesigen Infrastrukturen mithilfe des Fujitsu Cloud Services Management nahezu nahtlos beispielsweise in eine Amazon Web Services-Umgebung überführen und verwalten.

Für Kunden wichtig: „Single Point of Contact“

Klar, dass sich bei der eigenen Multi-Cloud-Strategie irgendwann die Frage stellt: Wer ist eigentlich mein direkter Ansprechpartner? Google? Microsoft? Amazon? Oder gar alle zusammen. Um genau diese Unklarheiten erst gar nicht entstehen zu lassen, hat Fujitsu mit allen großen Cloud-Providern Verträge abgeschlossen, die das Unternehmen als Vertragspartner gegenüber den eigenen Kunden auftreten lassen. Damit stellt Fujitsu für seine Multi-Cloud-Kunden den alleinigen Ansprechpartner dar, wenn es um Fragen zur Migration der einzelnen Cloud-Dienste geht.

Das komplette Interview mit Uwe Scheuber

 

Udo Schneider von Trend Micro auf der it-sa 2018

Videoblog: „Apex One ist eine Oberfläche für alle Tools“

Dieses Interview habe ich mit Udo Schneider von Trend Micro auf der it-sa 2018 geführt. Darin stellt er die brandneue Security-Lösung Apex One vor, zählt auf, was Trend Micro anders macht als andere Sicherheitsfirmen und nennt seine persönlichen Top-3-Tipps in Sachen Endpoint-Security.

Apex One von Trend Micro: EIN Tool für alle Sicherheitsmaßnahmen

Mit Apex One hat Trend Micro seine neue EDR-Lösungen vorgestellt (EDR steht für Endpoint Detection and Response). In diesem neuen Produkt sind alle Endpoint-Techniken von Trend Micro eingeflossen, was vor allem für den Endanwender den großen Vorteil bringt, sämtliche Sicherheitsmerkmale über eine einzige Bedieneroberfläche abrufen und steuern zu können.

Das Aggregieren der vorhandenen Security-Tools innerhalb des Unternehmens auf Basis von Apex One bedeutet aber auch das Aggregieren sämtlicher Daten, die dort zusammenlaufen. Und das bedeutet wiederum bessere Vorhersagen hinsichtlich möglicher Angriffsszenarien und bessere Automatisierungsmöglichkeiten. Das betrifft sowohl die Integration in ein SOC als auch die Integration einer Third-Party-Lösung in Apex One.

Damit unterscheidet sich Trend Micro von seinen Mitbewerbern

30 Jahre Security-Erfahrung, das macht natürlich eine Menge aus, wenn man den Markt ingesamt betrachtet. Ob das die Erfahrung der Mitarbeiter betrifft oder die zum Einsatz kommenden Technologien oder das Wissen rund um das Thema IT-Sicherheit – vor allem damit steht Trend Micro ganz weit vorne.

Darüber hinaus werden Logdateien so ausgewertet und aufbereitet, dass auch der eher unbedarfte Anwender auf einen Blick sehen kann, wo es klemmt oder wo gerade mögliche Angriffsziele lauern – und wie sich die zugehörigen Lücken und Schwachstellen schließen lassen. Aber auch mit der bereits erwähnten Integration eigener Security-Lösungen in Applikationen von externen Anbietern unterscheidet Trend Micro von anderen Anbietern.

Drei Tipps in Sachen Endpoint-Sicherheit

Geradezu banal mutet der erste Tipp an: Regelmäßig sämtliche Endpoint-Systeme patchen, und das entweder direkt am System selbst oder in Form eines virtuellen Abwehrschilds.

Der zweite Tipp ist weniger trivial. Hierbei geht es um das Identifizieren sogenannter Einfallsvektoren, also sämtlicher Bedrohungsszenarien von außen (und innen) und wie man sich dagegen wirksam schützen kann.

Darauf setzt auch der dritte Tipp auf: Sämtliche Endpoints sind regelmäßig zu überwachen, nur so kann ich sie auch bestmöglich schützen. Damit lässt sich zuverlässig feststellen, was zum „Grundrauschen“ gehört und was tatsächlich einen Cyberangriff darstellt.

Das komplette Interview mit Udo Schneider

Disclaimer: Für diesen Videoblogbeitrag hat mich Trend Micro beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Michel Paulin auf dem OVH-Summit 2018

Videoblog: „Für uns ist die Cloud eine Open-Source-Plattform“

Dieses Videointerview habe ich mit Michel Paulin, CEO von OVH, während des großen OVH-Summit geführt. Darin spricht er über die Abkürzung S.M.A.R.T, erklärt die Bedeutung des OVH-Summit für sein Unternehmen und zeigt auf, was es mit den vier neu geschaffenen OVH-Universen auf sich hat.

Mit SMART geht OVH neue Cloud-Wege

Während seines Keynote-Vortrags sprach Michel Paulin über den Begriff „SMART“, der in diesem Fall für eine Abkürzung steht, die folgendes bedeutet:

„S“ wie Simple: Hierfür steht das Bestreben seitens OVH, das Migrieren von On-Premise-Anwendungen in die Cloud so einfach und simpel wie möglich zu machen, und das mit den passenden Tools und Prozessen.

„M“ wie Multilocal: OVH ist zwar ein global operierendes Unternehmen, versteht sich aber trotzdem als lokal fungierender Cloud-Provider, der seine Kunden genau dort betreuen und unterstützen will, wo diese ihren Sitz haben. Das geschieht in vielen Fällen gemeinsam mit lokalen Partnerunternehmen.

„A“ wie Accessible: Die OVH-Cloud muss für jeden zugänglich sein, und das auf Basis vorhersagbarer Preise.

„R“ wie Reversable: Sich an den Grundsätzen der Open Cloud Foundation orientierend, basiert die OVH-Cloud auf Open-Source-Software. Damit will OVH sicherstellen, dass kein Kunde an proprietäre Lösungen gebunden ist, wenn er sich einmal für OVH entschieden hat.

„T“ wie Transparent: Mithilfe der größtmöglichen Transparenz will OVH vor allem eine Transparenz der Daten schaffen, die in Zeiten der DSGVO unumgänglich ist. Und das gilt für die eigenen Daten genauso wie die der OVH-Kunden.

Der OVH-Summit ist Treffpunkt für Kunden und Partner

Der alljährlich stattfindende OVH-Summit ist so etwas wie die Hausmesse des Unternehmens, auf der Kunden und Partner ihre Erfahrungen, Fragen und Wünsche rund um das OVH-Universum austauschen können. Auf diesem Weg kann OVH auch zeigen, wie wichtig Geschäftspartnerschaften für das Unternehmen sind – und umgekehrt. Und natürlich ist das OVH-Summit immer wieder eine gute Gelegenheit, neue Produkte, neue Dienste und neue Ideen vorzustellen.

OVH mal 4: Von klein bis ganz groß

Was auf dem OVH-Summit ebenfalls vorgestellt wurde, sind die neuen sogenannten OVH-Universen, da Kunden mittlerweile anders mit OVH interagieren und kommunizieren. Herausgekommen sind vier Bereiche:

OVHmarket, die digitale Austauschplattform für mittelgroße Unternehmen, auf der die Kunden all das von OVH bekommen, was für ihren Cloud-Auftritt notwendig ist.

OVHspirit, der „Hardware-Shop“ der OVH, in dem der neueste Server, die neueste Strorage-Appliance und andere Zutaten bereitstehen.

OVHstack, die Schnittstelle zur OVH-Cloud, und das auf Basis von offenen Software-Lösungen.

OVHenterprise, der „Shop“ für große und größere Unternehmen, die auf die gesamte Palette an Public-, Private- und Hybrid-basierten Cloud-Infrastrukturen und -Lösungen zugreifen wollen.

Das komplette Interview mit Michel Paulin

 

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit OVH Deutschland entstanden.