Dr. Joseph Reger, Fujitsu

Videoblog: „Der KI mangelt es vor allem an gut ausgebildeten Experten“

Er ist multilingual, „Cheftechniker“ bei Fujitsu und sehr unterhaltsam. Die Rede ist von Dr. Joseph Reger, mit dem ich das folgende Interview während des Fujitsu Forum 2018 führen durfte. Zentrales Thema war die Künstliche Intelligenz.

KI ist für viele Unternehmen noch eher unwichtig

Eine von Fujitsu in Auftrag gegebene Studie zum Thema Künstliche Intelligenz zeigt recht schonungslos auf, woran es hierzulande in Sachen KI mangelt: Strategisch wichtig scheint sie (noch) nicht zu sein, und eine richtige KI-Strategie haben auch nur wenige Unternehmen.

Das hat einen recht einfachen Grund: Der Mangel an gut ausgebildeten KI-Experten, die für Projekte und Anwendungen zwingend erforderlich wären. Zwar wird aktuell eine Menge getan, um diesen Missstand zu verbessern, was allerdings noch einiges an Zeit in Anspruch nehmen wird. Im Widerspruch dazu steht, dass die KI möglichst bald in Firmen Einzug halten sollte, um brachliegendes Potential zu aktivieren und bestmöglich nutzen zu können.

Fujitsu leistet seinen KI-Beitrag auf ganz unterschiedlichen Ebenen

Fujitsu hat die Zeichen der Zeit erkannt und investiert auf ganz unterschiedlichen Ebenen in die Künstliche Intelligenz. Dazu gehören auch interne Fortbildungen und der Wissensaufbau rund um das Thema KI. Hierfür hat das Unternehmen ein Programm ins Leben gerufen, dass sich „Fujitsu Distinguished Engineers“  nennt.

Darin sind die besten Ingenieure und Entwickler von Fujitsu vereint mit dem Ziel, ihr Wissen rund um Machine Learning, Deep Learning, etc. fundiert auszubilden, damit sie möglichst schnell Fujitsu-Kunden bei der Realisierung von KI-Projekten unterstützen können. Daneben sollen diese KI-Experten an Schulen und Unis Schüler und Studenten für die Möglichkeiten der Künstlichen Intelligenz begeistern.

Fujitsu Labs entwickeln intelligente Deep-Learning-Technik mithilfe transitiver Methoden

Die Fujitsu-Labore in Japan und Europa beschäftigen sich schon eine ganze Weile mit dem Bereich „Transitives Lernen“. Hierbei geht es im Wesentlichen um die Wiederverwendbarkeit von bereits gelernten Inhalten. Herausgekommen ist dabei ein System, das sich für die unterschiedlichsten KI-Projekte nutzen lässt, selbst wenn diese auf den ersten Blick nichts miteinander zu tun haben.

Der Vorteil dieser Methode liegt auf der Hand: Die Trainingsphase für ein neues Machine-Learning-Modell ist relativ kurz, und die hierfür benötigten Daten umfassen deutlich weniger Datensätze als bei herkömmlichen Methoden. Dieser ganz neue Ansatz der Fujitsu-Labore soll vor allem in der Predictive Maintenance eingesetzt werden, also für das frühzeitige Erkennen von potentiellen Maschinenfehlern oder Materialschwächen, was speziell in der fertigenden Industrie wichtig ist.

Das vollständige Interview mit Dr. Joseph Reger

Stefan Roth von Fujitus über NVMe und KI-Storage

Videoblog: „NMVe-Storage wird künftig eine noch wichtigere Rolle spielen“

Dieses Interview habe ich mit Stefan Roth von Fujitsu auf dem Fujitsu Forum 2018 geführt. Themen waren der Einsatz der NVMe-Technik und welche Rolle die Künstliche Intelligenz im Storage-Umfeld spielt.

Das Fujitsu-Storage-Rad dreht sich weiter und weiter

Im Oktober erst hat Fujitsu mit der ETERNUS DX8900 S4 ein Storage-System auf den Markt gebracht, das von Hause aus mit NVMe-Cache ausgestattet ist. Die Speicherlösung lässt sich mit bis zu 24 Compute-Knoten ausstatten und bietet einen Maximalspeicher von gut 141 Terabyte. Ein besonderes Merkmal des ETERNUS DX8900 S4 ist die FPGA-basierte Datenkomprimierung, was mehr Spielraum für aufwändige Applikationen lässt, da die Serverprozessoren von den FPGA-Chips entlastet werden.

NVMe kommt in unterschiedlichen Ausprägungen zum Einsatz

Das Besondere an der NVMe-Technik ist ja dessen einfache Handhabe, womit es viel mehr ist als nur ein ergänzendes Protokoll zu SCSI. Das äußert sich vor allem in reduzierten Latenzzeiten zwischen Speichereinheiten, weshalb es aktuell bevorzugt für Cache-Speicher eingesetzt wird. Darüber hinaus taugt NVMe auch als Verbindungstechnik zu SSD-Storage-Einheiten und ersetzt damit SCSI und SAS.

Die Königsdisziplin stellt allerdings NVMe over Fabric dar, also die NVMe-basierte Anbindung von Storage-Einheiten über das lokale Netzwerk, also zB via Broacade Gen 6. Das vereinfacht zum einen die Verbindung zu den vorhandenen Servern und erlaubt zum anderen eine höhere Zahl an Maschinen, die sich mit den Storage-Systemen verbinden lassen.

Mit NVMe macht Fujitsu 2019 so richtig ernst

Im nächsten Jahr wird Fujitsu eine ganz neue Serie ins ETERNUS-Portfolio aufnehmen, die dem Thema NVMe noch mehr Rechnung trägt als dies bisher der Fall ist. Detaillierte Infos dazu wird es auf den Fujitsu Storage Days 2019 geben, die vom 22. Januar 2019 an in zahlreichen Städten stattfinden und die das Thema ETERNUS in den Vordergrund rücken.

Die Künstliche Intelligenz erfordert unterschiedliche Speichersystemen

Spricht man über das Thema Künstliche Intelligenz, kommt man um das Thema Big Data bzw. große Datenmengen nicht herum. Daten werden hierfür nämlich im großen Stil gesammelt und gespeichert, aber auch in Echtzeit verarbeitet. Hinzu kommt die Notwendigkeit, bestimmte Daten zu archivieren, und so fort. Das stellt an die hierfür notwendigen Speichersysteme ganz unterschiedliche Anforderungen. Das beginnt bei möglichst kurzen Antwortzeiten und endet bei einem maximal hohen Datendurchsatz. Aber, und auch das will bei der KI berücksichtig werden, rücken zB bei unstrukturierten Daten neue Konzepte wie Objektspeicher in den Vordergrund.

Das komplette Interview mit Stefan Roth

Wilfried Cleres, Fujitsu Deutschland

Videoblog: „Die KI im Rechenzentrum erkennt Anomalien schon im Voraus“

Dieses Videointerview habe ich mit Wilfried Cleres von Fujitsu und Wolfram Muehlboeck von CA Technologies auf dem Fujitsu Forum 2018 geführt. Thema war der Einsatz der Künstlichen Intelligenz im Rechenzentrum und wo es dort bereits sinnvoll genutzt werden kann.

Die KI sorgt für „vorausschauende Rechenzentren“

Die KI im Rechenzentrum scheint den Kinderschuhen zu entwachsen und kommt immer öfter auch in Produktivsystemen zum Einsatz. So gibt es beispielsweise eine Software, die sich Mainframe Operational Intelligence nennt. Diese KI-Software erfasst kontinuierlich den riesigen Datenstrom eines Rechenzentrums und lernt damit nach und nach, Anomalien im RZ selbstständig zu erkennen und davor rechtzeitig zu warnen.

Praktische Anwendung der KI im Rechenzentrum

Anhand der zahlreichen Metriken, die in einem Rechenzentrum anfallen, vermag die KI-Software anhand des Zeitablaufs das „normale“ Verhalten sämtlicher Parameter von „auffälligen“ Situationen zu unterscheiden. Das gelingt vor allem wegen der möglichen Korrelationen der vorhandenen Werte zueinander, woraus sich eine immer bessere Vorhersage eines möglichen Hardware-Defekts oder zu erwartenden Netzwerkproblems ergibt. Davon lassen sich natürlich eine Vielzahl an möglichen Reaktionen ableiten: Von der E-Mail-Warnung bis hin zur automatischen Fehlerbehebung ist so ziemlich alles denkbar.

Das Verständnis für die KI im Rechenzentrum sollte verbessert werden

Da es sich bei der KI im Rechenzentrum ja immer noch um eine sehr junge Disziplin handelt, gilt ein besonderes Augenmerk der Bewusstsein-Schaffung für die Möglichkeiten der Künstlichen Intelligenz. Denn nur anhand probater und sinnvoller Einsatzszenarien und -möglichkeiten lassen sich die Anwender eines Rechenzentrums auch von der Sinnhaftigkeit der KI in ihrem Umfeld überzeugen. Denn auch hier gilt: Die KI will keine Arbeitsplätze wegnehmen, sondern diese sichern und neu schaffen.

Das komplette Interview zur KI im Rechenzentrum

Uwe Scheuber, Fujitsu Deutschland

Videoblog: „Mit unseren Management-Tools gelingt der Umstieg in die Multi-Cloud“

Dem Thema Multi-Cloud begegnet man allerorten, also auch auf dem diesjährigen Fujitsu Forum, auf dem ich zum zweiten Mal dabei sein durfte.

Dort habe ich das nachfolgende Interview mit einem der Fujitsu-Experten zum Thema Cloud geführt, nämlich mit Uwe Scheuber, seines Zeichens Director Cloud & Hybrid IT. Von ihm wollte ich wissen, was seine Kunden zum Thema Cloud gerade umtreibt, wie Fujitsu seine Kunden beim Gang in die Multi-Cloud unterstützt, wie die Migration in die Multi-Cloud aussehen kann und wie es Fujitsu schafft, in Multi-Cloud-Projekten als „Single Point of Contact“ wahrgenommen zu werden.

Firmen gehen gerade vermehrt in mehrere Cloud-Umgebungen

Der Trend zur Multi-Cloud hält an, keine Frage. Dass hierbei Fujitsu seine Kunden berät und unterstützt, ist ja wohl klar. Und das sowohl im Bezug auf Public als auch auf Private Clouds. Hierfür hat Fujitsu ein Software-Tool entwickelt, das sich Fujitsu Cloud Services Management nennt. Damit führt Fujitsu mehrere Cloud-Plattform unter einer Bedieneroberfläche zusammen und schafft es so, Microsoft Azure, Amazon AWS, Google Cloud, Oracle Cloud, VMware Cloud und viele andere in eine Multi-Cloud zu migrieren.

Das birgt zwei wesentliche Vorteile in sich: Vorhandene Workloads können beinahe beliebig von einer Cloud-Plattform auf die andere verschoben werden, und die Kosten lassen sich damit wesentlich einfacher transparent machen.

Multi-Cloud-Migration in der Praxis mit Fujitsu

Selbst mit großen Private-Cloud-Installationen, bestehend aus 3.500 virtuellen Azure-Instanzen und virtuellen VMware-Instanzen im eigenen Rechenzentrum, lassen sich diese riesigen Infrastrukturen mithilfe des Fujitsu Cloud Services Management nahezu nahtlos beispielsweise in eine Amazon Web Services-Umgebung überführen und verwalten.

Für Kunden wichtig: „Single Point of Contact“

Klar, dass sich bei der eigenen Multi-Cloud-Strategie irgendwann die Frage stellt: Wer ist eigentlich mein direkter Ansprechpartner? Google? Microsoft? Amazon? Oder gar alle zusammen. Um genau diese Unklarheiten erst gar nicht entstehen zu lassen, hat Fujitsu mit allen großen Cloud-Providern Verträge abgeschlossen, die das Unternehmen als Vertragspartner gegenüber den eigenen Kunden auftreten lassen. Damit stellt Fujitsu für seine Multi-Cloud-Kunden den alleinigen Ansprechpartner dar, wenn es um Fragen zur Migration der einzelnen Cloud-Dienste geht.

Das komplette Interview mit Uwe Scheuber