Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Thomas Harrer von IBM über KI und Daten

Videoblog: „Die KI wird uns helfen, die Welt besser zu verstehen“

Dieses Interview habe ich auf den IBM Storage Strategy Days 2018 mit Thomas Harrer geführt. Darin spricht er über die Notwendigkeit guter und valider Daten für KI-Anwendungen und was das für aktuelle und künftige Storage-Systeme bedeutet.

Die Datenexplosion der nächsten Jahre und ihre Folgen

Eine der wesentlichen Grundvoraussetzungen für eine funktionierende Künstliche Intelligenz ist das Bereitstellen und Vorhalten der benötigten Daten, die meist in großer Zahl vorliegen. Daher ist die richtige Storage-Strategie unerlässlich, will man die KI bestmöglich einsetzen und nutzen.

Eine Besonderheit kommt hierbei den unstrukturierten Daten zu, die im Verhältnis zu den strukturierten Daten deutlich schneller wachsen. Diese erfordern sehr viel leistungsfähigere und größere Speichersysteme, da hier die Datenmengen exponentiell wachsen. Das lässt sich sehr gut anhand einiger markanter Zahlen verdeutlichen.

Bis zum Jahr 2000 wurden weltweit etwa 2 Exabyte an Daten gespeichert. Das betraf alles von Büchern über Filme und anderen Informationen. Umgerechnet entspricht das 2.000 Petabyte. Mittlerweile werden 14 Exabyte an Daten generiert – und zwar pro Tag, woraus sich eine weltweit gespeicherte Datenmenge am Jahresende ergibt, die sich auf unglaubliche 20 Zettabyte beläuft.  Das sind 1.000.000.000.000.000.000.000 Bytes, also eine Million mal 1 Million mal eine Million mal 1.000.

Und diese Entwicklung schreitet weiter voran. So schätzen Experten, dass bis zum Jahr 2025 die Menschheit in etwa 165 Zettabyte an Daten generieren wird. Und was das für die benötigten Speichersysteme bedeutet, kann man sich wohl in etwa ausmalen.

Bereiche wie die Medizin treiben große Datenmenge voran

Dank medizinischer Apparaturen wie Mikroskope, Röntgengeräte, etc. werden schon seit vielen Jahren kontinuierlich Daten gesammelt und gespeichert. Hinzu kommt jetzt die Möglichkeit, das menschliche Genom immer kostengünstiger und besser analysieren und speichern zu können, wofür „nur“ etwa 700 Megabyte Datenspeicher erforderlich sind.

Will man allerdings noch das Genom sämtlicher menschlicher Bakterien entschlüsseln und protokollieren, verhält sich das gleich völlig anders. Hier kommen ganz schnell Terabyte an Daten zusammen, und das pro Patient! Was aber gleichzeitig bedeutet, dass die Erkenntnisse daraus neue Therapieformen ermöglichen, mit denen sich Patienten immer individueller behandeln lassen.

Die Künstliche Intelligenz hilft, die Welt besser zu verstehen

Die KI soll und wird uns helfen, die Welt anhand von Daten besser zu verstehen. Als Beispiel seien hier Videobilder zu nennen, die Geschehnisse aufzeichnen, die Bilder liefern für bestimmte Lebenslagen, und so fort. Klar ist hierbei, dass so sehr schnell riesige Datenmengen entstehen, die obendrein mit den typischen prozeduralen Algorithmen gar nicht richtig erfasst und verstanden werden können.

Daher sind neue Konzepte und Ansätze erforderlich, die vor allem auf Basis unstrukturierter Daten die Informationen liefern, die wir brauchen. Dazu gehören beispielsweise neuronale Netze, die mit diesen Daten ganz anders umgehen können und auch deutlich lernfähiger sind als die herkömmlichen Rechenansätze. So hilft die KI selbstfahrenden Autos, Gegenstände auf der Fahrbahn besser und schneller zu erkennen, weil sie permanent dazu lernen. Damit können autonom betriebene Fahrzeuge in Echtzeit entscheiden, wann sie bremsen sollen oder einem Hindernis einfach nur ausweichen können.

Das und vieles mehr wird uns helfen, die Welt ein bisschen verständlicher zu machen und die Automatisierung vieler Abläufe voranzutreiben.

Das komplette Videointerview mit Thomas Harrer

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Ein weiteres Interview von den IBM Storage Strategy Days 2018

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

 

Dominic Gaspary, Volkswagen AG, über VW We Experience

[Videoblog] Dominic Gaspary von der Volkswagen AG über VW We Experience

Auf der diesjährigen, komplett renovierten CEBIT habe ich dieses Interview mit Dominic Gaspary von der Volkswagen AG geführt. Thema war VW We Experience, das auf der IT-Messe in Hannover am IBM-Stand vorgestellt wurde. Und das geschah – räumlich betrachtet – aus gutem Grund.

Das verbirgt sich hinter „VW We Experience“

Grundsätzlich ist zu sagen, dass es sich bei Volkswagen We um ein digitales Ökosystem handelt. Konkret gesagt ist VW We der digitale Versuch, VW-Fahrer an jedem digitalen Touchpoint zu begegnen und ihm bestimmte Mehrwerte während der Autofahrt zu ermöglichen. Dazu gehören unter anderem so Dinge wie der Kofferraum als Lieferadresse für Amazon-Pakete, das Smartphone als digitale Parkuhr – und eben VW We Experience.

We Experience ist ein Bestandteil der VW-App „We Park“ und erlaubt beispielsweise das Einlösen von Gutscheinen entweder aus der App oder direkt aus dem Auto heraus.

Das können Autofahrer von We Experience erwarten

We Experience kann aber noch mehr. So bekommt der Fahrer beispielsweise im Falle eines niedrigen Wischwasserstands die nächste Tankstelle angezeigt, bei der sich der Wassertank wieder füllen lässt und erhält dafür in vielen Fällen sogar einen kleinen Rabatt eingeräumt. Hierfür werden Daten des Fahrzeugs genutzt, sodass VW-Besitzer nach und nach in den Genuss von Mehrwertdiensten kommen, die ihnen helfen, besser von A nach B zu gelangen.

Die We-Kooperation von IBM und Volkswagen im Detail

Volkswagen hat IBM ganz bewusst als Technologiepartner gewählt, um sich von „Big Blue“ in den Bereichen Machine Learning und Datenverarbeitung unterstützen zu lassen. IBM wiederum erlebt die Zusammenarbeit mit VW als enge Partnerschaft, aus der zukünftig weitere Dienste hervorgehen sollen. Diese neuen – aber auch aktuellen – Services entwickeln IBM und VW gemeinsam in Berlin, wo Mitarbeiter beider Firmen an neuen Konzepten und Ideen feilen.

Im Hintergrund kommt übrigens IBM Watson zum Einsatz, der die entscheidenden Impulse in Sachen Machine Learning und Co. liefert. Hierfür werden unter anderem Fahrzeug- und Bewegungsdaten benötigt, die VW an IBM Watson liefert, der daraus bestimmte Empfehlungen und Angebote ableitet. Das geschieht sehr individuell, also an die Bedürfnisse und Vorzüge des Autofahrers angepasst.

Das ist von VW We Experience noch zu erwarten

Volkswagen will und wird mit We Experience künftig weitere Bereiche erschließen und damit neue Teilnehmer in das Programm integrieren. Das können Tankstellenbesitzer bzw. -ketten sein, aber auch Einkaufszentren oder Ladengeschäfte. Das reicht vom Wechseln der Winterreifen bis hin zu speziellen Angeboten seitens der VW-Händler, die natürlich auch Teil des Ökosystems werden sollen. Aber letztlich sollen VW-Fahrer besser an die Marke Volkswagen gebunden werden. Hierzu bietet der Konzern mit VW We ein Fahrerlebnis, mit dem man Zeit und Geld spart.

Das komplette Interview in voller Länge

 

Matthias Hartmann (IBM) über die digitale Transformation

CEBIT 2018: Matthias Hartmann, IBM, über die digitale Transformation

Während der CEBIT 2018 hatte ich die Gelegenheit, dieses Interview mit Matthias Hartmann, General Manager IBM DACH, zu führen. Darin spricht er über sein erklärtes Lieblingsthema „Digitale Transformation“: Wo wir stehen, wie IBM helfen kann und ob die CEBIT in diesem Kontext der richtige Neuanfang ist.

Wie ist es hierzulande um die digitale Transformation bestellt?

In diesem Punkt ist Herr Hartmann etwas zwiegespalten: Es ist nicht so schlecht, wie oft behauptet wird, aber auch noch nicht so, wie es eigentlich sein sollte. Hierbei tun sich diverse Fragen auf:

  • Wie gehen Unternehmen mit der digitalen Transformation um?
  • Wie nimmt der einfache Anwender die digitale Transformation wahr?
  • Wie verhält es sich diesbezüglich mit grenzüberschreitenden Regeln und Regularien?

Wer aus Herrn Hartmanns Sicht zur digitalen Transformation auf jeden Fall beiträgt, ist die stetig größer werdende Start-up-Szene in Deutschland, aber auch die großen Technologieunternehmen wie IBM, Intel und Co. Und doch, so Hartmann, geht es eher um Wissen, um Kultur, um Geschäftsmodelle, als um eine rein technische Betrachtungsweise dieses Themas.

Wie kann die IBM bei der digitalen Transformation helfen?

Wichtig ist aus Herrn Hartmanns Sicht erst einmal die Bereitschaft, neue Dinge und Wege auszuprobieren – mit allen Möglichkeiten, sowohl im erfolgreichen als auch im weniger erfolgreichen Sinne. In diesem Zusammenhang sieht sich IBM als eine Art „Bereitsteller“ von Plattformen, an denen Unternehmen jedweder Couleur und Größe partizipieren können. Damit will „Big Blue“ leichter „konsumierbar“ werden, wie das Beispiel Watson ja sehr deutlich zeigt. Das belegt eindrucksvoll, dass sich IBM permanent dem Markt anpasst, um auf diesem Weg ein zuverlässiger und innovativer Partner sein zu können, den viele Firmen bei ihrer ganz persönlichen digitalen Transformation brauchen.

Stellt die „neue“ CEBIT einen Neuanfang dar?

Ja, so Herr Hartmann, die CEBIT 2018 ist ein Neuanfang, gar ein großer Wurf, über den er sich recht angetan zeigt. Nicht zuletzt wohl auch deshalb, weil die IBM als kritischer Geist an den Ideen- und Konzeptfindungstreffen teilgenommen hat. Natürlich muss man abwarten, wie die „neue“ CEBIT ankommt und welche Lehre daraus gezogen werden können. Doch eines ist für ihn völlig klar: Die Entscheidung – auch seitens der IBM – Technik und Technologie anfassbarer und transparenter zu machen, war eine sehr gute.

Und es ist wohl so, wie Herr Hartmann es sagt: Die neuen Konzepte und Ideen wurden angenommen, selbst viele Kritiker finden auf einmal wieder Gefallen an der CEBIT. Und selbst wenn die Besucherzahlen noch einmal schlechter waren als im vorherigen Jahr: Der Neustart der CEBIT war wichtig und richtig und macht Mut für weitere Ausgaben.

Das vollständige Interview mit Matthias Hartmann

 

Christopher Katzinski zur Blockchain-gestützten Fertigung

[Videochat] Christopher Katzinski von IBM über Blockchain-Marktplätze

Dieses Interview habe ich mit Christopher Katzinski von IBM auf der Hannover-Messe 2018 zum Thema Blockchain-Marktplätze geführt. Darin spricht er über die Möglichkeiten, die sich daraus für Fabrikinhaber und Firmen ohne Produktionsstätten ergeben, warum die Blockchain-Technologie hierfür eingesetzt wird und was IBM an dieser Stelle leistet.

„Was zeigt die Blockchain Techdemo auf der Hannover-Messe 2018?“

Die Techdemo Hyperfacture sollte das Potential zeigen, das in der Blockchain-Technologie für das produzierende Gewerbe schlummert. Dabei handelte es sich um eine Art Marktplatz, auf dem Produzenten freie Fertigungskapazitäten „verkaufen“ und Unternehmen ohne eigene Produktionszeiten „kaufen“ können.

Um Produktionskapazitäten an den Mann oder die Frau zu bringen bzw. zu erwerben, registrieren sich Fabrikinhaber und Firmen mit Produktionsbedarf auf der IBM Blockchain-Plattform. Sodann kann ein Unternehmen, das ein zu fertigendes Produktdesign besitzt, die Produktion desselben in Auftrag geben. Hierbei lässt sich genau festlegen, in welcher Qualität ein Produkt gefertigt werden soll, bis wann die Produktion abgeschlossen sein soll, und so fort.

Anschließend wird anhand einer bestmöglichen Übereinstimmung von angebotenen Fertigungskapazitäten und benötigten Produktionsmitteln ein sogenannter „Match“ hergestellt, der wie beim Onlinedating Anbieter und Nachfrager zusammenbringt. Um die Formalien wie die Bezahlung, Vertragsabschluss, etc. kümmert sich die Blockchain-Plattform.

Mithilfe der in die Produktionslandschaft integrierten IoT-Geräte lässt sich der aktuelle Fertigungszustand permanent darstellen. Damit kann beispielsweise der Auftragnehmer überprüfen, an welchem Standort produziert wird und ob es sich dabei um den vertraglich zugesicherten Fertigungsstandort handelt.

„Warum kommt in diesem Fall die Blockchain-Technik zum Einsatz?“

Der wesentliche Grund für den Einsatz der Blockchain-Technologie ist in diesem Fall das Thema Vertrauen. Denn dank der Blockchain-Plattform, auf dem Käufer und Verkäufer ins Geschäft kommen, lassen sich sämtliche Transaktionen speichern, und das unveränderlich. Das ist vor allem für mittelständische Unternehmen oder kleinere Start-ups wichtig, die einen eingeschränkten Bekanntheitsgrad aufweisen und damit einen nicht so hohen Stellenwert wie größere, bekanntere Mitbewerber genießen.

Genau für diese Unternehmen ist nämlich das Einhalten von Qualitätsstandards von allergrößter Wichtigkeit, was sich mithilfe der Blockchain-Technik transparent nachweisen lässt. Zudem ist in solche Systeme oft ein Rating-System integriert, womit sich Qualität und Zuverlässigkeit zusätzlich beurteilen lassen. Auch das erhöht das Vertrauen in das produzierende Unternehmen.

Für den Anbieter von Fertigungskapazitäten hingegen bietet solch ein System ebenfalls Vorteile, da sich Kriterien wie die Zahlungsmoral des Käufers von Produktionsmitteln transparent abbilden lassen. Diese und weitere Maßnahmen sorgen auf Käufer- und Verkäuferseite für eine erhöhtes Vertrauen.

„Wie kommt IBM an dieser Stelle ins Spiel?“

IBM kann innerhalb des Segments „Blockchain for Business“ durchaus als Pionier bezeichnet werden. So ist „Big Blue“ unter anderem seit 2016 Mitglied in der Hyperledger Foundation, wo gemeinsam mit der Linux Foundation die Blockchain-Technologie Hyperledger Fabric und Hyperledger Composer entwickelt wurde. Bei Hyperledger Fabric handelt es sich um ein Framework, mit dessen Hilfe Blockchain-Applikation entwickelt werden können. Diese Entwicklungsumgebung ist Teil der IBM Cloud, womit dieses Framework für jedermann zugänglich ist.

Für ein besseres Verständnis, welche Projekte sich mithilfe von Blockchain-Technologien realisieren lassen, bietet IBM Beratung, Workshops und andere unterstützende Maßnahmen an. Daraus resultierten bisher mehr als 400 Kundenprojekte, die mithilfe von IBM und Blockchain auf den Weg gebracht werden konnten. Allerdings ist nicht jede Anwendung blockchain-tauglich. Aber auch hier hilft IBM, genau das herauszufinden.

Das Interview mit Christopher Katzinski in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Justus Reich (IBM) über die Sicherheit von Industrieanlagen mittels IBM QRadar SIEM

[Videochat] Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM

Dieses Videointerview habe ich auf der Hannover-Messe 2018 mit Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM geführt. Darin spricht er über das Gefahrenpotential von Industrieanlagen, wie sich die Betreiber von solchen Anlagen gegen Angriffe von außen schützen können und was das alles mit IBM zu tun hat.

„Warum lassen sich Industrieanlagen nicht ganz so trivial absichern?“

Da Industrieanlagen eine deutliche längere Laufzeit als Standard-IT-Systeme aufweisen – das reicht bis zu 20 Jahren – kommen in den aktuellen Wasserkraft- und anderen Anlagen Techniken zum Einsatz, die schon etwas betagter sind, spricht nicht auf dem neuesten Stand sind. Damit sehen sich Industrieanlagen im Vergleich zu IT-Systemen einer größeren Gefährdung seitens möglicher Hackerangriffe ausgesetzt.

Klar ist auch in diesem Zusammenhang, dass sich diese Anlagen nicht mal eben so per Software-Update patchen lassen. Und genau dieser Umstand erfordert alternative Herangehensweisen und Methoden, wenn es um das Absichern von Industrieanlagen geht.

„Wie kann man Industrieanlagen gegen Angriffe von außen schützen?“

Für den Schutz von Industrie- und anderen Anlagen hat IBM ein Software-Tool im Programm, das sich IBM QRadar SIEM nennt, das ursprünglich für den IT-Bereich entwickelt wurde. Mit QRadar lassen sich sämtliche Informationen zu allen Netzwerkgeräten wie PLC- und SCADA-Controllern sammeln und darstellen. Darüber hinaus werden weitere Informationen rund um das Netzwerk mithilfe von QRadar ermittelt, womit der Software ausreichend Informationen zur Verfügung steht, um „guten“ von „schlechtem“ Netzwerk-Traffic unterscheiden zu können. Und das wiederum ist die Grundlage für entsprechende Maßnahmen, wenn es zu einem Angriff auf eine Industrieanlage kommt.

„Wie verhält sich IBM QRadar SIEM im praktischen Einsatz?“

Anhand des Beispiels eines Wasserkraftwerks lässt sich gut zeigen, wie IBM QRadar SIEM in der Praxis arbeitet. Hierzu werden einer oder mehrere PLC-Controller, die für die Steuerung der Anlage zuständig sind, mithilfe von QRadar permanent überwacht. Konkret gesagt, werden die gesamten Kommunikationsdaten zum Controller hin und davon weg fortwährend kontrolliert und dabei in Echtzeit entschieden, ob die Kommunikation mit dem Gerät eine bekannte oder eine eher unbekannte ist. Damit lässt sich zuverlässig feststellen, ob es sich um einen Angriff auf die Anlage handelt oder ob das Standard-Kommunikationsdaten sind.

In einfachen Fällen ist QRadar in der Lage, geeignete Maßnahmen zu ergreifen, um den Angriff abzuwehren. In anderen, komplexeren Fällen können die Administratoren der Industrieanlage schnell genug auf die Anomalie reagieren und die richtigen Schlüsse daraus ziehen.

Das Videointerview mit Justus Reich in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Eduard Erhart über IBM Supply Chain Insights

Eduard Erhart über IBM Supply Chains Insights und Watson AI

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Eduard Erhart zum Thema IBM Supply Chains Insights geführt. Mit diesem Tool hilft IBM ihren Kunden, Lieferkettenprozesse künftig mithilfe von Watson AI zu optimieren und einfacher zu gestalten.

„Was zeigt IBM [auf der Hannover-Messe] zum Thema Watson AI und Supply Chains?“

Kern des Demopunktes, an dem Eduard Erhart während der Hannover-Messe 2018 sein Wissen weitergegeben hat, war das Teilen von Erkenntnissen mit Messebesuchern rund um das Thema Supply Chains, also Lieferketten, und welche Erfahrungen IBM während der letzten Jahren im Kontext ihrer Supercomputer und Speicherlösungen sammeln konnte. Herausgekommen ist ein Softwaretool, das sich IBM Supply Chain Insights nennt, mit dem auf die sehr speziellen Anforderungen von Kunden an deren Lieferketten reagiert werden kann.

„Welche Vorteile ergeben sich dabei aus dem Einsatz von Künstlicher Intelligenz (AI)?“

Laut Herrn Erhart ergeben sich im Kontext von Lieferketten durch den Einsatz von Künstlicher Intelligenz ganz neue Möglichkeiten. So lassen sich mithilfe von IBM Watson AI Services die bestehenden Supply-Chain-Daten von Unternehmen um externe Daten und Informationen anreichern, die allerdings in vielen Fällen unstrukturiert vorliegen.

Genau das erfordert eine ganz spezielle Behandlung und Verarbeitung dieser Daten von außerhalb. An dieser Stelle kommt IBM Supply Chain Insights ins Spiel. Damit lassen sich die Daten des Kunden mühelos auswerten, bewerten und in den richtigen Kontext setzen mit den eigenen und fremden Daten.

„Wie profitieren IBM-Kunden [dabei genau] von IBM Supply Chain Insights?“

Die große Herausforderung, mit der sich Kunden und Anwender konfrontiert sehen, lautet: Wie kann ich die riesigen Datenmengen sinnvoll einsetzen, um möglichst schnell gewinnbringende Informationen über meine Lieferkettenprozesse zu bekommen? Hierfür bietet sich eben das Softwaretool IBM Supply Chains Insights an, das innerhalb der IBM Cloud zur Verfügung steht.

Damit haben IBM-Kunden einerseits einen schnellen Zugriff auf diese Lieferketten-Analysesoftware, andererseits können sie gleichzeitig die anderen vorhandenen IBM-Cloud-Tools nutzen, die dort ebenfalls bereit stehen. Auch damit lassen sich Lieferkettenprobleme analysieren und beheben. Dies geschieht unter anderem auf Basis eines Chattools, auf das jeder Anwender innerhalb des Unternehmen Zugriff hat.

„Wie genau arbeitet IBM Supply Chain Insights?“

IBM Supply Chain Insights betrachtet die vorhandenen Transaktionsdaten und erkennt automatisch die Abweichungen von einem vorher definierten Soll-Zustand. Sollte dieser Fall eintreten, wird der Anwender darüber in Kenntnis gesetzt, um darauf reagieren zu können. So kann er sich mit seinem Team innerhalb eines Chatrooms von IBM Supply Chain Insights treffen, um eine möglichst probate Lösung des Problems zu eruieren.

Dabei füttert er IBM Watson AI mit den gewonnenen Erkenntnissen und möglichen Lösungsansätzen, von denen Watson wiederum lernen kann. Was am Ende dazu führen soll, dass beim nächsten Auftreten eines ähnlichen oder gleichen Problems eine Lösung schneller herbei geführt werden kann.

Das Videointerview mit Eduard Erhart in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Tobias Stöckel auf der Hannover-Messe über Predictive Maintenance

[Videochat] Tobias Stöckel über Predictive Maintenance mit IBM Watson AI

Während der Hannover-Messe 2018 habe ich dieses Interview mit Tobias Stöckel von der IBM geführt. Darin spricht er über IBM Watson AI als Frühwarnsystem bei möglichen Materialfehlern und was IBM sonst noch zum Thema Predictive Maintenance beizutragen hat – inklusive der richtigen Hardware.

„Was zeigt die Techdemo „AI powered Factory?“

An diesem großen Demopunkt, der während der gesamten Hannover-Messe 2018 mehr als gut besucht war, stand vor allem das Thema Predictive Maintenance im Vordergrund. Zutaten waren hierfür Machine Learning mithilfe von IBM Watson, die beide in der Produktion zunehmend eingesetzt werden. Damit sollen unter anderem die Automatisierung von Qualitätskontrollen mithilfe von Visual Recognition ermöglicht und die Verfügbarkeit von Equipment verbessert werden.

„Wie hilft Watson AI bei der Früherkennung von Fehlern?“

Hierfür kommt die IBM Predictive Maintenance Solution zum Einsatz, mit der sich in diesem speziellen Fall Sensorwerte auslesen lassen, die einen genauen „Befindlichkeitsstatus“ des Roboters messen und diese an die IBM-Software übergeben können. Anschließend werden diese cloud-basierten Daten an Machine-Learning-Modelle übertragen, wo sie mit historischen Daten verglichen werden. Dies ermöglicht eine ziemlich genaue Vorhersage, wie sich der Roboter anhand der Vergangenheit in der Zukunft verhalten wird.

„Was trägt IBM für die Erkennung von Defekten bei?“

Mithilfe der IBM-Software Visual Insights lassen sich unter anderem Maschine-Learning-Modelle aufbauen, die für das Trainieren von Neuronalen Netzen erforderlich sind. Damit wird in diesem Fall festgelegt, wie zu untersuchende Fabrikationsteile aussehen sollen, die einerseits in Ordnung und andererseits defekt sind.

Hierfür ist natürlich eine leistungsstarke Hardware vonnöten, mit denen solche Neuronalen Netze samt ihrer Machine-Learning-Algorithmen trainiert werden können. Diese steht mit IBM PowerAI zur Verfügung, auf denen solche Aufgaben äußerst zügig erledigt werden können.

Das hat unter anderem mit der leistungsstarken NVIDIA Tesla-Grafikhardware zu tun, die in den PowerAI-Maschinen verbaut ist. Damit können Bilderkennungsaufgaben sehr schnell durchgeführt werden, was zum Beispiel im Kontext von flexiblen Herstellungsmodellen wichtig ist. Aber auch für dynamische Fehlerklassen sind möglichst kurze Trainingszyklen äußerst relevant.

Im Falle der Roboterdemo auf der Hannover-Messe wurde das System am Sonntag vor Messebeginn innerhalb weniger Stunden trainiert, wobei die meiste Zeit das Fotografieren der entsprechenden Bauteile in Anspruch genommen hat. Das Trainieren des Machine-Learning-Algorithmus selbst dauerte laut Herrn Stöckel nur wenige Sekunden!

Das Interview mit Tobias Stöckel in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Axel Rogaischus von IBM über Blockchain, Digital Twins und Künstliche Intelligenz

[Videochat] Axel Rogaischus (IBM) zu den Top-Themen auf der Hannover-Messe 2018

Mit Axel Rogaischus von IBM Deutschland habe ich dieses Interview zu den Top-Themen auf der Hannover-Messe 2018 geführt. Darin spricht er (aus IBM-Sicht) über die Blockchain-Technik, über digitale Zwillinge und über die Künstliche Intelligenz, soll heißen über IBM Watson AI.

Top-Thema Nummer 1: Blockchain-Technologie

Hierbei geht Herr Rogaischus vor allem auf Blockchain im Business-Umfeld näher ein. Doch was sind die besonderen Herausforderungen, wenn man von Blockchain-Lösungen im kommerziellen Einsatz spricht? Laut Herrn Rogaischus ist das in den allermeisten Fällen nicht die Technik an sich, denn die funktioniert zumeist tadellos, da oft nichts anderes als eine cloud-basierte Datenbanktechnik dahinter steckt.

Ein häufiger Knackpunkt ist eher die Governance bei der Implementierung einer Blockchain-Lösung innerhalb eines Netzwerks. Soll heißen: Wer hat den Blockchain-Hut auf? Wer bestimmt die „Mitspieler“ eines Blockchain-Netzwerks? An diesen und weiteren Entscheidungen scheitern leider nach wie vor viel zu viele Blockchain-Projekte.

Top-Thema Nummer 2: Digital Twins

Mit Digital Twins sind im Allgemeinen digitale Modelle bestehender Anlagen wie einer Fabrik gemeint, mit deren Hilfe exakte Simulationen vorgenommen werden, was zu einer Verbesserung von Prozessen führen kann, zu neuen Erkenntnissen rund um das reale Vorbild des digitalen Zwillings führt und vieles mehr.

Doch was macht ein Digital-Twin-Projekt wie der Port of Rotterdam auf einem Fertigungsevent wie der Hannover-Messe? Nun, interessant an diesem Digital Twin des Rotterdamer Hafens ist laut Herr Rogaischus die Komplexität dieser riesigen Anlage, die alleine im Jahr 2016 rund 29.000 Seeschiffe und 105.000 Binnenschiffe abgefertigt hat.

Und genau solch eine aufwändig zu wartende Anlage ist nun einmal auch eine Fabrik, von denen ebenfalls verstärkt digitale Zwillinge aufgebaut werden. Hiermit lässt sich am Rechner der gesamte Material-, Fertigungs- und Prozessfluss sowie sämtliche Maschinenketten anschaulich darstellen. Und genau diese Komplexität lässt sich mit vorhandener Technik in Form von Digital Twins mühelos abbilden.

Top-Thema Nummer 3: Künstliche Intelligenz

Mit der Künstlichen Intelligenz und deren Sub-Disziplinen wie Machine und Deep Learning werden künftig ganz neue Möglichkeiten geschaffen. Bei IBM hat man hierfür sogar eine eigene Marke geschaffen, die sich IBM Watson AI nennt, also Watson Artificial Intelligence. Mit dieser Technologie will IBM Anwendern helfen, Prozesse zu vereinfachen und zu verbessern, ganz gleich, an welcher Stelle das geschehen soll.

Speziell im Fertigungsumfeld – und damit auch auf der Hannover-Messe – spielt das Thema Predictive Maintenance eine immer wichtigere Rolle. Zu nennen sind hier beispielsweise der Use Case KONE, bei dem der Aufzug- und Rolltreppenhersteller mithilfe von Watson AI seine Außendienstmitarbeiter in die Lage versetzt, die notwendigen Wartungsarbeiten noch besser steuern und planen zu können. Hierfür stehen die notwendigen Informationen und Daten mithilfe von Watson AI bereits im Vorhinein zur Verfügung, mit denen sich Ausfälle von KONE-Anlagen präventiv vorhersagen lassen.

Das Interview mit Axel Rogaischus in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Peter Ratuschni, Dt. Nationalbibliothek, über IBM Spectrum Scale

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

Auf dem großen IBM Spectrum Scale Strategy Days-Event hatte ich die Gelegenheit, dieses Videointerview mit Peter Ratuschni von der Deutschen Nationalbibliothek zu führen. Darin spricht er von gesetzlichen Verpflichtungen, großen Datenmengen sowie interessanten und wichtigen Gesprächen mit IBM-Entwicklern zum Thema Software-definded Storage.

Da Herr Ratuschni für den gesamten IT-Bereich der Dt. Nationalbibliothek verantwortlich ist, trafen er und sein Team die Entscheidung, IBM Spectrum Scale für den Storage-Fuhrpark einzusetzen. Und das aus diversen Gründen. So hat die Dt. Nationalbibliothek den gesetzlichen Auftrag, sämtliche Publikationen in Deutschland für die Nachwelt zu archivieren und zu wissenschaftlichen Zwecken zur Verfügung zu stellen. Da auf diese Weise große Datenmengen zustande kommen, setzt die Dt. Nationalbibliothek zwei IBM-Speichersysteme vom Typ Elasctic Storage Server zu Präsentationszwecken ein, auf denen IBM Spectrum Scale implementiert wurde.

Schneller Datenzugriff mit eindeutigen Dateipfaden – das ermöglicht IBM Spectrum Scale

Diese Kombination führt laut Herrn Ratuschni zu verzögerungsfreien Zugriffen auf beliebige elektronische Dokumente innerhalb der riesigen Datenbestände der Dt. Nationalbibliothek. Doch nicht nur das schnelle Bereitstellen der gewünschte Objekte steht im Vordergrund, sondern auch der garantierte Zugriff über stets dieselben Dateipfade, was mit IBM Spectrum Scale ermöglicht wird. In Ergänzung zu Spectrum Scale kommt in der Dt. Nationalbibliothek auch IBM Spectrum Protect zum Einsatz. Diese Datensicherungslösung von IBM zielt vor allem auf virtuelle Storage-Umgebungen ab, weswegen sich die Dt. Nationalbibliothek genau dafür entschieden hat.

„Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event“

Natürlich hat mich auch interessiert, warum Herr Ratuschni auf der IBM Spectrum Scale-Veranstaltung war. Bereits zum dritten Mal dabei, sieht er das Event als sehr gute Möglichkeit, alle Neuigkeiten rund um die Software-defined Storage-Lösung von IBM zu konsumieren. Obendrein schätzt er die Gelegenheit, mit IBM-Entwicklern aus Deutschland und den USA zu sprechen und so drängende Fragen zu klären. Zudem waren Veränderungen rund um den Spectrum Scale-Service für Herrn Ratuschni von großem Interesse, die ebenfalls auf dem Event vorgestellt wurden.

Dt. Nationalbibliothek, SVA und IBM – ein erprobtes Team

Interessant wurde es auch am Ende des Interviews, als die Zusammenarbeit zwischen der Dt. Nationalbibliothek und IBM ins Gespräch kam. So habe ich gelernt, dass die Firma SVA aus Wiesbaden (die ich auch schon unterstützen durfte), den Rahmenvertrag mit dem Bund in Sachen IBM-Storageprodukte inne hält. Daraus ergibt sich laut Herrn Ratuschni eine sehr gute Zusammenarbeit zwischen der Dt. Nationalbibliothek, IBM und SVA, was vor allem das Beschaffen und Bereitstellen benötigter Storage-Lösungen betrifft.

Das komplette Videointerview mit Peter Ratuschni in voller Länge

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.