Christopher Katzinski zur Blockchain-gestützten Fertigung

[Videochat] Christopher Katzinski von IBM über Blockchain-Marktplätze

Dieses Interview habe ich mit Christopher Katzinski von IBM auf der Hannover-Messe 2018 zum Thema Blockchain-Marktplätze geführt. Darin spricht er über die Möglichkeiten, die sich daraus für Fabrikinhaber und Firmen ohne Produktionsstätten ergeben, warum die Blockchain-Technologie hierfür eingesetzt wird und was IBM an dieser Stelle leistet.

„Was zeigt die Blockchain Techdemo auf der Hannover-Messe 2018?“

Die Techdemo Hyperfacture sollte das Potential zeigen, das in der Blockchain-Technologie für das produzierende Gewerbe schlummert. Dabei handelte es sich um eine Art Marktplatz, auf dem Produzenten freie Fertigungskapazitäten „verkaufen“ und Unternehmen ohne eigene Produktionszeiten „kaufen“ können.

Um Produktionskapazitäten an den Mann oder die Frau zu bringen bzw. zu erwerben, registrieren sich Fabrikinhaber und Firmen mit Produktionsbedarf auf der IBM Blockchain-Plattform. Sodann kann ein Unternehmen, das ein zu fertigendes Produktdesign besitzt, die Produktion desselben in Auftrag geben. Hierbei lässt sich genau festlegen, in welcher Qualität ein Produkt gefertigt werden soll, bis wann die Produktion abgeschlossen sein soll, und so fort.

Anschließend wird anhand einer bestmöglichen Übereinstimmung von angebotenen Fertigungskapazitäten und benötigten Produktionsmitteln ein sogenannter „Match“ hergestellt, der wie beim Onlinedating Anbieter und Nachfrager zusammenbringt. Um die Formalien wie die Bezahlung, Vertragsabschluss, etc. kümmert sich die Blockchain-Plattform.

Mithilfe der in die Produktionslandschaft integrierten IoT-Geräte lässt sich der aktuelle Fertigungszustand permanent darstellen. Damit kann beispielsweise der Auftragnehmer überprüfen, an welchem Standort produziert wird und ob es sich dabei um den vertraglich zugesicherten Fertigungsstandort handelt.

„Warum kommt in diesem Fall die Blockchain-Technik zum Einsatz?“

Der wesentliche Grund für den Einsatz der Blockchain-Technologie ist in diesem Fall das Thema Vertrauen. Denn dank der Blockchain-Plattform, auf dem Käufer und Verkäufer ins Geschäft kommen, lassen sich sämtliche Transaktionen speichern, und das unveränderlich. Das ist vor allem für mittelständische Unternehmen oder kleinere Start-ups wichtig, die einen eingeschränkten Bekanntheitsgrad aufweisen und damit einen nicht so hohen Stellenwert wie größere, bekanntere Mitbewerber genießen.

Genau für diese Unternehmen ist nämlich das Einhalten von Qualitätsstandards von allergrößter Wichtigkeit, was sich mithilfe der Blockchain-Technik transparent nachweisen lässt. Zudem ist in solche Systeme oft ein Rating-System integriert, womit sich Qualität und Zuverlässigkeit zusätzlich beurteilen lassen. Auch das erhöht das Vertrauen in das produzierende Unternehmen.

Für den Anbieter von Fertigungskapazitäten hingegen bietet solch ein System ebenfalls Vorteile, da sich Kriterien wie die Zahlungsmoral des Käufers von Produktionsmitteln transparent abbilden lassen. Diese und weitere Maßnahmen sorgen auf Käufer- und Verkäuferseite für eine erhöhtes Vertrauen.

„Wie kommt IBM an dieser Stelle ins Spiel?“

IBM kann innerhalb des Segments „Blockchain for Business“ durchaus als Pionier bezeichnet werden. So ist „Big Blue“ unter anderem seit 2016 Mitglied in der Hyperledger Foundation, wo gemeinsam mit der Linux Foundation die Blockchain-Technologie Hyperledger Fabric und Hyperledger Composer entwickelt wurde. Bei Hyperledger Fabric handelt es sich um ein Framework, mit dessen Hilfe Blockchain-Applikation entwickelt werden können. Diese Entwicklungsumgebung ist Teil der IBM Cloud, womit dieses Framework für jedermann zugänglich ist.

Für ein besseres Verständnis, welche Projekte sich mithilfe von Blockchain-Technologien realisieren lassen, bietet IBM Beratung, Workshops und andere unterstützende Maßnahmen an. Daraus resultierten bisher mehr als 400 Kundenprojekte, die mithilfe von IBM und Blockchain auf den Weg gebracht werden konnten. Allerdings ist nicht jede Anwendung blockchain-tauglich. Aber auch hier hilft IBM, genau das herauszufinden.

Das Interview mit Christopher Katzinski in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Justus Reich (IBM) über die Sicherheit von Industrieanlagen mittels IBM QRadar SIEM

[Videochat] Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM

Dieses Videointerview habe ich auf der Hannover-Messe 2018 mit Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM geführt. Darin spricht er über das Gefahrenpotential von Industrieanlagen, wie sich die Betreiber von solchen Anlagen gegen Angriffe von außen schützen können und was das alles mit IBM zu tun hat.

„Warum lassen sich Industrieanlagen nicht ganz so trivial absichern?“

Da Industrieanlagen eine deutliche längere Laufzeit als Standard-IT-Systeme aufweisen – das reicht bis zu 20 Jahren – kommen in den aktuellen Wasserkraft- und anderen Anlagen Techniken zum Einsatz, die schon etwas betagter sind, spricht nicht auf dem neuesten Stand sind. Damit sehen sich Industrieanlagen im Vergleich zu IT-Systemen einer größeren Gefährdung seitens möglicher Hackerangriffe ausgesetzt.

Klar ist auch in diesem Zusammenhang, dass sich diese Anlagen nicht mal eben so per Software-Update patchen lassen. Und genau dieser Umstand erfordert alternative Herangehensweisen und Methoden, wenn es um das Absichern von Industrieanlagen geht.

„Wie kann man Industrieanlagen gegen Angriffe von außen schützen?“

Für den Schutz von Industrie- und anderen Anlagen hat IBM ein Software-Tool im Programm, das sich IBM QRadar SIEM nennt, das ursprünglich für den IT-Bereich entwickelt wurde. Mit QRadar lassen sich sämtliche Informationen zu allen Netzwerkgeräten wie PLC- und SCADA-Controllern sammeln und darstellen. Darüber hinaus werden weitere Informationen rund um das Netzwerk mithilfe von QRadar ermittelt, womit der Software ausreichend Informationen zur Verfügung steht, um „guten“ von „schlechtem“ Netzwerk-Traffic unterscheiden zu können. Und das wiederum ist die Grundlage für entsprechende Maßnahmen, wenn es zu einem Angriff auf eine Industrieanlage kommt.

„Wie verhält sich IBM QRadar SIEM im praktischen Einsatz?“

Anhand des Beispiels eines Wasserkraftwerks lässt sich gut zeigen, wie IBM QRadar SIEM in der Praxis arbeitet. Hierzu werden einer oder mehrere PLC-Controller, die für die Steuerung der Anlage zuständig sind, mithilfe von QRadar permanent überwacht. Konkret gesagt, werden die gesamten Kommunikationsdaten zum Controller hin und davon weg fortwährend kontrolliert und dabei in Echtzeit entschieden, ob die Kommunikation mit dem Gerät eine bekannte oder eine eher unbekannte ist. Damit lässt sich zuverlässig feststellen, ob es sich um einen Angriff auf die Anlage handelt oder ob das Standard-Kommunikationsdaten sind.

In einfachen Fällen ist QRadar in der Lage, geeignete Maßnahmen zu ergreifen, um den Angriff abzuwehren. In anderen, komplexeren Fällen können die Administratoren der Industrieanlage schnell genug auf die Anomalie reagieren und die richtigen Schlüsse daraus ziehen.

Das Videointerview mit Justus Reich in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Steffen Hartmaier über IBM Plant Advisor

[Videochat] Steffen Hartmaier zum Einsatz des IBM Plant Advisor in der Fertigung

Während der Hannover-Messe 2018 habe ich mit Steffen Hartmann von IBM dieses Interview zum IBM Plant Advisor geführt. Darin spricht er über die Techdemo am IBM-Stand, welche Aufgaben der IBM Plant Advisor im Produktionsumfeld übernimmt und wo dieses Tool überall zum Einsatz kommt.

„Was zeigen Sie auf der Hannover-Messe 2018?“

Auf der Hannover-Messe 2018 zeigten Herr Hartmaier und sein Team in Halle 7 eine Software-Lösung, mit der sich datenbasierte Produktionsprozesse optimieren lassen. Dabei analysiert und bewertet das Tool die während der Fertigung entstehenden Daten, um so beispielsweise den Energiebedarf zu senken oder den Output zu erhöhen.

„Welche IBM-Lösung trägt dazu [seinen Anteil] bei?“

Diese Software-Lösung, die in der Fertigung zu Optimierungszwecken eingesetzt werden kann, nennt sich IBM Plant Advisor. Dabei übernimmt das Softwarewerkzeug unterschiedliche Aufgaben: Das beginnt beim „Einsammeln“ der Daten von den Maschinen, setzt sich mit dem Speichern auf der IBM Cloud-Plattform fort, wo sie analysiert und verarbeitet werden und endet beim Zurückführen eines passenden Modells in die Fabrik. Dort sollen die so gewonnenen Erkenntnisse zu einer Verbesserung der Produktionsergebnisse führen.

Interessant dabei ist, dass die generierten Modelle und ihre Daten lokal auf die Maschinen zurückgespeichert werden, sodass sich die Produktionsverantwortlichen sicher sein können, dass die Daten auf jeden Fall zur Verfügung stehen – und zwar unabhängig von der aktuellen Anbindung an die Cloud.

„Wo kommt der IBM Plant Advisor überall zum Einsatz?“

Das Einsatzspektrum des IBM Plant Advisor ist laut Herrn Hartmaier äußert vielfältig. Da es vor allem für energieintensive Produktionsanlagen konzipiert wurde, spielt es primär in den Bereichen eine Rolle, in denen z.B. das Trocknen von Baumaterial wie Zement prozesskritisch ist, da man es hier mit hohen Temperaturen zu tun hat. Dabei stehen vor allem solche Parameter im Vordergrund, die eine hohe Wechselwirkung mit anderen Faktoren aufweisen, wie zum Beispiel die Außentemperatur und der Luftdruck.

Aber auch unterschiedlich ausgeprägte Rohstoffe wie bei der Herstellung von Zement, wo z.B. große und kleine Steine für die Produktion eingesetzt werden, spielen in diesem Kontext eine Rolle. Das gilt auch für Naturprodukte wie Torf, die einen unterschiedlichen Feuchtigkeitsgehalt aufweisen.

Und genau hier setzt IBM Plant Advisor an, indem das Tool versucht, die nicht beeinflussbaren Faktoren mit den kontrollierbaren Faktoren möglichst gut zu „matchen“, sodass sich trotzdem ein optimales Ergebnis erzielen lässt. Das bedeutet konkret, dass man mit möglichst geringem Energieaufwand einen möglichst hohen Ertrag zu erreichen sucht.

Das Videointerview mit Steffen Hartmaier in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Plamen Kiradjiev über Smart Factory und IBM

[Videochat] Plamen Kiradjiev (IBM) über Smart Factories am Beispiel von Mettler Toledo

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Plamen Kiradjiev von IBM über das Thema Smart Factories am Beispiel von Mettler Toledo geführt. Darin zeigt er, wieso IBM ein wichtiger Teil der SmartFactory-Szene ist, welche Rolle IBM darin einnimmt und wie IBM mit seinen KI- und Cloud-Tools Industriekunden wie Mettler Toledo hilft.

„Was zeigen Sie hier [auf dem Smart Factory-KL-Stand] auf der Hannover-Messe 2018“?

Laut Herrn Kiradjiev zeigten auf dem Smart Factory-KL-Stand in Halle 8 wie seit vielen Jahren zahlreiche Aussteller ihre Lösungen rund um das Thema „Schlaue Fabriken“ und Industrie 4.0. Und auch dieses Jahr war IBM wieder von der Partie. Das Hauptinteresse seitens IBM auf diesem großen Messestand bestand im Sammeln, Analysieren und Bewerten der Daten, die hier zu Demonstrationszwecken benötigt wurden.

Einen dieser Messepartner, der gleichzeitig auch Kunde von IBM ist, versorgte IBM mit Daten für die Qualitätssicherung seiner Produkte. Die Rede ist von Mettler Toledo, dem Hersteller von Präzisionswaagen, für den das Thema Qualitätssicherung in der Fertigung von allerhöchster Wichtigkeit ist.

„Welche Rolle nimmt IBM in der Smart Factory ein?“

Die primäre Rolle von IBM innerhalb des Smart Factory-Kontexts war die vorausschauende Fertigung und Wartung, was auch als Predictive Manufacturing und Predictive Maintenance bezeichnet wird. Dabei hatte es sich IBM unter anderem zum Ziel gesetzt, diese beiden auf Machine Learning basierenden Ansätze auf der Hannover-Messe (und darüber hinaus) zu Lern-un Demonstrationszwecken bestmöglich einzusetzen.

Ein wichtiger Prozess dabei ist das Extrahieren und Analysieren der Daten, die IBM mithilfe geeigneter Tools aus den Industrieanlagen der Partner holt. Hierfür kommt ein einheitliches Protokoll zum Einsatz, mit dessen Hilfe sämtliche Daten in einem einheitlichen Format in den zur Verfügung stehenden Datenpools gespeichert werden. Von dort aus gelangen sie in den unterschiedlichsten Cloud-Plattformen, die je nach Anwendung und Kunde genutzt werden. Hierbei kommen auch Multi-Cloud-Szenarien zur Anwendung.

„Wie hilft IBM in diesem Kontext [dem Hersteller von Präzisionswaagen] Mettler Toledo?“

Bei dem gemeinsamen Projekt mit Mettler Toledo steht für den Anbieter und Hersteller von Präzisionswaagen die Qualität seiner Messgeräte an allererster Stelle. Denn die Waagen werden primär selbst zur Qualitätssicherung eingesetzt, indem gefertigte Produkte zur Überprüfung von möglichen Abweichungen von der gewünschten Qualität vermessen werden. Da die Mettler-Toledo-Waagen bis in das Milligramm genau wiegen können, lassen sich mithilfe dieser Hightech-Messgeräte kleinste Produktionsabweichungen exakt feststellen, ohne jedes einzelne Bauteil oder ein komplettes Produkt aufwändig nachmessen oder gar zerlegen zu müssen.

Aus diesem Grund ist es für Mettler Toledo immanent wichtig, sich auf die hundertprozentige Messgenauigkeit seiner Waagen verlassen zu können. Und genau hier kommt IBM mit seinen Softwarelösungen ins Spiel. So stellt „Big Blue“ eine Schnittstelle in seine IoT Cloud zur Verfügung, mit dessen Hilfe Mettler Toledo Zugriff auf geeignete Machine-Learning-Algorithmen erhält. Damit kann der Hersteller ziemlich exakt voraussagen, wann und bei welchen Waagen eine Ungenauigkeit von Messergebnissen zu erwarten ist, da sich bei der Produktion der Messgeräte mit hoher Wahrscheinlichkeit Unregelmäßigkeiten einstellen werden.

IBM IoT Cloud und Watson Studio für das Überprüfen von Qualität von Präzisionswaagen

Hierfür werden die von Mettler Toledo zur Verfügung gestellten Daten innerhalb der IBM IoT Cloud in das Softwaretool Watson Studio importiert. Daraus erstellt die Anwendung ein Produktionsprozessmodell, das anschließend installiert und konfiguriert wird. Sobald die vorhandenen Daten durch dieses Modell geleitet werden, lässt sich ziemlich genau vorhersagen, welche Waage mit relativ hoher Wahrscheinlichkeit Abweichungen bei der gewünschten Qualität aufweisen wird. In solch einem Fall erhält der Smart-Factory-Administrator von der Software einen Warnhinweis, der auf die mögliche Abweichung der Messgenauigkeit hinweist. Damit kann er unmittelbar und ohne größeren Messaufwand die Qualität der Waage überprüfen lassen.

Das Interview mit Plamen Kiradjiev in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Eduard Erhart über IBM Supply Chain Insights

Eduard Erhart über IBM Supply Chains Insights und Watson AI

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Eduard Erhart zum Thema IBM Supply Chains Insights geführt. Mit diesem Tool hilft IBM ihren Kunden, Lieferkettenprozesse künftig mithilfe von Watson AI zu optimieren und einfacher zu gestalten.

„Was zeigt IBM [auf der Hannover-Messe] zum Thema Watson AI und Supply Chains?“

Kern des Demopunktes, an dem Eduard Erhart während der Hannover-Messe 2018 sein Wissen weitergegeben hat, war das Teilen von Erkenntnissen mit Messebesuchern rund um das Thema Supply Chains, also Lieferketten, und welche Erfahrungen IBM während der letzten Jahren im Kontext ihrer Supercomputer und Speicherlösungen sammeln konnte. Herausgekommen ist ein Softwaretool, das sich IBM Supply Chain Insights nennt, mit dem auf die sehr speziellen Anforderungen von Kunden an deren Lieferketten reagiert werden kann.

„Welche Vorteile ergeben sich dabei aus dem Einsatz von Künstlicher Intelligenz (AI)?“

Laut Herrn Erhart ergeben sich im Kontext von Lieferketten durch den Einsatz von Künstlicher Intelligenz ganz neue Möglichkeiten. So lassen sich mithilfe von IBM Watson AI Services die bestehenden Supply-Chain-Daten von Unternehmen um externe Daten und Informationen anreichern, die allerdings in vielen Fällen unstrukturiert vorliegen.

Genau das erfordert eine ganz spezielle Behandlung und Verarbeitung dieser Daten von außerhalb. An dieser Stelle kommt IBM Supply Chain Insights ins Spiel. Damit lassen sich die Daten des Kunden mühelos auswerten, bewerten und in den richtigen Kontext setzen mit den eigenen und fremden Daten.

„Wie profitieren IBM-Kunden [dabei genau] von IBM Supply Chain Insights?“

Die große Herausforderung, mit der sich Kunden und Anwender konfrontiert sehen, lautet: Wie kann ich die riesigen Datenmengen sinnvoll einsetzen, um möglichst schnell gewinnbringende Informationen über meine Lieferkettenprozesse zu bekommen? Hierfür bietet sich eben das Softwaretool IBM Supply Chains Insights an, das innerhalb der IBM Cloud zur Verfügung steht.

Damit haben IBM-Kunden einerseits einen schnellen Zugriff auf diese Lieferketten-Analysesoftware, andererseits können sie gleichzeitig die anderen vorhandenen IBM-Cloud-Tools nutzen, die dort ebenfalls bereit stehen. Auch damit lassen sich Lieferkettenprobleme analysieren und beheben. Dies geschieht unter anderem auf Basis eines Chattools, auf das jeder Anwender innerhalb des Unternehmen Zugriff hat.

„Wie genau arbeitet IBM Supply Chain Insights?“

IBM Supply Chain Insights betrachtet die vorhandenen Transaktionsdaten und erkennt automatisch die Abweichungen von einem vorher definierten Soll-Zustand. Sollte dieser Fall eintreten, wird der Anwender darüber in Kenntnis gesetzt, um darauf reagieren zu können. So kann er sich mit seinem Team innerhalb eines Chatrooms von IBM Supply Chain Insights treffen, um eine möglichst probate Lösung des Problems zu eruieren.

Dabei füttert er IBM Watson AI mit den gewonnenen Erkenntnissen und möglichen Lösungsansätzen, von denen Watson wiederum lernen kann. Was am Ende dazu führen soll, dass beim nächsten Auftreten eines ähnlichen oder gleichen Problems eine Lösung schneller herbei geführt werden kann.

Das Videointerview mit Eduard Erhart in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Tobias Stöckel auf der Hannover-Messe über Predictive Maintenance

[Videochat] Tobias Stöckel über Predictive Maintenance mit IBM Watson AI

Während der Hannover-Messe 2018 habe ich dieses Interview mit Tobias Stöckel von der IBM geführt. Darin spricht er über IBM Watson AI als Frühwarnsystem bei möglichen Materialfehlern und was IBM sonst noch zum Thema Predictive Maintenance beizutragen hat – inklusive der richtigen Hardware.

„Was zeigt die Techdemo „AI powered Factory?“

An diesem großen Demopunkt, der während der gesamten Hannover-Messe 2018 mehr als gut besucht war, stand vor allem das Thema Predictive Maintenance im Vordergrund. Zutaten waren hierfür Machine Learning mithilfe von IBM Watson, die beide in der Produktion zunehmend eingesetzt werden. Damit sollen unter anderem die Automatisierung von Qualitätskontrollen mithilfe von Visual Recognition ermöglicht und die Verfügbarkeit von Equipment verbessert werden.

„Wie hilft Watson AI bei der Früherkennung von Fehlern?“

Hierfür kommt die IBM Predictive Maintenance Solution zum Einsatz, mit der sich in diesem speziellen Fall Sensorwerte auslesen lassen, die einen genauen „Befindlichkeitsstatus“ des Roboters messen und diese an die IBM-Software übergeben können. Anschließend werden diese cloud-basierten Daten an Machine-Learning-Modelle übertragen, wo sie mit historischen Daten verglichen werden. Dies ermöglicht eine ziemlich genaue Vorhersage, wie sich der Roboter anhand der Vergangenheit in der Zukunft verhalten wird.

„Was trägt IBM für die Erkennung von Defekten bei?“

Mithilfe der IBM-Software Visual Insights lassen sich unter anderem Maschine-Learning-Modelle aufbauen, die für das Trainieren von Neuronalen Netzen erforderlich sind. Damit wird in diesem Fall festgelegt, wie zu untersuchende Fabrikationsteile aussehen sollen, die einerseits in Ordnung und andererseits defekt sind.

Hierfür ist natürlich eine leistungsstarke Hardware vonnöten, mit denen solche Neuronalen Netze samt ihrer Machine-Learning-Algorithmen trainiert werden können. Diese steht mit IBM PowerAI zur Verfügung, auf denen solche Aufgaben äußerst zügig erledigt werden können.

Das hat unter anderem mit der leistungsstarken NVIDIA Tesla-Grafikhardware zu tun, die in den PowerAI-Maschinen verbaut ist. Damit können Bilderkennungsaufgaben sehr schnell durchgeführt werden, was zum Beispiel im Kontext von flexiblen Herstellungsmodellen wichtig ist. Aber auch für dynamische Fehlerklassen sind möglichst kurze Trainingszyklen äußerst relevant.

Im Falle der Roboterdemo auf der Hannover-Messe wurde das System am Sonntag vor Messebeginn innerhalb weniger Stunden trainiert, wobei die meiste Zeit das Fotografieren der entsprechenden Bauteile in Anspruch genommen hat. Das Trainieren des Machine-Learning-Algorithmus selbst dauerte laut Herrn Stöckel nur wenige Sekunden!

Das Interview mit Tobias Stöckel in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Axel Rogaischus von IBM über Blockchain, Digital Twins und Künstliche Intelligenz

[Videochat] Axel Rogaischus (IBM) zu den Top-Themen auf der Hannover-Messe 2018

Mit Axel Rogaischus von IBM Deutschland habe ich dieses Interview zu den Top-Themen auf der Hannover-Messe 2018 geführt. Darin spricht er (aus IBM-Sicht) über die Blockchain-Technik, über digitale Zwillinge und über die Künstliche Intelligenz, soll heißen über IBM Watson AI.

Top-Thema Nummer 1: Blockchain-Technologie

Hierbei geht Herr Rogaischus vor allem auf Blockchain im Business-Umfeld näher ein. Doch was sind die besonderen Herausforderungen, wenn man von Blockchain-Lösungen im kommerziellen Einsatz spricht? Laut Herrn Rogaischus ist das in den allermeisten Fällen nicht die Technik an sich, denn die funktioniert zumeist tadellos, da oft nichts anderes als eine cloud-basierte Datenbanktechnik dahinter steckt.

Ein häufiger Knackpunkt ist eher die Governance bei der Implementierung einer Blockchain-Lösung innerhalb eines Netzwerks. Soll heißen: Wer hat den Blockchain-Hut auf? Wer bestimmt die „Mitspieler“ eines Blockchain-Netzwerks? An diesen und weiteren Entscheidungen scheitern leider nach wie vor viel zu viele Blockchain-Projekte.

Top-Thema Nummer 2: Digital Twins

Mit Digital Twins sind im Allgemeinen digitale Modelle bestehender Anlagen wie einer Fabrik gemeint, mit deren Hilfe exakte Simulationen vorgenommen werden, was zu einer Verbesserung von Prozessen führen kann, zu neuen Erkenntnissen rund um das reale Vorbild des digitalen Zwillings führt und vieles mehr.

Doch was macht ein Digital-Twin-Projekt wie der Port of Rotterdam auf einem Fertigungsevent wie der Hannover-Messe? Nun, interessant an diesem Digital Twin des Rotterdamer Hafens ist laut Herr Rogaischus die Komplexität dieser riesigen Anlage, die alleine im Jahr 2016 rund 29.000 Seeschiffe und 105.000 Binnenschiffe abgefertigt hat.

Und genau solch eine aufwändig zu wartende Anlage ist nun einmal auch eine Fabrik, von denen ebenfalls verstärkt digitale Zwillinge aufgebaut werden. Hiermit lässt sich am Rechner der gesamte Material-, Fertigungs- und Prozessfluss sowie sämtliche Maschinenketten anschaulich darstellen. Und genau diese Komplexität lässt sich mit vorhandener Technik in Form von Digital Twins mühelos abbilden.

Top-Thema Nummer 3: Künstliche Intelligenz

Mit der Künstlichen Intelligenz und deren Sub-Disziplinen wie Machine und Deep Learning werden künftig ganz neue Möglichkeiten geschaffen. Bei IBM hat man hierfür sogar eine eigene Marke geschaffen, die sich IBM Watson AI nennt, also Watson Artificial Intelligence. Mit dieser Technologie will IBM Anwendern helfen, Prozesse zu vereinfachen und zu verbessern, ganz gleich, an welcher Stelle das geschehen soll.

Speziell im Fertigungsumfeld – und damit auch auf der Hannover-Messe – spielt das Thema Predictive Maintenance eine immer wichtigere Rolle. Zu nennen sind hier beispielsweise der Use Case KONE, bei dem der Aufzug- und Rolltreppenhersteller mithilfe von Watson AI seine Außendienstmitarbeiter in die Lage versetzt, die notwendigen Wartungsarbeiten noch besser steuern und planen zu können. Hierfür stehen die notwendigen Informationen und Daten mithilfe von Watson AI bereits im Vorhinein zur Verfügung, mit denen sich Ausfälle von KONE-Anlagen präventiv vorhersagen lassen.

Das Interview mit Axel Rogaischus in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Khadija Soussi über Machine Learning auf IBM-Mainframes

[Videochat] Khadija Souissi (IBM) über IBM Z und Machine Learning

Während der IBM Z-Roadshow habe ich dieses Interview mit Khadija Souissi von IBM über das Thema Machine Learning geführt. Darin spricht sie über ihren Vortrag, über das Software-Angebot seitens IBM für Machine Learning auf Mainframe-Rechnern und warum Machine Learning immer wichtiger wird.

„Wovon handelte Ihr Vortrag auf der Z-Roadshow?“

Im Kern sprach Frau Souissis darüber, wie zu analysierende Transaktionsdaten auf demselben Rechner konsolidiert werden können, auf dem sie gespeichert und verarbeitet werden, nämlich auf dem IBM-Mainframe. Hierfür kommen immer öfter Machine-Learning-Algorithmen zum Einsatz, was eine Sub-Disziplin der Künstlichen Intelligenz darstellt.

Diese Algorithmen und Tools werden optimalerweise direkt in die Anwendung integriert, mit denen die Analysedaten erfasst und verarbeitet werden sollen. Hierbei ist es vor allem wichtig, möglichst unterschiedliche Daten und Datentypen zu verwenden, weil nur dann ein umfassendes und aussagekräftiges Ergebnis erzielt werden kann.

„Welche Machine-Learning-Tools hat IBM in petto?“

Für das Analysieren transaktionaler Daten auf dem Mainframe setzt IBM ein Verfahren ein, das sich Hybrid Transactional/Analytical Processing (HTAP) nennt. Hiermit lassen sich operationale Worksloads (also die Transaktionsdaten) und analytische Workloads auf einer einzigen Maschine zusammenführen und dort direkt verarbeiten.

Zu diesem Zweck hat IBM eine Software namens Db2 Analytics Accelerator im Portfolio, die für z/OS verfügbar ist, eines der Betriebsysteme für die IBM Z-Mainframes. Damit lassen sich DB2-basierte Daten auf einem Mainframe-Rechner unmittelbar analysieren, was das umständliche Kopieren von der Transaktionsmaschine auf den Analyserechner erübrigt.

httpss://twitter.com/mhuelskoetter/status/986638711738728448

Für das Erfassen unterschiedlichster Datentypen, die sich sowohl auf der Z-Maschine als auch außerhalb davon befinden können, bietet IBM ein Tool, das sich IBM Data Virtualization Manager for z/OS nennt.

httpss://twitter.com/mhuelskoetter/status/986641352434778113

Darüber hinaus können IBM-Z-Kunden für das Analysieren ihrer Daten auf dem Mainframe mithilfe von KI-Algorithmen die Software-Lösung Machine Learning for z/OS einsetzen, die auf den bekannten IBM Watson Machine Learning Services basiert. Diese wurden auf z/OS portiert und stehen damit auf IBM-Mainframes zur Verfügung. Damit können sämtliche Watson-ML-Tools auch direkt im Rechenzentrum des Kunden als OnPrem-Variante installiert und genutzt werden.

„Warum wird – auch für IBM – Machine Learning immer wichtiger?“

Als Hauptgrund nennt Khadija Souissi die Möglichkeit, mithilfe der passenden Machine-Learning-Algorithmen dem Kunden das bestmögliche Analyse-Angebot unterbreiten zu können. Um das zu belegen, brachte sie eine äußerst beeindruckende Zahl ins Spiel: So werden im Vergleich zum täglichen Google-Suchaufkommen auf den weltweit installierten Mainframes zehnmal mehr Daten verarbeitet, was in Summe 30 Milliarden Transaktionen bedeutet – und das jeden Tag.

httpss://twitter.com/mhuelskoetter/status/987001975781937152

Wenn man sich dann vergegenwärtigt, dass ein Großteil dieser Mainframe-Daten nach wie vor brach liegen, da sie gar nicht oder nur unzureichend genutzt werden, kann man sich leicht das Potenzial ausrechnen, das in diesen Transaktionsdaten schlummert. So ließe sich speziell in Verbindung mit Machine Learning jede einzelne Datenbuchung analysieren und damit die Transaktionen permanent verbessern oder noch besser absichern oder weitere Dinge damit anstellen.

Das Interview mit Khadija Souissi in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

Tobias Leicher über IBM-Mainframes als Cloud-Plattform

[Videochat] Tobias Leicher (IBM) über Mainframes als Cloud-Maschinen

Während der IBM Z-Roadshow habe ich dieses Interview mit Tobias Leicher von IBM geführt. Darin spricht er über seinen Vortrag, über die Mainframe auf dem Weg ins 21. Jahrhundert und was IBM alles dazu beiträgt.

„Wovon handelte Ihr Vortrag?“

Tobias Leichers Vortrag  beschäftigte sich vor allem mit der Frage, wie sich die aktuellen Themen „Cloud Computing“ und „Microservices“ auf den Mainframe-Computer übertragen lassen. Verknüpft ist damit gleichzeitig die Frage, wie IBM-Kunden den Mainframe-Rechner künftig noch effizienter nutzen können und wie die Mainframe-Maschine im Cloud-Zeitalter ankommen kann.

„Wie kann die Mainframe im 21. Jahrhundert ankommen?“

Für die Beantwortung dieser Frage zog Tobias Leicher ein Zitat zurate, das dem großen Albert Einstein zugeordnet wird:

„Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.“

Übertragen auf die Mainframe-Plattform bedeutet das: Im Grunde gibt es keine Einschränkungen hinsichtlich ihrer Anwendungsmöglichkeiten, allerdings haben sich bestehende Prozesse und Herangehensweisen auf dem Mainframe in den letzten 30 Jahren stark auf den transaktionalen Bereich fokussiert, was es nicht unbedingt einfacher macht, den Mainframe-Rechner im 21. Jahrhundert ankommen zu lassen.

Um das zu erreichen, ist es primär wichtig, das Bereitstellen von Cloud-Apps und -Services auf Mainframe-Maschinen so einfach wie möglich zu gestalten. Damit neue Anwendungen und Services quasi auf Knopfdruck verfügbar gemacht werden können, so wie man das aus der Cloud-Landschaft kennt. Aber auch moderne Techniken und Programmiersprachen wie Go und Node.js müssen auf dem Mainframe zu Cloud-Zwecken bereit stehen, um eine Modernisierung dieser Plattform zu ermöglichen.

„Wie unterstützt IBM den Wechsel von der reinen Transaktionsmaschine zu einer modernen Cloud-Architektur?“

Nun, IBM nimmt sich dieses Themas schon seit einer geraumen Zeit an. So wurden die gerade erwähnten neuen Programmiersprachen auf den Mainframe portiert, neue Paradigmen wurden erschaffen, das Mainframe-Betriebssystem wurde auf den neuesten Stand gebracht, etc.

Zudem wurden viele, viele Gespräche mit IBM-Kunden geführt um herauszufinden, an welchen Stellen es noch knarzt und wo Mainframe-Anwender Verbesserungsbedarf sehen. Herausgekommen ist eine Rechnerarchitektur, die für viele Kunden eine perfekte Kombination aus transaktionaler und cloud-basierter Plattform darstellt.

Das Interview mit Tobias Leicher in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

Andreas Thomasch über IBM z14 ZR1 und ihre Roadshow

[Videochat] Andreas Thomasch (IBM) über IBM z14 ZR1 und ihre Roadshow

Anlässlich der Markteinführung der IBM-Mainframe z14 ZR1 veranstaltete IBM Deutschland eine Z-Roadshow, die an drei Orten stattfand. Und zwar in Köln, Frankfurt und München. Für die beiden letztgenannten hat mich IBM als Videoblogger engagiert. Nachdem ich beide Rückblicksbeiträge aus Frankfurt und München veröffentlicht habe, folgt an dieser Stelle das erste Interview, und zwar mit Andreas Thomasch, der für das Gesamtgeschäft der Z-Plattform in DACH (Deutschland, Österreich und Schweiz) zuständig ist.

Während unseres Videogesprächs wollte ich drei Dinge von ihm wissen:

  1. Warum hat IBM die z14 geschrumpft?

  2. Warum bietet die IBM z14 ZR1 „Luft nach oben“?

  3. Wie kam das Z-Event bei den Kunden an?

Die Antwort der ersten Frage hat viel damit zu tun, dass IBM mit ihren Kunden spricht und das Gehörte dann auch in neue Produkte einfließen lässt, so wie das mit der IBM z14 ZR1 der Fall ist. Denn bestehende Z-Kunden sprachen sich für einen neuen Formfaktor aus, der besser in ihr Rechenzentrum passt. Und hat IBM die IBM z14 mit ihrer 24-Zoll-Stellfläche „einfach“ mal „geschrumpft“ und sie in ein Standard-19-Zoll-Format überführt.

httpss://twitter.com/mhuelskoetter/status/986967368327888896

Damit nimmt die ZR1 deutlich weniger Platz in Anspruch und passt besser in aktuelle Rechenzentren, in denen 19-Zoll-Racks gang und gäbe sind. Hierfür mussten allerdings ein paar Dinge wie die Kühltechnik, etc. angepasst werden, damit ein Hochleistungsrechner wie die IBM Z in einem reduzierten Serverschrank Platz hat. So wurde beispielsweise die z14 einmal komplett „gespiegelt“: Soll heißen, dass sich die Lüfter, etc. jetzt an der Vorderseite der Mainframe befinden und sämtliche IO-Shields und andere Komponenten auf der Rückseite, was eine veränderte Luftzirkulation zur Folge hat.

„Warum bietet die IBM z14 ZR1 ‚viel Luft nach oben‘?“

 

Mit der zweiten Frage spielte ich auf den freien Platz an, den die IBM z14 ZR1 oberhalb der verbauten Standardkomponenten bietet. Genauer gesagt handelt es sich um zweimal 8 Höheneinheiten, die sich relativ beliebig vom Z-Kunden nutzen lassen. Doch was ist das im einzelnen? Nun, laut Andreas Thomasch findet dort Erweiterungshardware seinen Platz, was ebenfalls dem Wunsch vieler Kunden nach einer höheren Packungsdichte entspricht. In den 16U-Erweiterungsplätze finden Komponenten für den Anschluss an ein Storage Area Network (SAN) genauso Platz wie Speichereinheiten vom Typ Flash oder Standard-Festplatten.

httpss://twitter.com/mhuelskoetter/status/986972018041065472

Auch diese Verbesserung der IBM z14 ZR1 sorgt für eine weitere Platzersparnis, da die zusätzlichen Komponenten im selben Rack untergebracht werden können. Also spielt auch an dieser Stelle das Thema Packungsdichte und die damit verbundene Kostenersparnis eine wesentliche Rolle, was gerade in Zeiten schrumpfender IT-Budgets ein wesentlicher Faktor ist.

„Wie kam das Z-Event-Format bei Ihren Kunden an?“

Die Entscheidung seitens IBM, die Roadshow an drei verschiedenen Locations durchzuführen und damit näher an die Kunden heranzurücken, kam laut Andreas Thomasch sehr gut an. Denn so bestand die Möglichkeit, in einem kleinen, überschaubaren Kreis erste Themen direkt zu besprechen und sich mit den IBM-Experten vor Ort intensiv auszutauschen.

Aber auch das Halbtagesformat mit kurzen Vorträgen war aus Kundensicht die richtige Entscheidung. Zumal das Ende der Veranstaltung auf den Abend fiel und man das Ganze bei einem schönen Kaltgetränk und leckeren Häppchen entspannt ausklingen lassen konnte. Und das ist ja schließlich auch wichtig.

Das Interview mit Andreas Thomasch in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.