Sebastian Amtage (b.telligent) über den Status Quo der Künstlichen Intelligenz

[Videochat] Sebastian Amtage, b.telligent, über Künstliche Intelligenz

Dieses Interview habe ich während des BI Kongress 2018 mit Sebastian Amtage, dem CEO von b.telligent, über den Status Quo der Künstlichen Intelligenz geführt. Darin spricht er über den aktuellen Stand der Dinge der KI, über die größten KI-Herausforderungen und was seine Firma dazu beizutragen hat.

Wie ist es aktuell um das Thema KI bestellt?

Aus Sicht von b.telligent handelt es sich beim Thema KI um einen Hype, da viele Unternehmen im Rahmen ihrer Digitalisierungsstrategie den Einsatz von KI-Techniken und -Tools durchaus einplanen. Hierbei stehen unter anderem effizientere Prozesse und intelligentere Produkte im Vordergrund. Allerdings ist der Wissensstand in vielen Unternehmen sehr unterschiedlich ausgeprägt, vor allem der datengetriebene Ansatz der KI ist für viele Firmen noch recht neu.

Diese Unternehmen müssen erst einmal grundsätzliche Fragen klären: Woher kommen die richtigen Daten? Wie ist es um deren Qualität bestellt? Wie kann ich die vorhandenen Datenpools sinnvoll zusammenfassen, etc.

Andere Firmen hingegen beschäftigen sich mit der KI schon sehr viel länger und haben damit einen erheblich leichteren Einstieg in dieses Thema. Diese Unternehmen setzen bereits komplexere Techniken und Methoden wie Deep Learning und Machine Learning ein, was über das klassische Data Mining und statistische Modelle bei weitem hinaus geht.

Worin bestehen die größten KI-Herausforderungen?

In diesem Kontext sind zahlreiche Hürden und Hindernisse zu nennen. Das sind zum einen die bereits erwähnten Daten. Hier kommt es vor allem auf eine ausreichende Datenmenge und deren Qualität an. Zum anderen spielt das Thema Know-how innerhalb der Firma eine große Rolle. Denn oft fehlt es an sehr gut ausgebildeten KI-Experten, die solch ein Projekt sach- und fachgemäß steuern und mit Leben füllen können. Hier sind diejenigen Unternehmen auf jeden Fall im Vorteil, die sich schon mit den Themen Business Intelligence und Big Data beschäftigt haben und entsprechendes Know-how aufbauen konnten.

Was trägt b.telligent zum Thema KI bei?

Mit dem Thema Data Science, was ja einen Oberbegriff der KI darstellt, beschäftigt sich b.telligent schon seit 15 Jahren. Damit gib es im Unternehmen zahlreiche Experten, die die Herausforderungen vieler Unternehmen kennen und helfen können, diese zu bewältigen.

Für b.telligent steht meist die Hilfe zur Selbsthilfe im Vordergrund, wie sich also innerhalb von Unternehmen KI-Experten und -Projektteams ausbilden und aufbauen lassen, um sich mit dem Thema bestmöglich auseinandersetzen zu können. Das nimmt aber oft einen langen Zeitraum in Anspruch, da die Künstliche Intelligenz mit all ihren Disziplinen viel Erfahrung und Wissen voraussetzt.

Das Interview mit Sebastian Amtage in voller Länge

Dr. Konstantin Greger (Tableau Software) über Künstliche Intelligenz

[Videochat] Konstantin Greger (Tableau Software) über Künstliche Intelligenz

Dieses Videointerview habe ich während eines IDC-KI-Events mit Dr. Konstantin Greger von Tableau Software geführt. Darin spricht er über den aktuellen Zustand der Künstlichen Intelligenz in Deutschland, welchen Beitrag Tableau dazu leistet und was noch nötig ist, um den Umstieg auf die „starke“ KI zu schaffen.

Was trägt die Firma Tableau zum Thema KI bei?

Für Konstantin Greger stehen dabei vor allem zwei Aspekte im Vordergrund: Der Einsatz von KI und Machine Learning in den Anwendungen von Tableau Software selbst und bei der Unterstützung von Unternehmen und wie diese Künstliche Intelligenz für ihre Zwecke nutzen können. Hierbei wird auch das Kerngeschäft von Tableau Software sichtbar: Wie bereite ich Daten so auf, damit ich sie besser verstehen und optimal einsetzen kann. Es geht also um die Abstrahierung komplexer Datensammlungen hin zu einem verständlichen Modell, das sich auf einfache Art und Weise nutzen lässt.

Wie ist es hierzulande um das Thema KI bestellt?

Laut Herrn Greger lässt sich das weite Feld der KI in Deutschland als sehr heterogen bezeichnen. So setzen es gerade kleinere Firmen schon recht agil ein, da sie den Nutzen der Künstlichen Intelligenz für sich erkannt haben und ihr Geschäftsmodell daran ausrichten.

Im Gegensatz dazu fällt es den größeren Firmen oftmals noch recht schwer, KI-Ansätze innerhalb der geplanten Projekte sinnvoll zu integrieren. Dort sind zwar innovative Ideen vorhanden, wie sich Künstliche Intelligenz und Machine Learning einsetzen ließen, aber gleichzeitig fehlt das Know-how, um diese Ideen sinnvoll umzusetzen. Denn oft folgen diese Firmen letztlich nur dem Drang, in Sachen KI etwas zu unternehmen, da der Mitbewerber in dieser Richtung auch etwas tut. Dabei wissen diese Unternehmen oft noch gar nicht, wie sich KI richtig einsetzen lässt.

An dieser Stelle kann Tableau Software ins Spiel kommen, da ein wesentliches Element der KI, nämlich die Daten, vollkommen außer acht gelassen werden. Und genau hierbei kann Tableau helfen, nämlich beim Identifizieren, Aufbereiten und Bewerten der vorhandenen Daten.

Was sind die größten Hürden beim Umstieg von der „schwachen“ zur „starken“ KI?

Die Hürden beim Umstieg von der „schwachen“ zur „starken“ KI lassen sich als äußert vielfältig beschreiben. Das betrifft zum einen das bereits erwähnte Thema Daten. Denn für eine starke KI sind viele „gute“ und vertrauenswürdige Daten erforderlich, da ansonsten die korrespondierenden KI-Dienste und -Lösungen nicht glaubwürdig sind. Darüber hinaus fehlt es an vielen Stellen am richtigen Know-how, also an KI-Experten, die das Vorantreiben der starken KI überhaupt erst ermöglichen können.

Das Interview mit Konstantin Greger in voller Länge

 

Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

[Videochat] Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

Während eines IDC-Events, auf dem eine Studie zum Thema KI in Deutschland vorgestellt wurde, habe ich dieses Interview mit Jürgen Wirtgen von Microsoft geführt. Darin spricht er über den Beitrag seitens Microsoft in Sachen KI, wie sich Daten für KI-Projekte bestmöglich nutzen lassen und was Microsoft unter der Demokratisierung der Künstlichen Intelligenz versteht.

Was leistet Microsoft im Kontext von KI?

Die Künstliche Intelligenz sieht Herr Wirtgen als eine Art übergeordneten Schirm, der sich bei Microsoft über alle Bereiche spannt. Dazu gehört beispielsweise der Bereich Produktivität (Office 365, etc.), aber auch ein eigens hierfür geschaffener Geschäftsbereich zu den Themen Cloud und KI existiert bei Microsoft. Hierfür stellt Redmond zahlreiche Entwicklungsressourcen zur Verfügung, mit deren Hilfe neue KI-Lösungen und -Dienste entstehen sollen. Das betrifft sowohl die Grundlagenforschung als auch den realen Nutzen von KI im Produktionsumfeld.

Darüber hinaus unterstützt Microsoft seine Kunden in Sachen Künstliche Intelligenz. Das reicht von der Entwicklung eines eigenen Bots bis hin zum Einsatz kognitiver Dienste oder der Entwicklung neuer Geschäftsmodelle, in denen die Künstliche Intelligenz eine entsprechende Rolle spielt.

Wie lassen sich Daten für die KI bestmöglich nutzen?

Hierzu muss erst einmal das Geschäftsmodell entwickelt und verstanden werden. Denn erst dann kann man herausfinden, welche Daten ich besitze und welche davon für mein spezielles KI-Projekt wichtig und erforderlich sind. In manchen Fällen sind zusätzliche Daten notwendig, sodass beispielswiese der Einsatz von Sensoren in Erwägung gezogen werden sollte. Diese Datengewinnung ist dann ebenfalls wichtiger Teil des Gesamtprojekts.

Müßig zu erwähnen, dass beim Sammeln und Speichern von Daten jederzeit die höchsten Sicherheitsstandards berücksichtigt werden sollten. Alleine schon aus Gründen des Datenschutzes und der Datensicherheit.

Was versteht Microsoft unter der Demokratisierung von KI?

Viele Menschen verbinden mit der Künstlichen Intelligenz vor allem wissenschaftliche Anwendungen, hinter denen sich komplexe und komplizierte Modelle befinden. Microsoft möchte erreichen, dass KI-Anwendungen von einer breiten Masse genutzt werden können. Hierfür sind Dienste erforderlich, die sich trivial nutzen und genauso einfach in bestehende Anwendungen einbinden lassen.

Hierbei kommen unter anderem die 30.000 Business Partner von Microsoft (Entwickler, Softwarehäuser, etc.) ins Spiel, die in die Lage versetzt werden sollen, ihre Software mit KI-Elementen anzureichern. Aber auch andere Bevölkerungsschichten sollen mithilfe von geeigneten Ausbildungsmaßnahmen fit gemacht werden für das Grundverständnis von KI. Denn nur so kann eine echte Demokratisierung der Künstlichen Intelligenz gelingen – und damit Ängste und Vorbehalte abgebaut werden.

Das Interview mit Jürgen Wirtgen in voller Länge

Weiterführende Informationen zum Thema Microsoft und KI

Dr. Florian Jurecka (Dassault Systemes) über Digital Twins in der Simulation

[Videochat] Dr. Florian Jurecka (Dassault Systèmes) über Digital Twins zu Simulationszwecken

Dieses Videointerview habe ich mit Dr. Florian Jurecka auf der Hannover-Messe 2018 zum Thema Digital Twins in der Simulation geführt. Darin erklärt er, was Dassault Systèmes unter dem Begriff „Digital Twin“ versteht, was die Simulationssoftware von Dassault Systèmes in diesem Kontext leistet und wie sich die Rolle der Simulation gerade verändert.

Wie definiert Dassault Systemes den Begriff „Digital Twin“?

Dassault Systemès bezeichnet den Begriff „Digital Twin“ als „3DExperience Twin“, angelehnt an ihre Business Experience Plattform 3DExperience, mit der sich unter anderem Objekte konzipieren und gestalten lassen. Damit kann ein durchgängiges Modell eines digitalen Zwillinge dargestellt werden, also von der frühen Konzeptphase  bis zum fertigen Produkt. Auf diesem Weg lassen sich alle Abschnitte einer Produktentwicklung volldigital abbilden.

Was leistet SIMULIA im Kontext „Digital Twin“?

Mit SIMULIA lässt sich laut Herrn Jurecka ein Digital Twin zum Leben erwecken. Denn mithilfe von Produktsimulationen können die funktionalen Eigenschaften einer kompletten Maschine oder eines einzelnen Werkstücks digital abgebildet werden, und das analog zum realen „Gegenstück“. Damit können physikalische Eigenschaften eines echten Objekts am Computer abgebildet werden und kleinste Abweichungen lassen sich somit mühelos feststellen.

Mithilfe des digitalen Zwillings kann man also strukturmechanische Eigenschaften genauso darstellen wie Charakteristika aus den Bereichen Strömung, Elektromagnetik, etc. Damit lassen sich die zu erwartenden Hardware-Eigenschaften anhand der zuvor definierten Anforderungen genauesten überprüfen und bewerten.

Simulation à la Digital Twin kann aber noch mehr: So lassen sich virtuelle Produkte in einer frühen Phase schrittweise verbessern, sodass spezifische Eigenschaften so schnell wie möglich berücksichtigt werden können. Und das wiederum schont Ressourcen, führt also zu weniger Ausschuss bei der späteren Produktion oder ermöglicht bessere Ergebnisse beim finalen Produkt.

Wie ändert sich die Rolle der Simulation gerade?

Die Rolle der Simulation verändert sich im Produktentwicklungsprozess fortwährend, wird also immer bedeutender und wichtiger. So kommt die Simulation beispielsweise nicht mehr ausschließlich zu Validierungszwecken zum Einsatz, sondern trägt auch einen wichtigen Beitrag zur gesamten Wertschöpfungskette bei. Das hat zum einen damit zu tun, dass Simulationen immer früher eingesetzt werden, und zum anderen im Bereich „Predictive Maintenance“ eine immer wichtigere Rolle spielen. Damit lässt sich künftig noch genauer und früher vorhersagen, wie sich ein Produkt oder Bauteil im realen Einsatz verhalten wird.

Aber auch die Zunahme von Wissen innerhalb eines Unternehmens ist dem Einsatz von Simulation geschuldet. Denn aufgrund der zunehmenden Bandbreite an Simulationstools kann zum Beispiel ein Konstrukteur mit dem passenden digitalen Werkzeug ganz früh in den Entwicklungsprozess eingebunden werden. Und das alles auf Basis von Hochleistungsrechnern, die Simulationsberechnungen immer exakter in immer kürzerer Zeit durchführen können.

Das Videointerview mit Florian Jurecka in voller Länge

Christian Tarun (IBM) über digitalen Service-Support

[Videochat] Christian Tarun (IBM) über digitalen Service-Support mittels VR

Während der Hannover-Messe 2018 habe ich mit Christian Tarun von IBM über die Möglichkeiten des digitalen Service-Supports gesprochen, speziell mithilfe von Daqri-VR-Brillen und dem Software-Tool „IBM Maximo Enterprise Asset Management“.

„Was zeigen Sie auf der Hannover-Messe 2018?“

Christian Tarun und sein Team zeigten während der Hannover-Messe 2018 IBM Maximo Enterprise Asset Management mit all seinen Möglichkeiten. Damit lassen sich vor allem Instandhaltung und vorbeugende Wartung sehr gut abbilden und administrieren. Hierbei kommen zahlreiche Sensoren zum Einsatz, mit deren Hilfe der Zustand kompletter Anlagen überwacht und gesteuert werden können. Damit kann man auf Probleme bereits reagieren, bevor sie folgenschwere Komplikationen oder Betriebsausfälle verursachen. Darüber hinaus unterstützt Maximo Außendienstmitarbeiter bei ihren täglichen Arbeiten im Serviceeinsatz.

„Inwiefern unterstützt die [am IBM-Stand gezeigte] Daqri-VR-Brille Ihre Kunden?“

Mithilfe der Daqri-VR-Brille können sich zum Beispiel Außendienstmitarbeiter auf dem virtuellem Weg relevante Informationen zu einer Anlage auf das Display der Brille holen, um so mehr zu erfahren über den aktuellen Zustand der Maschine oder einer anderen Komponente, die sie warten oder reparieren sollen. Diese Zustandsinformationen werden in Echtheit ausgelesen und in der Brille angezeigt, sodass der Techniker genau weiß, an welchen Stellen er aktiv werden muss.

Sehr praktisch ist auch die Möglichkeit, mithilfe der in der Brille eingebauten Kamera technischen Support zu bekommen. So kann sich beispielsweise ein Experte über eine Remote-Anbindung mit der Brille verbinden und sieht somit genau die Maschine, an der der Außendienstmitarbeiter nicht weiterkommt. Damit können beide gemeinsam das technische Probleme dank der Daqri-VR-Brille beheben. Auf diese Art und Weise kann die VR-Brille auch zu Schulungszwecken eingesetzt werden.

„Wie lässt sich die Daqri-VR-Brille darüber hinaus nutzen?“

Neben den aufgeführten Möglichkeiten lässt sich die Daqri-VR-Brille auch zu Navigationszwecken nutzen. So kann der Außendienstmitarbeiter exakt zu der Maschine geleitet werden, an der ein technischer Mangel aufgetreten ist, den er beheben soll.

„Was leistest IBM Maximo Enterprise Asset Management?“

IBM Maximo Enterprise Asset Management überwacht den Gesundheitszustand einer zu überwachenden Anlage, und das wie bereits erwähnt mithilfe einer Reihe von Sensoren, die an den einzelnen Bauteilen der Maschine angebracht sind.

Wichtig dabei ist, dass der Betreiber der Anlage zunächst einen gewünschten Soll-Zustandswert definiert, der in Summe nicht unterschritten werden darf. Anschließend überwacht Maximo sämtliche Einzelwerte und zeigt Unregelmäßigkeiten an, sobald diese entstehen. Wird ein Schwellenwert unterschritten, wird auf dieser Basis ein Arbeitsauftrag erstellt, der einen technischen Mitarbeiter zur Anlage  schickt, damit dieser das technische Problem behebt, bevor es überhaupt entsteht. Dies wird unter dem Begriff „Predictive Maintenance“ subsumiert.

Dank des integrierten Kartenapplikation kann der Techniker mithilfe von Maximo den Standort der fehlerhaften Anlage lokalisieren und sich anhand der Lagedaten sofort auf den Weg machen. Dieser Kartenausschnitt ist zudem interaktiv nutzbar: Per Mausklick bekomme ich sämtliche Informationen zur Anlage am Bildschirm angezeigt.

Das Videointerview mit Christian Tarun in voller Länge

Christopher Katzinski zur Blockchain-gestützten Fertigung

[Videochat] Christopher Katzinski von IBM über Blockchain-Marktplätze

Dieses Interview habe ich mit Christopher Katzinski von IBM auf der Hannover-Messe 2018 zum Thema Blockchain-Marktplätze geführt. Darin spricht er über die Möglichkeiten, die sich daraus für Fabrikinhaber und Firmen ohne Produktionsstätten ergeben, warum die Blockchain-Technologie hierfür eingesetzt wird und was IBM an dieser Stelle leistet.

„Was zeigt die Blockchain Techdemo auf der Hannover-Messe 2018?“

Die Techdemo Hyperfacture sollte das Potential zeigen, das in der Blockchain-Technologie für das produzierende Gewerbe schlummert. Dabei handelte es sich um eine Art Marktplatz, auf dem Produzenten freie Fertigungskapazitäten „verkaufen“ und Unternehmen ohne eigene Produktionszeiten „kaufen“ können.

Um Produktionskapazitäten an den Mann oder die Frau zu bringen bzw. zu erwerben, registrieren sich Fabrikinhaber und Firmen mit Produktionsbedarf auf der IBM Blockchain-Plattform. Sodann kann ein Unternehmen, das ein zu fertigendes Produktdesign besitzt, die Produktion desselben in Auftrag geben. Hierbei lässt sich genau festlegen, in welcher Qualität ein Produkt gefertigt werden soll, bis wann die Produktion abgeschlossen sein soll, und so fort.

Anschließend wird anhand einer bestmöglichen Übereinstimmung von angebotenen Fertigungskapazitäten und benötigten Produktionsmitteln ein sogenannter „Match“ hergestellt, der wie beim Onlinedating Anbieter und Nachfrager zusammenbringt. Um die Formalien wie die Bezahlung, Vertragsabschluss, etc. kümmert sich die Blockchain-Plattform.

Mithilfe der in die Produktionslandschaft integrierten IoT-Geräte lässt sich der aktuelle Fertigungszustand permanent darstellen. Damit kann beispielsweise der Auftragnehmer überprüfen, an welchem Standort produziert wird und ob es sich dabei um den vertraglich zugesicherten Fertigungsstandort handelt.

„Warum kommt in diesem Fall die Blockchain-Technik zum Einsatz?“

Der wesentliche Grund für den Einsatz der Blockchain-Technologie ist in diesem Fall das Thema Vertrauen. Denn dank der Blockchain-Plattform, auf dem Käufer und Verkäufer ins Geschäft kommen, lassen sich sämtliche Transaktionen speichern, und das unveränderlich. Das ist vor allem für mittelständische Unternehmen oder kleinere Start-ups wichtig, die einen eingeschränkten Bekanntheitsgrad aufweisen und damit einen nicht so hohen Stellenwert wie größere, bekanntere Mitbewerber genießen.

Genau für diese Unternehmen ist nämlich das Einhalten von Qualitätsstandards von allergrößter Wichtigkeit, was sich mithilfe der Blockchain-Technik transparent nachweisen lässt. Zudem ist in solche Systeme oft ein Rating-System integriert, womit sich Qualität und Zuverlässigkeit zusätzlich beurteilen lassen. Auch das erhöht das Vertrauen in das produzierende Unternehmen.

Für den Anbieter von Fertigungskapazitäten hingegen bietet solch ein System ebenfalls Vorteile, da sich Kriterien wie die Zahlungsmoral des Käufers von Produktionsmitteln transparent abbilden lassen. Diese und weitere Maßnahmen sorgen auf Käufer- und Verkäuferseite für eine erhöhtes Vertrauen.

„Wie kommt IBM an dieser Stelle ins Spiel?“

IBM kann innerhalb des Segments „Blockchain for Business“ durchaus als Pionier bezeichnet werden. So ist „Big Blue“ unter anderem seit 2016 Mitglied in der Hyperledger Foundation, wo gemeinsam mit der Linux Foundation die Blockchain-Technologie Hyperledger Fabric und Hyperledger Composer entwickelt wurde. Bei Hyperledger Fabric handelt es sich um ein Framework, mit dessen Hilfe Blockchain-Applikation entwickelt werden können. Diese Entwicklungsumgebung ist Teil der IBM Cloud, womit dieses Framework für jedermann zugänglich ist.

Für ein besseres Verständnis, welche Projekte sich mithilfe von Blockchain-Technologien realisieren lassen, bietet IBM Beratung, Workshops und andere unterstützende Maßnahmen an. Daraus resultierten bisher mehr als 400 Kundenprojekte, die mithilfe von IBM und Blockchain auf den Weg gebracht werden konnten. Allerdings ist nicht jede Anwendung blockchain-tauglich. Aber auch hier hilft IBM, genau das herauszufinden.

Das Interview mit Christopher Katzinski in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Justus Reich (IBM) über die Sicherheit von Industrieanlagen mittels IBM QRadar SIEM

[Videochat] Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM

Dieses Videointerview habe ich auf der Hannover-Messe 2018 mit Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM geführt. Darin spricht er über das Gefahrenpotential von Industrieanlagen, wie sich die Betreiber von solchen Anlagen gegen Angriffe von außen schützen können und was das alles mit IBM zu tun hat.

„Warum lassen sich Industrieanlagen nicht ganz so trivial absichern?“

Da Industrieanlagen eine deutliche längere Laufzeit als Standard-IT-Systeme aufweisen – das reicht bis zu 20 Jahren – kommen in den aktuellen Wasserkraft- und anderen Anlagen Techniken zum Einsatz, die schon etwas betagter sind, spricht nicht auf dem neuesten Stand sind. Damit sehen sich Industrieanlagen im Vergleich zu IT-Systemen einer größeren Gefährdung seitens möglicher Hackerangriffe ausgesetzt.

Klar ist auch in diesem Zusammenhang, dass sich diese Anlagen nicht mal eben so per Software-Update patchen lassen. Und genau dieser Umstand erfordert alternative Herangehensweisen und Methoden, wenn es um das Absichern von Industrieanlagen geht.

„Wie kann man Industrieanlagen gegen Angriffe von außen schützen?“

Für den Schutz von Industrie- und anderen Anlagen hat IBM ein Software-Tool im Programm, das sich IBM QRadar SIEM nennt, das ursprünglich für den IT-Bereich entwickelt wurde. Mit QRadar lassen sich sämtliche Informationen zu allen Netzwerkgeräten wie PLC- und SCADA-Controllern sammeln und darstellen. Darüber hinaus werden weitere Informationen rund um das Netzwerk mithilfe von QRadar ermittelt, womit der Software ausreichend Informationen zur Verfügung steht, um „guten“ von „schlechtem“ Netzwerk-Traffic unterscheiden zu können. Und das wiederum ist die Grundlage für entsprechende Maßnahmen, wenn es zu einem Angriff auf eine Industrieanlage kommt.

„Wie verhält sich IBM QRadar SIEM im praktischen Einsatz?“

Anhand des Beispiels eines Wasserkraftwerks lässt sich gut zeigen, wie IBM QRadar SIEM in der Praxis arbeitet. Hierzu werden einer oder mehrere PLC-Controller, die für die Steuerung der Anlage zuständig sind, mithilfe von QRadar permanent überwacht. Konkret gesagt, werden die gesamten Kommunikationsdaten zum Controller hin und davon weg fortwährend kontrolliert und dabei in Echtzeit entschieden, ob die Kommunikation mit dem Gerät eine bekannte oder eine eher unbekannte ist. Damit lässt sich zuverlässig feststellen, ob es sich um einen Angriff auf die Anlage handelt oder ob das Standard-Kommunikationsdaten sind.

In einfachen Fällen ist QRadar in der Lage, geeignete Maßnahmen zu ergreifen, um den Angriff abzuwehren. In anderen, komplexeren Fällen können die Administratoren der Industrieanlage schnell genug auf die Anomalie reagieren und die richtigen Schlüsse daraus ziehen.

Das Videointerview mit Justus Reich in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Steffen Hartmaier über IBM Plant Advisor

[Videochat] Steffen Hartmaier zum Einsatz des IBM Plant Advisor in der Fertigung

Während der Hannover-Messe 2018 habe ich mit Steffen Hartmann von IBM dieses Interview zum IBM Plant Advisor geführt. Darin spricht er über die Techdemo am IBM-Stand, welche Aufgaben der IBM Plant Advisor im Produktionsumfeld übernimmt und wo dieses Tool überall zum Einsatz kommt.

„Was zeigen Sie auf der Hannover-Messe 2018?“

Auf der Hannover-Messe 2018 zeigten Herr Hartmaier und sein Team in Halle 7 eine Software-Lösung, mit der sich datenbasierte Produktionsprozesse optimieren lassen. Dabei analysiert und bewertet das Tool die während der Fertigung entstehenden Daten, um so beispielsweise den Energiebedarf zu senken oder den Output zu erhöhen.

„Welche IBM-Lösung trägt dazu [seinen Anteil] bei?“

Diese Software-Lösung, die in der Fertigung zu Optimierungszwecken eingesetzt werden kann, nennt sich IBM Plant Advisor. Dabei übernimmt das Softwarewerkzeug unterschiedliche Aufgaben: Das beginnt beim „Einsammeln“ der Daten von den Maschinen, setzt sich mit dem Speichern auf der IBM Cloud-Plattform fort, wo sie analysiert und verarbeitet werden und endet beim Zurückführen eines passenden Modells in die Fabrik. Dort sollen die so gewonnenen Erkenntnisse zu einer Verbesserung der Produktionsergebnisse führen.

Interessant dabei ist, dass die generierten Modelle und ihre Daten lokal auf die Maschinen zurückgespeichert werden, sodass sich die Produktionsverantwortlichen sicher sein können, dass die Daten auf jeden Fall zur Verfügung stehen – und zwar unabhängig von der aktuellen Anbindung an die Cloud.

„Wo kommt der IBM Plant Advisor überall zum Einsatz?“

Das Einsatzspektrum des IBM Plant Advisor ist laut Herrn Hartmaier äußert vielfältig. Da es vor allem für energieintensive Produktionsanlagen konzipiert wurde, spielt es primär in den Bereichen eine Rolle, in denen z.B. das Trocknen von Baumaterial wie Zement prozesskritisch ist, da man es hier mit hohen Temperaturen zu tun hat. Dabei stehen vor allem solche Parameter im Vordergrund, die eine hohe Wechselwirkung mit anderen Faktoren aufweisen, wie zum Beispiel die Außentemperatur und der Luftdruck.

Aber auch unterschiedlich ausgeprägte Rohstoffe wie bei der Herstellung von Zement, wo z.B. große und kleine Steine für die Produktion eingesetzt werden, spielen in diesem Kontext eine Rolle. Das gilt auch für Naturprodukte wie Torf, die einen unterschiedlichen Feuchtigkeitsgehalt aufweisen.

Und genau hier setzt IBM Plant Advisor an, indem das Tool versucht, die nicht beeinflussbaren Faktoren mit den kontrollierbaren Faktoren möglichst gut zu „matchen“, sodass sich trotzdem ein optimales Ergebnis erzielen lässt. Das bedeutet konkret, dass man mit möglichst geringem Energieaufwand einen möglichst hohen Ertrag zu erreichen sucht.

Das Videointerview mit Steffen Hartmaier in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Plamen Kiradjiev über Smart Factory und IBM

[Videochat] Plamen Kiradjiev (IBM) über Smart Factories am Beispiel von Mettler Toledo

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Plamen Kiradjiev von IBM über das Thema Smart Factories am Beispiel von Mettler Toledo geführt. Darin zeigt er, wieso IBM ein wichtiger Teil der SmartFactory-Szene ist, welche Rolle IBM darin einnimmt und wie IBM mit seinen KI- und Cloud-Tools Industriekunden wie Mettler Toledo hilft.

„Was zeigen Sie hier [auf dem Smart Factory-KL-Stand] auf der Hannover-Messe 2018“?

Laut Herrn Kiradjiev zeigten auf dem Smart Factory-KL-Stand in Halle 8 wie seit vielen Jahren zahlreiche Aussteller ihre Lösungen rund um das Thema „Schlaue Fabriken“ und Industrie 4.0. Und auch dieses Jahr war IBM wieder von der Partie. Das Hauptinteresse seitens IBM auf diesem großen Messestand bestand im Sammeln, Analysieren und Bewerten der Daten, die hier zu Demonstrationszwecken benötigt wurden.

Einen dieser Messepartner, der gleichzeitig auch Kunde von IBM ist, versorgte IBM mit Daten für die Qualitätssicherung seiner Produkte. Die Rede ist von Mettler Toledo, dem Hersteller von Präzisionswaagen, für den das Thema Qualitätssicherung in der Fertigung von allerhöchster Wichtigkeit ist.

„Welche Rolle nimmt IBM in der Smart Factory ein?“

Die primäre Rolle von IBM innerhalb des Smart Factory-Kontexts war die vorausschauende Fertigung und Wartung, was auch als Predictive Manufacturing und Predictive Maintenance bezeichnet wird. Dabei hatte es sich IBM unter anderem zum Ziel gesetzt, diese beiden auf Machine Learning basierenden Ansätze auf der Hannover-Messe (und darüber hinaus) zu Lern-un Demonstrationszwecken bestmöglich einzusetzen.

Ein wichtiger Prozess dabei ist das Extrahieren und Analysieren der Daten, die IBM mithilfe geeigneter Tools aus den Industrieanlagen der Partner holt. Hierfür kommt ein einheitliches Protokoll zum Einsatz, mit dessen Hilfe sämtliche Daten in einem einheitlichen Format in den zur Verfügung stehenden Datenpools gespeichert werden. Von dort aus gelangen sie in den unterschiedlichsten Cloud-Plattformen, die je nach Anwendung und Kunde genutzt werden. Hierbei kommen auch Multi-Cloud-Szenarien zur Anwendung.

„Wie hilft IBM in diesem Kontext [dem Hersteller von Präzisionswaagen] Mettler Toledo?“

Bei dem gemeinsamen Projekt mit Mettler Toledo steht für den Anbieter und Hersteller von Präzisionswaagen die Qualität seiner Messgeräte an allererster Stelle. Denn die Waagen werden primär selbst zur Qualitätssicherung eingesetzt, indem gefertigte Produkte zur Überprüfung von möglichen Abweichungen von der gewünschten Qualität vermessen werden. Da die Mettler-Toledo-Waagen bis in das Milligramm genau wiegen können, lassen sich mithilfe dieser Hightech-Messgeräte kleinste Produktionsabweichungen exakt feststellen, ohne jedes einzelne Bauteil oder ein komplettes Produkt aufwändig nachmessen oder gar zerlegen zu müssen.

Aus diesem Grund ist es für Mettler Toledo immanent wichtig, sich auf die hundertprozentige Messgenauigkeit seiner Waagen verlassen zu können. Und genau hier kommt IBM mit seinen Softwarelösungen ins Spiel. So stellt „Big Blue“ eine Schnittstelle in seine IoT Cloud zur Verfügung, mit dessen Hilfe Mettler Toledo Zugriff auf geeignete Machine-Learning-Algorithmen erhält. Damit kann der Hersteller ziemlich exakt voraussagen, wann und bei welchen Waagen eine Ungenauigkeit von Messergebnissen zu erwarten ist, da sich bei der Produktion der Messgeräte mit hoher Wahrscheinlichkeit Unregelmäßigkeiten einstellen werden.

IBM IoT Cloud und Watson Studio für das Überprüfen von Qualität von Präzisionswaagen

Hierfür werden die von Mettler Toledo zur Verfügung gestellten Daten innerhalb der IBM IoT Cloud in das Softwaretool Watson Studio importiert. Daraus erstellt die Anwendung ein Produktionsprozessmodell, das anschließend installiert und konfiguriert wird. Sobald die vorhandenen Daten durch dieses Modell geleitet werden, lässt sich ziemlich genau vorhersagen, welche Waage mit relativ hoher Wahrscheinlichkeit Abweichungen bei der gewünschten Qualität aufweisen wird. In solch einem Fall erhält der Smart-Factory-Administrator von der Software einen Warnhinweis, der auf die mögliche Abweichung der Messgenauigkeit hinweist. Damit kann er unmittelbar und ohne größeren Messaufwand die Qualität der Waage überprüfen lassen.

Das Interview mit Plamen Kiradjiev in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Eduard Erhart über IBM Supply Chain Insights

Eduard Erhart über IBM Supply Chains Insights und Watson AI

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Eduard Erhart zum Thema IBM Supply Chains Insights geführt. Mit diesem Tool hilft IBM ihren Kunden, Lieferkettenprozesse künftig mithilfe von Watson AI zu optimieren und einfacher zu gestalten.

„Was zeigt IBM [auf der Hannover-Messe] zum Thema Watson AI und Supply Chains?“

Kern des Demopunktes, an dem Eduard Erhart während der Hannover-Messe 2018 sein Wissen weitergegeben hat, war das Teilen von Erkenntnissen mit Messebesuchern rund um das Thema Supply Chains, also Lieferketten, und welche Erfahrungen IBM während der letzten Jahren im Kontext ihrer Supercomputer und Speicherlösungen sammeln konnte. Herausgekommen ist ein Softwaretool, das sich IBM Supply Chain Insights nennt, mit dem auf die sehr speziellen Anforderungen von Kunden an deren Lieferketten reagiert werden kann.

„Welche Vorteile ergeben sich dabei aus dem Einsatz von Künstlicher Intelligenz (AI)?“

Laut Herrn Erhart ergeben sich im Kontext von Lieferketten durch den Einsatz von Künstlicher Intelligenz ganz neue Möglichkeiten. So lassen sich mithilfe von IBM Watson AI Services die bestehenden Supply-Chain-Daten von Unternehmen um externe Daten und Informationen anreichern, die allerdings in vielen Fällen unstrukturiert vorliegen.

Genau das erfordert eine ganz spezielle Behandlung und Verarbeitung dieser Daten von außerhalb. An dieser Stelle kommt IBM Supply Chain Insights ins Spiel. Damit lassen sich die Daten des Kunden mühelos auswerten, bewerten und in den richtigen Kontext setzen mit den eigenen und fremden Daten.

„Wie profitieren IBM-Kunden [dabei genau] von IBM Supply Chain Insights?“

Die große Herausforderung, mit der sich Kunden und Anwender konfrontiert sehen, lautet: Wie kann ich die riesigen Datenmengen sinnvoll einsetzen, um möglichst schnell gewinnbringende Informationen über meine Lieferkettenprozesse zu bekommen? Hierfür bietet sich eben das Softwaretool IBM Supply Chains Insights an, das innerhalb der IBM Cloud zur Verfügung steht.

Damit haben IBM-Kunden einerseits einen schnellen Zugriff auf diese Lieferketten-Analysesoftware, andererseits können sie gleichzeitig die anderen vorhandenen IBM-Cloud-Tools nutzen, die dort ebenfalls bereit stehen. Auch damit lassen sich Lieferkettenprobleme analysieren und beheben. Dies geschieht unter anderem auf Basis eines Chattools, auf das jeder Anwender innerhalb des Unternehmen Zugriff hat.

„Wie genau arbeitet IBM Supply Chain Insights?“

IBM Supply Chain Insights betrachtet die vorhandenen Transaktionsdaten und erkennt automatisch die Abweichungen von einem vorher definierten Soll-Zustand. Sollte dieser Fall eintreten, wird der Anwender darüber in Kenntnis gesetzt, um darauf reagieren zu können. So kann er sich mit seinem Team innerhalb eines Chatrooms von IBM Supply Chain Insights treffen, um eine möglichst probate Lösung des Problems zu eruieren.

Dabei füttert er IBM Watson AI mit den gewonnenen Erkenntnissen und möglichen Lösungsansätzen, von denen Watson wiederum lernen kann. Was am Ende dazu führen soll, dass beim nächsten Auftreten eines ähnlichen oder gleichen Problems eine Lösung schneller herbei geführt werden kann.

Das Videointerview mit Eduard Erhart in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.