Sebastian Amtage (b.telligent) über den Status Quo der Künstlichen Intelligenz

[Videochat] Sebastian Amtage, b.telligent, über Künstliche Intelligenz

Dieses Interview habe ich während des BI Kongress 2018 mit Sebastian Amtage, dem CEO von b.telligent, über den Status Quo der Künstlichen Intelligenz geführt. Darin spricht er über den aktuellen Stand der Dinge der KI, über die größten KI-Herausforderungen und was seine Firma dazu beizutragen hat.

Wie ist es aktuell um das Thema KI bestellt?

Aus Sicht von b.telligent handelt es sich beim Thema KI um einen Hype, da viele Unternehmen im Rahmen ihrer Digitalisierungsstrategie den Einsatz von KI-Techniken und -Tools durchaus einplanen. Hierbei stehen unter anderem effizientere Prozesse und intelligentere Produkte im Vordergrund. Allerdings ist der Wissensstand in vielen Unternehmen sehr unterschiedlich ausgeprägt, vor allem der datengetriebene Ansatz der KI ist für viele Firmen noch recht neu.

Diese Unternehmen müssen erst einmal grundsätzliche Fragen klären: Woher kommen die richtigen Daten? Wie ist es um deren Qualität bestellt? Wie kann ich die vorhandenen Datenpools sinnvoll zusammenfassen, etc.

Andere Firmen hingegen beschäftigen sich mit der KI schon sehr viel länger und haben damit einen erheblich leichteren Einstieg in dieses Thema. Diese Unternehmen setzen bereits komplexere Techniken und Methoden wie Deep Learning und Machine Learning ein, was über das klassische Data Mining und statistische Modelle bei weitem hinaus geht.

Worin bestehen die größten KI-Herausforderungen?

In diesem Kontext sind zahlreiche Hürden und Hindernisse zu nennen. Das sind zum einen die bereits erwähnten Daten. Hier kommt es vor allem auf eine ausreichende Datenmenge und deren Qualität an. Zum anderen spielt das Thema Know-how innerhalb der Firma eine große Rolle. Denn oft fehlt es an sehr gut ausgebildeten KI-Experten, die solch ein Projekt sach- und fachgemäß steuern und mit Leben füllen können. Hier sind diejenigen Unternehmen auf jeden Fall im Vorteil, die sich schon mit den Themen Business Intelligence und Big Data beschäftigt haben und entsprechendes Know-how aufbauen konnten.

Was trägt b.telligent zum Thema KI bei?

Mit dem Thema Data Science, was ja einen Oberbegriff der KI darstellt, beschäftigt sich b.telligent schon seit 15 Jahren. Damit gib es im Unternehmen zahlreiche Experten, die die Herausforderungen vieler Unternehmen kennen und helfen können, diese zu bewältigen.

Für b.telligent steht meist die Hilfe zur Selbsthilfe im Vordergrund, wie sich also innerhalb von Unternehmen KI-Experten und -Projektteams ausbilden und aufbauen lassen, um sich mit dem Thema bestmöglich auseinandersetzen zu können. Das nimmt aber oft einen langen Zeitraum in Anspruch, da die Künstliche Intelligenz mit all ihren Disziplinen viel Erfahrung und Wissen voraussetzt.

Das Interview mit Sebastian Amtage in voller Länge

Dr. Konstantin Greger (Tableau Software) über Künstliche Intelligenz

[Videochat] Konstantin Greger (Tableau Software) über Künstliche Intelligenz

Dieses Videointerview habe ich während eines IDC-KI-Events mit Dr. Konstantin Greger von Tableau Software geführt. Darin spricht er über den aktuellen Zustand der Künstlichen Intelligenz in Deutschland, welchen Beitrag Tableau dazu leistet und was noch nötig ist, um den Umstieg auf die „starke“ KI zu schaffen.

Was trägt die Firma Tableau zum Thema KI bei?

Für Konstantin Greger stehen dabei vor allem zwei Aspekte im Vordergrund: Der Einsatz von KI und Machine Learning in den Anwendungen von Tableau Software selbst und bei der Unterstützung von Unternehmen und wie diese Künstliche Intelligenz für ihre Zwecke nutzen können. Hierbei wird auch das Kerngeschäft von Tableau Software sichtbar: Wie bereite ich Daten so auf, damit ich sie besser verstehen und optimal einsetzen kann. Es geht also um die Abstrahierung komplexer Datensammlungen hin zu einem verständlichen Modell, das sich auf einfache Art und Weise nutzen lässt.

Wie ist es hierzulande um das Thema KI bestellt?

Laut Herrn Greger lässt sich das weite Feld der KI in Deutschland als sehr heterogen bezeichnen. So setzen es gerade kleinere Firmen schon recht agil ein, da sie den Nutzen der Künstlichen Intelligenz für sich erkannt haben und ihr Geschäftsmodell daran ausrichten.

Im Gegensatz dazu fällt es den größeren Firmen oftmals noch recht schwer, KI-Ansätze innerhalb der geplanten Projekte sinnvoll zu integrieren. Dort sind zwar innovative Ideen vorhanden, wie sich Künstliche Intelligenz und Machine Learning einsetzen ließen, aber gleichzeitig fehlt das Know-how, um diese Ideen sinnvoll umzusetzen. Denn oft folgen diese Firmen letztlich nur dem Drang, in Sachen KI etwas zu unternehmen, da der Mitbewerber in dieser Richtung auch etwas tut. Dabei wissen diese Unternehmen oft noch gar nicht, wie sich KI richtig einsetzen lässt.

An dieser Stelle kann Tableau Software ins Spiel kommen, da ein wesentliches Element der KI, nämlich die Daten, vollkommen außer acht gelassen werden. Und genau hierbei kann Tableau helfen, nämlich beim Identifizieren, Aufbereiten und Bewerten der vorhandenen Daten.

Was sind die größten Hürden beim Umstieg von der „schwachen“ zur „starken“ KI?

Die Hürden beim Umstieg von der „schwachen“ zur „starken“ KI lassen sich als äußert vielfältig beschreiben. Das betrifft zum einen das bereits erwähnte Thema Daten. Denn für eine starke KI sind viele „gute“ und vertrauenswürdige Daten erforderlich, da ansonsten die korrespondierenden KI-Dienste und -Lösungen nicht glaubwürdig sind. Darüber hinaus fehlt es an vielen Stellen am richtigen Know-how, also an KI-Experten, die das Vorantreiben der starken KI überhaupt erst ermöglichen können.

Das Interview mit Konstantin Greger in voller Länge

 

Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

[Videochat] Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

Während eines IDC-Events, auf dem eine Studie zum Thema KI in Deutschland vorgestellt wurde, habe ich dieses Interview mit Jürgen Wirtgen von Microsoft geführt. Darin spricht er über den Beitrag seitens Microsoft in Sachen KI, wie sich Daten für KI-Projekte bestmöglich nutzen lassen und was Microsoft unter der Demokratisierung der Künstlichen Intelligenz versteht.

Was leistet Microsoft im Kontext von KI?

Die Künstliche Intelligenz sieht Herr Wirtgen als eine Art übergeordneten Schirm, der sich bei Microsoft über alle Bereiche spannt. Dazu gehört beispielsweise der Bereich Produktivität (Office 365, etc.), aber auch ein eigens hierfür geschaffener Geschäftsbereich zu den Themen Cloud und KI existiert bei Microsoft. Hierfür stellt Redmond zahlreiche Entwicklungsressourcen zur Verfügung, mit deren Hilfe neue KI-Lösungen und -Dienste entstehen sollen. Das betrifft sowohl die Grundlagenforschung als auch den realen Nutzen von KI im Produktionsumfeld.

Darüber hinaus unterstützt Microsoft seine Kunden in Sachen Künstliche Intelligenz. Das reicht von der Entwicklung eines eigenen Bots bis hin zum Einsatz kognitiver Dienste oder der Entwicklung neuer Geschäftsmodelle, in denen die Künstliche Intelligenz eine entsprechende Rolle spielt.

Wie lassen sich Daten für die KI bestmöglich nutzen?

Hierzu muss erst einmal das Geschäftsmodell entwickelt und verstanden werden. Denn erst dann kann man herausfinden, welche Daten ich besitze und welche davon für mein spezielles KI-Projekt wichtig und erforderlich sind. In manchen Fällen sind zusätzliche Daten notwendig, sodass beispielswiese der Einsatz von Sensoren in Erwägung gezogen werden sollte. Diese Datengewinnung ist dann ebenfalls wichtiger Teil des Gesamtprojekts.

Müßig zu erwähnen, dass beim Sammeln und Speichern von Daten jederzeit die höchsten Sicherheitsstandards berücksichtigt werden sollten. Alleine schon aus Gründen des Datenschutzes und der Datensicherheit.

Was versteht Microsoft unter der Demokratisierung von KI?

Viele Menschen verbinden mit der Künstlichen Intelligenz vor allem wissenschaftliche Anwendungen, hinter denen sich komplexe und komplizierte Modelle befinden. Microsoft möchte erreichen, dass KI-Anwendungen von einer breiten Masse genutzt werden können. Hierfür sind Dienste erforderlich, die sich trivial nutzen und genauso einfach in bestehende Anwendungen einbinden lassen.

Hierbei kommen unter anderem die 30.000 Business Partner von Microsoft (Entwickler, Softwarehäuser, etc.) ins Spiel, die in die Lage versetzt werden sollen, ihre Software mit KI-Elementen anzureichern. Aber auch andere Bevölkerungsschichten sollen mithilfe von geeigneten Ausbildungsmaßnahmen fit gemacht werden für das Grundverständnis von KI. Denn nur so kann eine echte Demokratisierung der Künstlichen Intelligenz gelingen – und damit Ängste und Vorbehalte abgebaut werden.

Das Interview mit Jürgen Wirtgen in voller Länge

Weiterführende Informationen zum Thema Microsoft und KI

Plamen Kiradjiev über Smart Factory und IBM

[Videochat] Plamen Kiradjiev (IBM) über Smart Factories am Beispiel von Mettler Toledo

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Plamen Kiradjiev von IBM über das Thema Smart Factories am Beispiel von Mettler Toledo geführt. Darin zeigt er, wieso IBM ein wichtiger Teil der SmartFactory-Szene ist, welche Rolle IBM darin einnimmt und wie IBM mit seinen KI- und Cloud-Tools Industriekunden wie Mettler Toledo hilft.

„Was zeigen Sie hier [auf dem Smart Factory-KL-Stand] auf der Hannover-Messe 2018“?

Laut Herrn Kiradjiev zeigten auf dem Smart Factory-KL-Stand in Halle 8 wie seit vielen Jahren zahlreiche Aussteller ihre Lösungen rund um das Thema „Schlaue Fabriken“ und Industrie 4.0. Und auch dieses Jahr war IBM wieder von der Partie. Das Hauptinteresse seitens IBM auf diesem großen Messestand bestand im Sammeln, Analysieren und Bewerten der Daten, die hier zu Demonstrationszwecken benötigt wurden.

Einen dieser Messepartner, der gleichzeitig auch Kunde von IBM ist, versorgte IBM mit Daten für die Qualitätssicherung seiner Produkte. Die Rede ist von Mettler Toledo, dem Hersteller von Präzisionswaagen, für den das Thema Qualitätssicherung in der Fertigung von allerhöchster Wichtigkeit ist.

„Welche Rolle nimmt IBM in der Smart Factory ein?“

Die primäre Rolle von IBM innerhalb des Smart Factory-Kontexts war die vorausschauende Fertigung und Wartung, was auch als Predictive Manufacturing und Predictive Maintenance bezeichnet wird. Dabei hatte es sich IBM unter anderem zum Ziel gesetzt, diese beiden auf Machine Learning basierenden Ansätze auf der Hannover-Messe (und darüber hinaus) zu Lern-un Demonstrationszwecken bestmöglich einzusetzen.

Ein wichtiger Prozess dabei ist das Extrahieren und Analysieren der Daten, die IBM mithilfe geeigneter Tools aus den Industrieanlagen der Partner holt. Hierfür kommt ein einheitliches Protokoll zum Einsatz, mit dessen Hilfe sämtliche Daten in einem einheitlichen Format in den zur Verfügung stehenden Datenpools gespeichert werden. Von dort aus gelangen sie in den unterschiedlichsten Cloud-Plattformen, die je nach Anwendung und Kunde genutzt werden. Hierbei kommen auch Multi-Cloud-Szenarien zur Anwendung.

„Wie hilft IBM in diesem Kontext [dem Hersteller von Präzisionswaagen] Mettler Toledo?“

Bei dem gemeinsamen Projekt mit Mettler Toledo steht für den Anbieter und Hersteller von Präzisionswaagen die Qualität seiner Messgeräte an allererster Stelle. Denn die Waagen werden primär selbst zur Qualitätssicherung eingesetzt, indem gefertigte Produkte zur Überprüfung von möglichen Abweichungen von der gewünschten Qualität vermessen werden. Da die Mettler-Toledo-Waagen bis in das Milligramm genau wiegen können, lassen sich mithilfe dieser Hightech-Messgeräte kleinste Produktionsabweichungen exakt feststellen, ohne jedes einzelne Bauteil oder ein komplettes Produkt aufwändig nachmessen oder gar zerlegen zu müssen.

Aus diesem Grund ist es für Mettler Toledo immanent wichtig, sich auf die hundertprozentige Messgenauigkeit seiner Waagen verlassen zu können. Und genau hier kommt IBM mit seinen Softwarelösungen ins Spiel. So stellt „Big Blue“ eine Schnittstelle in seine IoT Cloud zur Verfügung, mit dessen Hilfe Mettler Toledo Zugriff auf geeignete Machine-Learning-Algorithmen erhält. Damit kann der Hersteller ziemlich exakt voraussagen, wann und bei welchen Waagen eine Ungenauigkeit von Messergebnissen zu erwarten ist, da sich bei der Produktion der Messgeräte mit hoher Wahrscheinlichkeit Unregelmäßigkeiten einstellen werden.

IBM IoT Cloud und Watson Studio für das Überprüfen von Qualität von Präzisionswaagen

Hierfür werden die von Mettler Toledo zur Verfügung gestellten Daten innerhalb der IBM IoT Cloud in das Softwaretool Watson Studio importiert. Daraus erstellt die Anwendung ein Produktionsprozessmodell, das anschließend installiert und konfiguriert wird. Sobald die vorhandenen Daten durch dieses Modell geleitet werden, lässt sich ziemlich genau vorhersagen, welche Waage mit relativ hoher Wahrscheinlichkeit Abweichungen bei der gewünschten Qualität aufweisen wird. In solch einem Fall erhält der Smart-Factory-Administrator von der Software einen Warnhinweis, der auf die mögliche Abweichung der Messgenauigkeit hinweist. Damit kann er unmittelbar und ohne größeren Messaufwand die Qualität der Waage überprüfen lassen.

Das Interview mit Plamen Kiradjiev in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Eduard Erhart über IBM Supply Chain Insights

Eduard Erhart über IBM Supply Chains Insights und Watson AI

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Eduard Erhart zum Thema IBM Supply Chains Insights geführt. Mit diesem Tool hilft IBM ihren Kunden, Lieferkettenprozesse künftig mithilfe von Watson AI zu optimieren und einfacher zu gestalten.

„Was zeigt IBM [auf der Hannover-Messe] zum Thema Watson AI und Supply Chains?“

Kern des Demopunktes, an dem Eduard Erhart während der Hannover-Messe 2018 sein Wissen weitergegeben hat, war das Teilen von Erkenntnissen mit Messebesuchern rund um das Thema Supply Chains, also Lieferketten, und welche Erfahrungen IBM während der letzten Jahren im Kontext ihrer Supercomputer und Speicherlösungen sammeln konnte. Herausgekommen ist ein Softwaretool, das sich IBM Supply Chain Insights nennt, mit dem auf die sehr speziellen Anforderungen von Kunden an deren Lieferketten reagiert werden kann.

„Welche Vorteile ergeben sich dabei aus dem Einsatz von Künstlicher Intelligenz (AI)?“

Laut Herrn Erhart ergeben sich im Kontext von Lieferketten durch den Einsatz von Künstlicher Intelligenz ganz neue Möglichkeiten. So lassen sich mithilfe von IBM Watson AI Services die bestehenden Supply-Chain-Daten von Unternehmen um externe Daten und Informationen anreichern, die allerdings in vielen Fällen unstrukturiert vorliegen.

Genau das erfordert eine ganz spezielle Behandlung und Verarbeitung dieser Daten von außerhalb. An dieser Stelle kommt IBM Supply Chain Insights ins Spiel. Damit lassen sich die Daten des Kunden mühelos auswerten, bewerten und in den richtigen Kontext setzen mit den eigenen und fremden Daten.

„Wie profitieren IBM-Kunden [dabei genau] von IBM Supply Chain Insights?“

Die große Herausforderung, mit der sich Kunden und Anwender konfrontiert sehen, lautet: Wie kann ich die riesigen Datenmengen sinnvoll einsetzen, um möglichst schnell gewinnbringende Informationen über meine Lieferkettenprozesse zu bekommen? Hierfür bietet sich eben das Softwaretool IBM Supply Chains Insights an, das innerhalb der IBM Cloud zur Verfügung steht.

Damit haben IBM-Kunden einerseits einen schnellen Zugriff auf diese Lieferketten-Analysesoftware, andererseits können sie gleichzeitig die anderen vorhandenen IBM-Cloud-Tools nutzen, die dort ebenfalls bereit stehen. Auch damit lassen sich Lieferkettenprobleme analysieren und beheben. Dies geschieht unter anderem auf Basis eines Chattools, auf das jeder Anwender innerhalb des Unternehmen Zugriff hat.

„Wie genau arbeitet IBM Supply Chain Insights?“

IBM Supply Chain Insights betrachtet die vorhandenen Transaktionsdaten und erkennt automatisch die Abweichungen von einem vorher definierten Soll-Zustand. Sollte dieser Fall eintreten, wird der Anwender darüber in Kenntnis gesetzt, um darauf reagieren zu können. So kann er sich mit seinem Team innerhalb eines Chatrooms von IBM Supply Chain Insights treffen, um eine möglichst probate Lösung des Problems zu eruieren.

Dabei füttert er IBM Watson AI mit den gewonnenen Erkenntnissen und möglichen Lösungsansätzen, von denen Watson wiederum lernen kann. Was am Ende dazu führen soll, dass beim nächsten Auftreten eines ähnlichen oder gleichen Problems eine Lösung schneller herbei geführt werden kann.

Das Videointerview mit Eduard Erhart in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Tobias Stöckel auf der Hannover-Messe über Predictive Maintenance

[Videochat] Tobias Stöckel über Predictive Maintenance mit IBM Watson AI

Während der Hannover-Messe 2018 habe ich dieses Interview mit Tobias Stöckel von der IBM geführt. Darin spricht er über IBM Watson AI als Frühwarnsystem bei möglichen Materialfehlern und was IBM sonst noch zum Thema Predictive Maintenance beizutragen hat – inklusive der richtigen Hardware.

„Was zeigt die Techdemo „AI powered Factory?“

An diesem großen Demopunkt, der während der gesamten Hannover-Messe 2018 mehr als gut besucht war, stand vor allem das Thema Predictive Maintenance im Vordergrund. Zutaten waren hierfür Machine Learning mithilfe von IBM Watson, die beide in der Produktion zunehmend eingesetzt werden. Damit sollen unter anderem die Automatisierung von Qualitätskontrollen mithilfe von Visual Recognition ermöglicht und die Verfügbarkeit von Equipment verbessert werden.

„Wie hilft Watson AI bei der Früherkennung von Fehlern?“

Hierfür kommt die IBM Predictive Maintenance Solution zum Einsatz, mit der sich in diesem speziellen Fall Sensorwerte auslesen lassen, die einen genauen „Befindlichkeitsstatus“ des Roboters messen und diese an die IBM-Software übergeben können. Anschließend werden diese cloud-basierten Daten an Machine-Learning-Modelle übertragen, wo sie mit historischen Daten verglichen werden. Dies ermöglicht eine ziemlich genaue Vorhersage, wie sich der Roboter anhand der Vergangenheit in der Zukunft verhalten wird.

„Was trägt IBM für die Erkennung von Defekten bei?“

Mithilfe der IBM-Software Visual Insights lassen sich unter anderem Maschine-Learning-Modelle aufbauen, die für das Trainieren von Neuronalen Netzen erforderlich sind. Damit wird in diesem Fall festgelegt, wie zu untersuchende Fabrikationsteile aussehen sollen, die einerseits in Ordnung und andererseits defekt sind.

Hierfür ist natürlich eine leistungsstarke Hardware vonnöten, mit denen solche Neuronalen Netze samt ihrer Machine-Learning-Algorithmen trainiert werden können. Diese steht mit IBM PowerAI zur Verfügung, auf denen solche Aufgaben äußerst zügig erledigt werden können.

Das hat unter anderem mit der leistungsstarken NVIDIA Tesla-Grafikhardware zu tun, die in den PowerAI-Maschinen verbaut ist. Damit können Bilderkennungsaufgaben sehr schnell durchgeführt werden, was zum Beispiel im Kontext von flexiblen Herstellungsmodellen wichtig ist. Aber auch für dynamische Fehlerklassen sind möglichst kurze Trainingszyklen äußerst relevant.

Im Falle der Roboterdemo auf der Hannover-Messe wurde das System am Sonntag vor Messebeginn innerhalb weniger Stunden trainiert, wobei die meiste Zeit das Fotografieren der entsprechenden Bauteile in Anspruch genommen hat. Das Trainieren des Machine-Learning-Algorithmus selbst dauerte laut Herrn Stöckel nur wenige Sekunden!

Das Interview mit Tobias Stöckel in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Axel Rogaischus von IBM über Blockchain, Digital Twins und Künstliche Intelligenz

[Videochat] Axel Rogaischus (IBM) zu den Top-Themen auf der Hannover-Messe 2018

Mit Axel Rogaischus von IBM Deutschland habe ich dieses Interview zu den Top-Themen auf der Hannover-Messe 2018 geführt. Darin spricht er (aus IBM-Sicht) über die Blockchain-Technik, über digitale Zwillinge und über die Künstliche Intelligenz, soll heißen über IBM Watson AI.

Top-Thema Nummer 1: Blockchain-Technologie

Hierbei geht Herr Rogaischus vor allem auf Blockchain im Business-Umfeld näher ein. Doch was sind die besonderen Herausforderungen, wenn man von Blockchain-Lösungen im kommerziellen Einsatz spricht? Laut Herrn Rogaischus ist das in den allermeisten Fällen nicht die Technik an sich, denn die funktioniert zumeist tadellos, da oft nichts anderes als eine cloud-basierte Datenbanktechnik dahinter steckt.

Ein häufiger Knackpunkt ist eher die Governance bei der Implementierung einer Blockchain-Lösung innerhalb eines Netzwerks. Soll heißen: Wer hat den Blockchain-Hut auf? Wer bestimmt die „Mitspieler“ eines Blockchain-Netzwerks? An diesen und weiteren Entscheidungen scheitern leider nach wie vor viel zu viele Blockchain-Projekte.

Top-Thema Nummer 2: Digital Twins

Mit Digital Twins sind im Allgemeinen digitale Modelle bestehender Anlagen wie einer Fabrik gemeint, mit deren Hilfe exakte Simulationen vorgenommen werden, was zu einer Verbesserung von Prozessen führen kann, zu neuen Erkenntnissen rund um das reale Vorbild des digitalen Zwillings führt und vieles mehr.

Doch was macht ein Digital-Twin-Projekt wie der Port of Rotterdam auf einem Fertigungsevent wie der Hannover-Messe? Nun, interessant an diesem Digital Twin des Rotterdamer Hafens ist laut Herr Rogaischus die Komplexität dieser riesigen Anlage, die alleine im Jahr 2016 rund 29.000 Seeschiffe und 105.000 Binnenschiffe abgefertigt hat.

Und genau solch eine aufwändig zu wartende Anlage ist nun einmal auch eine Fabrik, von denen ebenfalls verstärkt digitale Zwillinge aufgebaut werden. Hiermit lässt sich am Rechner der gesamte Material-, Fertigungs- und Prozessfluss sowie sämtliche Maschinenketten anschaulich darstellen. Und genau diese Komplexität lässt sich mit vorhandener Technik in Form von Digital Twins mühelos abbilden.

Top-Thema Nummer 3: Künstliche Intelligenz

Mit der Künstlichen Intelligenz und deren Sub-Disziplinen wie Machine und Deep Learning werden künftig ganz neue Möglichkeiten geschaffen. Bei IBM hat man hierfür sogar eine eigene Marke geschaffen, die sich IBM Watson AI nennt, also Watson Artificial Intelligence. Mit dieser Technologie will IBM Anwendern helfen, Prozesse zu vereinfachen und zu verbessern, ganz gleich, an welcher Stelle das geschehen soll.

Speziell im Fertigungsumfeld – und damit auch auf der Hannover-Messe – spielt das Thema Predictive Maintenance eine immer wichtigere Rolle. Zu nennen sind hier beispielsweise der Use Case KONE, bei dem der Aufzug- und Rolltreppenhersteller mithilfe von Watson AI seine Außendienstmitarbeiter in die Lage versetzt, die notwendigen Wartungsarbeiten noch besser steuern und planen zu können. Hierfür stehen die notwendigen Informationen und Daten mithilfe von Watson AI bereits im Vorhinein zur Verfügung, mit denen sich Ausfälle von KONE-Anlagen präventiv vorhersagen lassen.

Das Interview mit Axel Rogaischus in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Khadija Soussi über Machine Learning auf IBM-Mainframes

[Videochat] Khadija Souissi (IBM) über IBM Z und Machine Learning

Während der IBM Z-Roadshow habe ich dieses Interview mit Khadija Souissi von IBM über das Thema Machine Learning geführt. Darin spricht sie über ihren Vortrag, über das Software-Angebot seitens IBM für Machine Learning auf Mainframe-Rechnern und warum Machine Learning immer wichtiger wird.

„Wovon handelte Ihr Vortrag auf der Z-Roadshow?“

Im Kern sprach Frau Souissis darüber, wie zu analysierende Transaktionsdaten auf demselben Rechner konsolidiert werden können, auf dem sie gespeichert und verarbeitet werden, nämlich auf dem IBM-Mainframe. Hierfür kommen immer öfter Machine-Learning-Algorithmen zum Einsatz, was eine Sub-Disziplin der Künstlichen Intelligenz darstellt.

Diese Algorithmen und Tools werden optimalerweise direkt in die Anwendung integriert, mit denen die Analysedaten erfasst und verarbeitet werden sollen. Hierbei ist es vor allem wichtig, möglichst unterschiedliche Daten und Datentypen zu verwenden, weil nur dann ein umfassendes und aussagekräftiges Ergebnis erzielt werden kann.

„Welche Machine-Learning-Tools hat IBM in petto?“

Für das Analysieren transaktionaler Daten auf dem Mainframe setzt IBM ein Verfahren ein, das sich Hybrid Transactional/Analytical Processing (HTAP) nennt. Hiermit lassen sich operationale Worksloads (also die Transaktionsdaten) und analytische Workloads auf einer einzigen Maschine zusammenführen und dort direkt verarbeiten.

Zu diesem Zweck hat IBM eine Software namens Db2 Analytics Accelerator im Portfolio, die für z/OS verfügbar ist, eines der Betriebsysteme für die IBM Z-Mainframes. Damit lassen sich DB2-basierte Daten auf einem Mainframe-Rechner unmittelbar analysieren, was das umständliche Kopieren von der Transaktionsmaschine auf den Analyserechner erübrigt.

httpss://twitter.com/mhuelskoetter/status/986638711738728448

Für das Erfassen unterschiedlichster Datentypen, die sich sowohl auf der Z-Maschine als auch außerhalb davon befinden können, bietet IBM ein Tool, das sich IBM Data Virtualization Manager for z/OS nennt.

httpss://twitter.com/mhuelskoetter/status/986641352434778113

Darüber hinaus können IBM-Z-Kunden für das Analysieren ihrer Daten auf dem Mainframe mithilfe von KI-Algorithmen die Software-Lösung Machine Learning for z/OS einsetzen, die auf den bekannten IBM Watson Machine Learning Services basiert. Diese wurden auf z/OS portiert und stehen damit auf IBM-Mainframes zur Verfügung. Damit können sämtliche Watson-ML-Tools auch direkt im Rechenzentrum des Kunden als OnPrem-Variante installiert und genutzt werden.

„Warum wird – auch für IBM – Machine Learning immer wichtiger?“

Als Hauptgrund nennt Khadija Souissi die Möglichkeit, mithilfe der passenden Machine-Learning-Algorithmen dem Kunden das bestmögliche Analyse-Angebot unterbreiten zu können. Um das zu belegen, brachte sie eine äußerst beeindruckende Zahl ins Spiel: So werden im Vergleich zum täglichen Google-Suchaufkommen auf den weltweit installierten Mainframes zehnmal mehr Daten verarbeitet, was in Summe 30 Milliarden Transaktionen bedeutet – und das jeden Tag.

httpss://twitter.com/mhuelskoetter/status/987001975781937152

Wenn man sich dann vergegenwärtigt, dass ein Großteil dieser Mainframe-Daten nach wie vor brach liegen, da sie gar nicht oder nur unzureichend genutzt werden, kann man sich leicht das Potenzial ausrechnen, das in diesen Transaktionsdaten schlummert. So ließe sich speziell in Verbindung mit Machine Learning jede einzelne Datenbuchung analysieren und damit die Transaktionen permanent verbessern oder noch besser absichern oder weitere Dinge damit anstellen.

Das Interview mit Khadija Souissi in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

Allianz Arena des FC Bayern setzt auf intelligente Technik von Siemens

FC Bayern und Siemens MindSphere, ein IoT-Gespann

Gerade habe ich über den geplanten Hannover-Messe-Auftritt der Software AG und Siemens berichtet, und schon kommt eine Geschichte daher, die mich als Anhänger des FC Bayern natürlich hellhörig gemacht hat.

So will der erfolgreichste Fußballverein Deutschlands (erst am vergangenen Samstag wurde die 28. Deutsche Meisterschaft im Fußball eingetütet) mithilfe von ausgeklügelten Analysetechniken und damit verbundenen Vorhersagen noch erfolgreicher werden.

Siemens MindSphere sorgt für den schönen Rasen der Allianz Arena

Die Rede ist von der richtigen Rasenpflege, die in der heimischen Allianz-Arena nicht ganz trivial ist (in der morgen das sehr wichtige Rückspiel gegen den FC Sevilla um den Einzug ins Champions-League-Halbfinale stattfindet). Da aufgrund der Stadionarchitektur nicht genügend Sonnenlicht auf das Geläuf fällt, wird mithilfe einer speziellen Konstruktion und ganz viel Software dafür gesorgt, dass die fehlenden Sonnenstunden künstlich erzeugt werden.

Und genau an dieser Stelle kommt die Firma Siemens zum Einsatz, die mithilfe ihres IoT-Betriebssystems Mindsphere dafür sorgen will, dass anhand von Sensordaten immer genau die richtige Portion Sonnenlicht generiert wird, die für das optimale Wachstum des FC-Bayern-Rasens erforderlich ist. Genauso werden aber auch erforderliche Wassermengen zum Bewässern des Rasens sowie die richtige Menge an Düngemittel berechnet und automatisiert bereitgestellt.

Hierfür wurde eine Anwendung geschrieben, die auf Siemens MindSphere basiert und die für den schönsten und grünsten Rasen weit und breit sorgen soll. Und da mithilfe von Künstlicher Intelligenz das Greenkeeping (sprich: die Rasenpflege) in Zukunft weiter verbessert werden kann, soll diese Technik in den Heiligen Hallen des FC Bayern München ebenfalls Einzug halten.

Ende des Parkhaus-Chaos? Wer weiß…

Doch das ist laut des FC Bayern und Siemens noch nicht alles. So soll es künftig mithilfe von IoT möglich sein, Besucher anhand von Sensordaten stets zum nächstgelegenen Getränke- und Essensausschank zu leiten, an dem gerade am wenigsten los ist. Doch ob das Internet der Dinge dafür sorgen kann, dass nicht nach jedem Bayern-Spiel im Parkhaus das große Chaos ausbricht, bleibt dahin gestellt. Aber wer weiß, was mit MindSphere und IoT noch alles möglich sein wird.

Das menschliche Gehirn als Vorbild Neuronaler Netze

EU goes KI: So soll Europa fit gemacht werden für die Künstliche Intelligenz

Die USA und China tun es schon länger, jetzt will auch die Europäische Kommission laut eines im Netz aufgetauchten Papiers die Weichen für eine breite Unterstützung der Künstlichen Intelligenz in allen Bereichen stellen. Die Rede ist von diversen Maßnahmen, die mit insgesamt 600 Euro gefördert werden sollen. Dazu gehören folgende Projekte:

„KI on demand“

Vor allem kleine und mittlere Unternehmen sollen über einen neu zu schaffenden Service namens „KI on demand“ vereinfachten Zugang zu notwendigen Ressourcen und erforderlichem Know-how erlangen. Teile dieser KI-Plattform sind unter anderem Datenarchive, Rechenzeit samt Cloud Computing und Supercomputer sowie diverse Tools. Geplanter EU-Zuschuss: 50 Millionen Euro.

KI-Exzellenz-Zentren und Innovationshubs

Diese zentral aufgestellten Zentren sollen vor allem der Bereitstellung von Trainingsdaten dienen, die für Machine- und Deep-Learning-Algorithmen zwingend notwendig sind. Dazu sollen auch Datenressourcen der öffentlichen Verwaltung auf Basis des Open-Data-Ansatzes gehören. Geplanter EU-Zuschuss: 350 Millionen Euro.

KI-Forschung und -Entwicklung

Unterstützende Maßnahmen im Bereich Forschung und Entwicklung sieht das Kommissionspapier ebenfalls vor. Damit sollen neue und erforderliche KI-Techniken (weiter-)entwickelt werden. Dazu gehört unter anderem das Forschungsprogramm „Horizont 2020“ des Bundesministeriums für Bildung und Forschung. Geplanter EU-Zuschuss: 200 Millionen Euro.

Für einen verantwortungsvollen Umgang mit KI

Bei allen Chancen und Möglichkeiten, die der Künstlichen Intelligenz seitens der EU-Kommission eingeräumt werden, sieht die Exekutive der Europäischen Union auch die Risiken, die mit der KI einher gehen. Dazu zählen Aspekte wie Sicherheit, Haftung, Datenschutz, Diskriminierung und den Einfluss auf die öffentliche Meinung, wie zum Beispiel Fake News, die von KI-Algorithmen gezielt gesteuert und verteilt werden, um so den Ausgang von Wahlen zu beeinflussen.

Aus diesen und weiteren Gründen sieht das KI-Paper der Kommission eine Charta für KI-Ethik vor, die mithilfe zahlreich involvierter Parteien und Interessenträger ausführlich diskutiert und verabschiedet werden soll. Hierzu soll auf bestehende Standards zurückgegriffen und diese an aktuelle Techniken und Technologien wie dem Internet der Dinge angepasst werden.

Einfluss von KI auf das Arbeitsleben

Was der EU-Kommission ebenfalls bewusst ist, sind die arbeitsrelevanten Vorbehalte gegenüber KI, speziell im Bereich Roboter. Daher wird ab Ende 2018 ein Gruppe von Experten genau diesen Bereich genauer untersuchen und eine Empfehlung aussprechen, wie Arbeitsmarkt und KI in Einklang gebracht werden können. Aber auch die Fertigkeiten und Fähigkeiten in Sachen Künstliche Intelligenz sollen transparenter gemacht werden, und das mithilfe einer Studie, die noch bis Juni 2018 gestartet werden soll. Das geht schließlich uns alle an.