Dr. Konstantin Greger (Tableau Software) über Künstliche Intelligenz

[Videochat] Konstantin Greger (Tableau Software) über Künstliche Intelligenz

Dieses Videointerview habe ich während eines IDC-KI-Events mit Dr. Konstantin Greger von Tableau Software geführt. Darin spricht er über den aktuellen Zustand der Künstlichen Intelligenz in Deutschland, welchen Beitrag Tableau dazu leistet und was noch nötig ist, um den Umstieg auf die „starke“ KI zu schaffen.

Was trägt die Firma Tableau zum Thema KI bei?

Für Konstantin Greger stehen dabei vor allem zwei Aspekte im Vordergrund: Der Einsatz von KI und Machine Learning in den Anwendungen von Tableau Software selbst und bei der Unterstützung von Unternehmen und wie diese Künstliche Intelligenz für ihre Zwecke nutzen können. Hierbei wird auch das Kerngeschäft von Tableau Software sichtbar: Wie bereite ich Daten so auf, damit ich sie besser verstehen und optimal einsetzen kann. Es geht also um die Abstrahierung komplexer Datensammlungen hin zu einem verständlichen Modell, das sich auf einfache Art und Weise nutzen lässt.

Wie ist es hierzulande um das Thema KI bestellt?

Laut Herrn Greger lässt sich das weite Feld der KI in Deutschland als sehr heterogen bezeichnen. So setzen es gerade kleinere Firmen schon recht agil ein, da sie den Nutzen der Künstlichen Intelligenz für sich erkannt haben und ihr Geschäftsmodell daran ausrichten.

Im Gegensatz dazu fällt es den größeren Firmen oftmals noch recht schwer, KI-Ansätze innerhalb der geplanten Projekte sinnvoll zu integrieren. Dort sind zwar innovative Ideen vorhanden, wie sich Künstliche Intelligenz und Machine Learning einsetzen ließen, aber gleichzeitig fehlt das Know-how, um diese Ideen sinnvoll umzusetzen. Denn oft folgen diese Firmen letztlich nur dem Drang, in Sachen KI etwas zu unternehmen, da der Mitbewerber in dieser Richtung auch etwas tut. Dabei wissen diese Unternehmen oft noch gar nicht, wie sich KI richtig einsetzen lässt.

An dieser Stelle kann Tableau Software ins Spiel kommen, da ein wesentliches Element der KI, nämlich die Daten, vollkommen außer acht gelassen werden. Und genau hierbei kann Tableau helfen, nämlich beim Identifizieren, Aufbereiten und Bewerten der vorhandenen Daten.

Was sind die größten Hürden beim Umstieg von der „schwachen“ zur „starken“ KI?

Die Hürden beim Umstieg von der „schwachen“ zur „starken“ KI lassen sich als äußert vielfältig beschreiben. Das betrifft zum einen das bereits erwähnte Thema Daten. Denn für eine starke KI sind viele „gute“ und vertrauenswürdige Daten erforderlich, da ansonsten die korrespondierenden KI-Dienste und -Lösungen nicht glaubwürdig sind. Darüber hinaus fehlt es an vielen Stellen am richtigen Know-how, also an KI-Experten, die das Vorantreiben der starken KI überhaupt erst ermöglichen können.

Das Interview mit Konstantin Greger in voller Länge

 

Tobias Stöckel auf der Hannover-Messe über Predictive Maintenance

[Videochat] Tobias Stöckel über Predictive Maintenance mit IBM Watson AI

Während der Hannover-Messe 2018 habe ich dieses Interview mit Tobias Stöckel von der IBM geführt. Darin spricht er über IBM Watson AI als Frühwarnsystem bei möglichen Materialfehlern und was IBM sonst noch zum Thema Predictive Maintenance beizutragen hat – inklusive der richtigen Hardware.

„Was zeigt die Techdemo „AI powered Factory?“

An diesem großen Demopunkt, der während der gesamten Hannover-Messe 2018 mehr als gut besucht war, stand vor allem das Thema Predictive Maintenance im Vordergrund. Zutaten waren hierfür Machine Learning mithilfe von IBM Watson, die beide in der Produktion zunehmend eingesetzt werden. Damit sollen unter anderem die Automatisierung von Qualitätskontrollen mithilfe von Visual Recognition ermöglicht und die Verfügbarkeit von Equipment verbessert werden.

„Wie hilft Watson AI bei der Früherkennung von Fehlern?“

Hierfür kommt die IBM Predictive Maintenance Solution zum Einsatz, mit der sich in diesem speziellen Fall Sensorwerte auslesen lassen, die einen genauen „Befindlichkeitsstatus“ des Roboters messen und diese an die IBM-Software übergeben können. Anschließend werden diese cloud-basierten Daten an Machine-Learning-Modelle übertragen, wo sie mit historischen Daten verglichen werden. Dies ermöglicht eine ziemlich genaue Vorhersage, wie sich der Roboter anhand der Vergangenheit in der Zukunft verhalten wird.

„Was trägt IBM für die Erkennung von Defekten bei?“

Mithilfe der IBM-Software Visual Insights lassen sich unter anderem Maschine-Learning-Modelle aufbauen, die für das Trainieren von Neuronalen Netzen erforderlich sind. Damit wird in diesem Fall festgelegt, wie zu untersuchende Fabrikationsteile aussehen sollen, die einerseits in Ordnung und andererseits defekt sind.

Hierfür ist natürlich eine leistungsstarke Hardware vonnöten, mit denen solche Neuronalen Netze samt ihrer Machine-Learning-Algorithmen trainiert werden können. Diese steht mit IBM PowerAI zur Verfügung, auf denen solche Aufgaben äußerst zügig erledigt werden können.

Das hat unter anderem mit der leistungsstarken NVIDIA Tesla-Grafikhardware zu tun, die in den PowerAI-Maschinen verbaut ist. Damit können Bilderkennungsaufgaben sehr schnell durchgeführt werden, was zum Beispiel im Kontext von flexiblen Herstellungsmodellen wichtig ist. Aber auch für dynamische Fehlerklassen sind möglichst kurze Trainingszyklen äußerst relevant.

Im Falle der Roboterdemo auf der Hannover-Messe wurde das System am Sonntag vor Messebeginn innerhalb weniger Stunden trainiert, wobei die meiste Zeit das Fotografieren der entsprechenden Bauteile in Anspruch genommen hat. Das Trainieren des Machine-Learning-Algorithmus selbst dauerte laut Herrn Stöckel nur wenige Sekunden!

Das Interview mit Tobias Stöckel in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Khadija Soussi über Machine Learning auf IBM-Mainframes

[Videochat] Khadija Souissi (IBM) über IBM Z und Machine Learning

Während der IBM Z-Roadshow habe ich dieses Interview mit Khadija Souissi von IBM über das Thema Machine Learning geführt. Darin spricht sie über ihren Vortrag, über das Software-Angebot seitens IBM für Machine Learning auf Mainframe-Rechnern und warum Machine Learning immer wichtiger wird.

„Wovon handelte Ihr Vortrag auf der Z-Roadshow?“

Im Kern sprach Frau Souissis darüber, wie zu analysierende Transaktionsdaten auf demselben Rechner konsolidiert werden können, auf dem sie gespeichert und verarbeitet werden, nämlich auf dem IBM-Mainframe. Hierfür kommen immer öfter Machine-Learning-Algorithmen zum Einsatz, was eine Sub-Disziplin der Künstlichen Intelligenz darstellt.

Diese Algorithmen und Tools werden optimalerweise direkt in die Anwendung integriert, mit denen die Analysedaten erfasst und verarbeitet werden sollen. Hierbei ist es vor allem wichtig, möglichst unterschiedliche Daten und Datentypen zu verwenden, weil nur dann ein umfassendes und aussagekräftiges Ergebnis erzielt werden kann.

„Welche Machine-Learning-Tools hat IBM in petto?“

Für das Analysieren transaktionaler Daten auf dem Mainframe setzt IBM ein Verfahren ein, das sich Hybrid Transactional/Analytical Processing (HTAP) nennt. Hiermit lassen sich operationale Worksloads (also die Transaktionsdaten) und analytische Workloads auf einer einzigen Maschine zusammenführen und dort direkt verarbeiten.

Zu diesem Zweck hat IBM eine Software namens Db2 Analytics Accelerator im Portfolio, die für z/OS verfügbar ist, eines der Betriebsysteme für die IBM Z-Mainframes. Damit lassen sich DB2-basierte Daten auf einem Mainframe-Rechner unmittelbar analysieren, was das umständliche Kopieren von der Transaktionsmaschine auf den Analyserechner erübrigt.

httpss://twitter.com/mhuelskoetter/status/986638711738728448

Für das Erfassen unterschiedlichster Datentypen, die sich sowohl auf der Z-Maschine als auch außerhalb davon befinden können, bietet IBM ein Tool, das sich IBM Data Virtualization Manager for z/OS nennt.

httpss://twitter.com/mhuelskoetter/status/986641352434778113

Darüber hinaus können IBM-Z-Kunden für das Analysieren ihrer Daten auf dem Mainframe mithilfe von KI-Algorithmen die Software-Lösung Machine Learning for z/OS einsetzen, die auf den bekannten IBM Watson Machine Learning Services basiert. Diese wurden auf z/OS portiert und stehen damit auf IBM-Mainframes zur Verfügung. Damit können sämtliche Watson-ML-Tools auch direkt im Rechenzentrum des Kunden als OnPrem-Variante installiert und genutzt werden.

„Warum wird – auch für IBM – Machine Learning immer wichtiger?“

Als Hauptgrund nennt Khadija Souissi die Möglichkeit, mithilfe der passenden Machine-Learning-Algorithmen dem Kunden das bestmögliche Analyse-Angebot unterbreiten zu können. Um das zu belegen, brachte sie eine äußerst beeindruckende Zahl ins Spiel: So werden im Vergleich zum täglichen Google-Suchaufkommen auf den weltweit installierten Mainframes zehnmal mehr Daten verarbeitet, was in Summe 30 Milliarden Transaktionen bedeutet – und das jeden Tag.

httpss://twitter.com/mhuelskoetter/status/987001975781937152

Wenn man sich dann vergegenwärtigt, dass ein Großteil dieser Mainframe-Daten nach wie vor brach liegen, da sie gar nicht oder nur unzureichend genutzt werden, kann man sich leicht das Potenzial ausrechnen, das in diesen Transaktionsdaten schlummert. So ließe sich speziell in Verbindung mit Machine Learning jede einzelne Datenbuchung analysieren und damit die Transaktionen permanent verbessern oder noch besser absichern oder weitere Dinge damit anstellen.

Das Interview mit Khadija Souissi in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

Machine Learning-Special

ML-Special: Das sollten Sie über Machine Learning wissen (Teil 2)

Zugegeben, dieser zweite Teil zum Thema Machine Learning hat eine ganze Weile auf sich warten lassen, kommt dafür aber umso umfangreicher daher. Viel Spaß beim Lesen!

Die Ausstiegsfrage des ersten Teils lautete sinngemäß: Was hat Machine Learning mit Neuronalen Netzen und Deep Learning zu tun. Nun, dazu muss man sich erst einmal beide Disziplinen etwas genauer ansehen.

Künstliche Intelligenz = neuronale Netze?!

Das menschliche Gehirn als Vorbild Neuronaler NetzeBetrachtet man die Arbeitsweise eines künstlichen neuronalen Netzes, erkennt man schnell die Zusammenhänge zwischen der Künstlichen Intelligenz und dem menschlichen Gehirn, dem das Ganze ja zugrunde liegt.

So arbeiten neuronale Netze wie unser Gehirn auf Basis von Millionen und Abermillionen Neuronen, die miteinander verbunden sind. Dank dieser „Verbundenheit“ sind wir als Mensch genauso in der Lage, neue Sachverhalte eigenständig zu lernen wie das eben technische neuronale Netze tun.

Damit versetzen die Programmierer solcher Softwareprogramme die Rechner, auf denen sie laufen, in die Lage, Fähigkeiten zu erlernen, die stark an das Repertoire eines Menschen erinnern. Dazu zählen also „Skills“ wie Sehen, Hören, Sprechen, Lesen und Schreiben. Und auch das Fühlen soll zu diesen Eigenschaften zählen, wenngleich das immer noch die größte Hürde von neuronalen Netzcomputern darstellt.

Damit Computer das menschliche Wesen simulieren können, ist – wie bei uns Menschen auch – eine ganze Menge an Trainingseifer Grundvoraussetzung. Wissenschaftler und Entwickler sprechen in diesem Zusammenhang vom „überwachten Lernen“, das ähnlich wie in der Schule abläuft, allerdings mit mehr Iterationen, da es sich dabei ja „nur“ um eine Maschine handelt, wenngleich das meist eine sehr lernwillige, weil extrem rechenstarke Maschine ist.

Machine Learning = Üben, üben, üben

Katze oder Hund - das ist hier die Frage?Dieses neuronale Lernen verfolgt im Grunde immer dasselbe Muster: Während der Übungsphase wird das Programm mit sinnvollen Daten gefüttert. Soll also ein Programm am Ende sagen können, ob es sich bei einem zu erkennenden Bild um eine Katze oder einen Hund handelt, wird der Algorithmus mit tausenden von Bildern gefüttert, die Katzen und Hunde jeglicher Couleur, Größe, etc. zeigen.

Muss der „Trainer“ zu anfangs dem Programm mitteilen, ob es das Bild richtig oder falsch erkannt hat, werden diese „Hinweise“ sukzessive weniger, bis das „künstliche Hirn“ mit ausreichenden Daten versorgt wurde, sodass es ab einem bestimmten Zeitpunkt mit einer hohen Wahrscheinlichkeit das richtige Ergebnis ermitteln kann.

Für einen möglichst schnellen Lernprozess ist es von größter Wichtigkeit, dass das neuronale Netz permanent nachjustiert wird, die Gewichtung der falschen und richtigen Antworten also ständig angepasst werden. Daher lautet ein wichtiger Satz der neuronalen Programmierung: Die Qualität eines neuronalen Netzes hängt maßgeblich von der Gewichtung der einzelnen Verbindungen ab. Nur dann kann das gewünschte Ergebnis erzielt werden.

Ein KI-Ecke weitergedacht: Deep Learning

Das Deep Learning (DL) geht dabei noch einen Schritt weiter. Denn im Gegensatz zu der zuvor beschriebenen Methode benötigt ein KI-Rechner mit Deep-Learning-Algorithmus keines so umfangreichen Bildvorlagen, da er selbst in der Lage ist, selbstständig die Unterschiede zwischen einer Katze und einem Hund zu lernen.

Zwar erhält ein DL-Programm ebenfalls zahlreiche Bilder von Hunden und Katzen, die allesamt mit einem entsprechenden Hinweis in Form eines Metatags versehen sind, also z.B. „hund“, „nicht_hund“, „katze“, „nicht_katze“. Anhand dieser „Klassifizierung“ erstellt die DL-Software eine Art Raster, mit dessen Hilfe das Programm ein Vorhersagemodell erstellt.

Dabei geht es sehr hierarchisch zu: Auf der obersten Ebene werden beispielsweise die Helligkeitswerte der Bildpunkte gespeichert. Auf der zweiten Ebene kann das Programm dann schon sagen, ob und wie einige dieser Pixel miteinander verbunden sind. Dies setzt sich dann so lange fort, bis das Programm zum Beispiel Beine erkennen kann. Ab einem bestimmten Zeitpunkt weiß die Software, welche Beine zu einem Hund oder einer Katze gehören, und so fort. Und je mehr Iterationen durchlaufen werden, desto genauer wird am Ende das Ergebnis. Und das geht natürlich mit der Rechenleistung einher, die dem DL-Programm zur Verfügung steht.

Kommerzielles Maschine Learning

Maschine Learning kommt bereits in zahlreichen Anwendungen zum Einsatz. Dabei handelt es sich oft um Empfehlungsalgorithmen, wie sie Amazon schon seit vielen Jahren einsetzt, die stetig verfeinert und verbessert werden können, und das als Selbstlernprozess. Es lassen sich aber auch per Maschine Learning Supportanfragen automatisiert auswerten, um mögliche Gemeinsamkeiten der Anfragen zu erkennen, woraus sich ein Fehlermuster ableiten lässt.

Aber auch Chatbots sind ein oft genanntes Beispiel, wenn es um Machine Learning geht. Diese automatisierten Chatprogramme sollen selbstständig bei Kundenanfragen helfen und sogar dank ihrer KI-Fähigkeiten im Laufe der Zeit Kundenanfragen besser verstehen können, um somit die Erfolgswahrscheinlichkeit zu erhöhen. Und falls der Bot nicht mehr weiter weiß, kann er immer noch einen Supportmitarbeiter zu Rate ziehen.

Darüber hinaus kommen KI-Proggramme im Bereich Personalwesen verstärkt zum Einsatz. Denn wo heute noch Personaler hunderte von Lebensläufen, Arbeitszeugnissen und anderen Dokumenten mühevoll durchforsten, erledigen diese Job intelligente ML-Algorithemen in einem Bruchteil der bisher aufgewendeten Zeit. Und das vermutlich sogar unbestechlicher als ein Mensch, da dieser auch emotionale Aspekten bei seiner Bewertung einfließen lässt.

Recruiter und Personaler werden zunehmen von KI-Programmen unterstützt

Autonom = Künstliche Intelligenz at its best

Und natürlich ist der Bereich des autonomen Fahrens, Arbeitens, etc. zu nennen: Immer dort, wo es auf ein möglichst fehlerfreies und interaktives Miteinander von Mensch und Maschine ankommt, helfen KI-Programme, diese Kooperation bestmöglich zu unterstützen. Sei es beim autonomen Fahren, bei kollaborativen Robotern, bei automatisierte Diagnosen, dem Erkennen von Kreditkarten- und Versicherungsbetrug und in vielen anderen Bereichen. Und sogar beim robotergestützten Aufspüren von Landminen kommen ML-Progamme zum Einsatz. Damit kann die Künstliche Intelligenz sogar Leben retten!

Machine Learning-Special

ML-Special: Das sollten Sie über Machine Learning wissen

Machine Learning (ML), das ist eines der vielen Buzzwörter, die rund um die Disziplin der Künstlichen Intelligenz ranken. Daher habe ich mich ein wenig umgesehen, was für ein besseres Verständnis in Sachen Machine Learning helfen kann. Und da das ziemlich viele Informationen sind, werde ich daraus einen Mehrteiler „bauen“. Viel Spaß beim Schmökern.

Zunächst einmal liegt dem Konzept des Machine Learning das Fachgebiet der Mustererkennung zugrunde. Und mit der beschäftigen sich viele kluge Köpfe bereits seit den 80er-Jahren. Nur dass zu dieser Zeit die Rechenleistung, wie wir sie heute kennen, einfach noch nicht bereit stand, zumindest nicht in dieser Breite. Dann aber brachten Nvidia und Co. leistungsstarke, bezahlbare GPU-Karten (Graphics Processesing Unit) auf den Markt, was Schwung brachte in das Machine Learning.

  • Multicore-CPUs & In-Memory-Datenbanken
  • Facebook, Twitter und Sensoren
  • Machine Learning-Lernmethoden

Dasselbe geschieht seit vielen Jahren auf Prozessorebene. Auch hier sind CPUs mit vielen, vielen Kernen weit verbreitet, und so konnten Algorithmen entwickelt werden, mit denen die Mustererkennung im Sinne des Machine Learning deutlich schneller verarbeitet werden kann als noch vor vielen Jahren. Und das auch wesentlich wirtschaftlicher, sprich kostengünstiger.

Doch auch auf Speicherebene erfuhrt das ML dank neuer und verbesserter Techniken und Technologien einen weiteren Schub. So enterte eine In-Memory-Datenbanktechnik namens SAP HANA vor allem das Big Data-Umfeld, in dem immer größere Datenmengen bewertet, analysiert und verarbeitet werden müssen. Und so ermöglicht SAP HANA das Verarbeiten großer Datenbestände direkt im Arbeitsspeicher, was den gesamten Prozess erheblich beschleunigt. Denn wo sonst Daten aus dem Festplattenspeicher genutzt werden mussten, erfolgt die Verarbeitung der Daten dank SAP HANA direkt im RAM. Und das hat natürlich wesentlich schnellere Verarbeitungszyklen zur Folge.

Das menschliche Gehirn als Vorbild Neuronaler Netze

Aber auch die Art der Daten, die für das Machine Learning erforderlich sind, hat deutlich zugenommen. So stehen neben den klassischen strukturierten Daten (aus Datenbanken und ähnlichen Quellen) immer mehr unstrukturierte Daten zur Verfügung.

Dazu gehören unter anderem Tweets und Posts aus den zahlreichen sozialen Netzwerken (Facebook, Twitter, etc.) genauso wie die Bilderfluten und digitalisierten Dokumente, mit denen zum Beispiel Neuronale Netze deutlich besser und schneller trainiert werden können als ohne diese Vielzahl an Daten.

Darüber hinaus profitiert das Machine Learning von einer Fülle an Quellen, die ebenfalls benötigte und notwendige Daten liefern. Dazu gehören beispielsweise Sensoren und Aktoren, die mittlerweile an jeder Ecke vorhanden sind. Dazu zählen Bewegungssensoren, die in Kraftfahrzeugen installiert sind und die auf dem Gebiet des Autonomen Fahren ein wesentlicher Baustein sind.

Das Machine Learning kennt zwei Verfahren, wie zugrunde liegende Systeme ihr notwendiges Wissen aufbauen. Das ist zum einen das symbolische Lernen, das klassischerweise bei der Mustererkennung eingesetzt wird, und zweitens das subsymbolische Lernen, so wie man es von Neuronalen Netzen kennt. Im wesentlichen unterscheidet man dabei zwischen explizitem und implizitem Wissen, also wie viel das antrainierte System von seinem Wissen preis gibt.

Zudem wird beim Machine Learning von unüberwachtem und überwachtem Lernen gesprochen. Diese zwei Ansätze kommen für unterschiedliche Anwendungen zum Einsatz. Beim unüberwachten Lernen fehlen konkrete Ein- und Ausgabewerte. Hier versucht das ML-System selbstständig, bestimmte Muster zu erkennen, die es anhand der Eingabedaten bewertet. Mit der Zeit lernt das System, jedem Input einen zugehörigen Output zuzuordnen.

Im Gegensatz dazu funktioniert das überwachte Lernen mithilfe von Paaren, die je einem Ein- und Ausgabewert zugewiesen werden. Damit weiß das System nach einer gewissen Zeit des Lernens auf jedes Eingabedatum das passende Ausgabedatum darzustellen.

Exemplarisch sei hier die automatisierte Handschrifterkennung genannt. Hier steht am Anfang ein (menschlicher) „Lehrer“, der dem ML-System Stück für Stück beibringt, geschriebene Buchstaben, Zahlen und Wörter in das richtige, digitale Gegenstück zu übersetzen.

Handschriterkennung ist eine mögliche Anwendung des Machine Learning

 

Und was das Ganze mit Neuronalen Netzen und Deep Learning zu tun hat, erfahrt ihr im nächsten Teil dieses Machine-Learning-Specials.