Sebastian Amtage (b.telligent) über den Status Quo der Künstlichen Intelligenz

[Videochat] Sebastian Amtage, b.telligent, über Künstliche Intelligenz

Dieses Interview habe ich während des BI Kongress 2018 mit Sebastian Amtage, dem CEO von b.telligent, über den Status Quo der Künstlichen Intelligenz geführt. Darin spricht er über den aktuellen Stand der Dinge der KI, über die größten KI-Herausforderungen und was seine Firma dazu beizutragen hat.

Wie ist es aktuell um das Thema KI bestellt?

Aus Sicht von b.telligent handelt es sich beim Thema KI um einen Hype, da viele Unternehmen im Rahmen ihrer Digitalisierungsstrategie den Einsatz von KI-Techniken und -Tools durchaus einplanen. Hierbei stehen unter anderem effizientere Prozesse und intelligentere Produkte im Vordergrund. Allerdings ist der Wissensstand in vielen Unternehmen sehr unterschiedlich ausgeprägt, vor allem der datengetriebene Ansatz der KI ist für viele Firmen noch recht neu.

Diese Unternehmen müssen erst einmal grundsätzliche Fragen klären: Woher kommen die richtigen Daten? Wie ist es um deren Qualität bestellt? Wie kann ich die vorhandenen Datenpools sinnvoll zusammenfassen, etc.

Andere Firmen hingegen beschäftigen sich mit der KI schon sehr viel länger und haben damit einen erheblich leichteren Einstieg in dieses Thema. Diese Unternehmen setzen bereits komplexere Techniken und Methoden wie Deep Learning und Machine Learning ein, was über das klassische Data Mining und statistische Modelle bei weitem hinaus geht.

Worin bestehen die größten KI-Herausforderungen?

In diesem Kontext sind zahlreiche Hürden und Hindernisse zu nennen. Das sind zum einen die bereits erwähnten Daten. Hier kommt es vor allem auf eine ausreichende Datenmenge und deren Qualität an. Zum anderen spielt das Thema Know-how innerhalb der Firma eine große Rolle. Denn oft fehlt es an sehr gut ausgebildeten KI-Experten, die solch ein Projekt sach- und fachgemäß steuern und mit Leben füllen können. Hier sind diejenigen Unternehmen auf jeden Fall im Vorteil, die sich schon mit den Themen Business Intelligence und Big Data beschäftigt haben und entsprechendes Know-how aufbauen konnten.

Was trägt b.telligent zum Thema KI bei?

Mit dem Thema Data Science, was ja einen Oberbegriff der KI darstellt, beschäftigt sich b.telligent schon seit 15 Jahren. Damit gib es im Unternehmen zahlreiche Experten, die die Herausforderungen vieler Unternehmen kennen und helfen können, diese zu bewältigen.

Für b.telligent steht meist die Hilfe zur Selbsthilfe im Vordergrund, wie sich also innerhalb von Unternehmen KI-Experten und -Projektteams ausbilden und aufbauen lassen, um sich mit dem Thema bestmöglich auseinandersetzen zu können. Das nimmt aber oft einen langen Zeitraum in Anspruch, da die Künstliche Intelligenz mit all ihren Disziplinen viel Erfahrung und Wissen voraussetzt.

Das Interview mit Sebastian Amtage in voller Länge

Dr. Konstantin Greger (Tableau Software) über Künstliche Intelligenz

[Videochat] Konstantin Greger (Tableau Software) über Künstliche Intelligenz

Dieses Videointerview habe ich während eines IDC-KI-Events mit Dr. Konstantin Greger von Tableau Software geführt. Darin spricht er über den aktuellen Zustand der Künstlichen Intelligenz in Deutschland, welchen Beitrag Tableau dazu leistet und was noch nötig ist, um den Umstieg auf die „starke“ KI zu schaffen.

Was trägt die Firma Tableau zum Thema KI bei?

Für Konstantin Greger stehen dabei vor allem zwei Aspekte im Vordergrund: Der Einsatz von KI und Machine Learning in den Anwendungen von Tableau Software selbst und bei der Unterstützung von Unternehmen und wie diese Künstliche Intelligenz für ihre Zwecke nutzen können. Hierbei wird auch das Kerngeschäft von Tableau Software sichtbar: Wie bereite ich Daten so auf, damit ich sie besser verstehen und optimal einsetzen kann. Es geht also um die Abstrahierung komplexer Datensammlungen hin zu einem verständlichen Modell, das sich auf einfache Art und Weise nutzen lässt.

Wie ist es hierzulande um das Thema KI bestellt?

Laut Herrn Greger lässt sich das weite Feld der KI in Deutschland als sehr heterogen bezeichnen. So setzen es gerade kleinere Firmen schon recht agil ein, da sie den Nutzen der Künstlichen Intelligenz für sich erkannt haben und ihr Geschäftsmodell daran ausrichten.

Im Gegensatz dazu fällt es den größeren Firmen oftmals noch recht schwer, KI-Ansätze innerhalb der geplanten Projekte sinnvoll zu integrieren. Dort sind zwar innovative Ideen vorhanden, wie sich Künstliche Intelligenz und Machine Learning einsetzen ließen, aber gleichzeitig fehlt das Know-how, um diese Ideen sinnvoll umzusetzen. Denn oft folgen diese Firmen letztlich nur dem Drang, in Sachen KI etwas zu unternehmen, da der Mitbewerber in dieser Richtung auch etwas tut. Dabei wissen diese Unternehmen oft noch gar nicht, wie sich KI richtig einsetzen lässt.

An dieser Stelle kann Tableau Software ins Spiel kommen, da ein wesentliches Element der KI, nämlich die Daten, vollkommen außer acht gelassen werden. Und genau hierbei kann Tableau helfen, nämlich beim Identifizieren, Aufbereiten und Bewerten der vorhandenen Daten.

Was sind die größten Hürden beim Umstieg von der „schwachen“ zur „starken“ KI?

Die Hürden beim Umstieg von der „schwachen“ zur „starken“ KI lassen sich als äußert vielfältig beschreiben. Das betrifft zum einen das bereits erwähnte Thema Daten. Denn für eine starke KI sind viele „gute“ und vertrauenswürdige Daten erforderlich, da ansonsten die korrespondierenden KI-Dienste und -Lösungen nicht glaubwürdig sind. Darüber hinaus fehlt es an vielen Stellen am richtigen Know-how, also an KI-Experten, die das Vorantreiben der starken KI überhaupt erst ermöglichen können.

Das Interview mit Konstantin Greger in voller Länge

 

Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

[Videochat] Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

Während eines IDC-Events, auf dem eine Studie zum Thema KI in Deutschland vorgestellt wurde, habe ich dieses Interview mit Jürgen Wirtgen von Microsoft geführt. Darin spricht er über den Beitrag seitens Microsoft in Sachen KI, wie sich Daten für KI-Projekte bestmöglich nutzen lassen und was Microsoft unter der Demokratisierung der Künstlichen Intelligenz versteht.

Was leistet Microsoft im Kontext von KI?

Die Künstliche Intelligenz sieht Herr Wirtgen als eine Art übergeordneten Schirm, der sich bei Microsoft über alle Bereiche spannt. Dazu gehört beispielsweise der Bereich Produktivität (Office 365, etc.), aber auch ein eigens hierfür geschaffener Geschäftsbereich zu den Themen Cloud und KI existiert bei Microsoft. Hierfür stellt Redmond zahlreiche Entwicklungsressourcen zur Verfügung, mit deren Hilfe neue KI-Lösungen und -Dienste entstehen sollen. Das betrifft sowohl die Grundlagenforschung als auch den realen Nutzen von KI im Produktionsumfeld.

Darüber hinaus unterstützt Microsoft seine Kunden in Sachen Künstliche Intelligenz. Das reicht von der Entwicklung eines eigenen Bots bis hin zum Einsatz kognitiver Dienste oder der Entwicklung neuer Geschäftsmodelle, in denen die Künstliche Intelligenz eine entsprechende Rolle spielt.

Wie lassen sich Daten für die KI bestmöglich nutzen?

Hierzu muss erst einmal das Geschäftsmodell entwickelt und verstanden werden. Denn erst dann kann man herausfinden, welche Daten ich besitze und welche davon für mein spezielles KI-Projekt wichtig und erforderlich sind. In manchen Fällen sind zusätzliche Daten notwendig, sodass beispielswiese der Einsatz von Sensoren in Erwägung gezogen werden sollte. Diese Datengewinnung ist dann ebenfalls wichtiger Teil des Gesamtprojekts.

Müßig zu erwähnen, dass beim Sammeln und Speichern von Daten jederzeit die höchsten Sicherheitsstandards berücksichtigt werden sollten. Alleine schon aus Gründen des Datenschutzes und der Datensicherheit.

Was versteht Microsoft unter der Demokratisierung von KI?

Viele Menschen verbinden mit der Künstlichen Intelligenz vor allem wissenschaftliche Anwendungen, hinter denen sich komplexe und komplizierte Modelle befinden. Microsoft möchte erreichen, dass KI-Anwendungen von einer breiten Masse genutzt werden können. Hierfür sind Dienste erforderlich, die sich trivial nutzen und genauso einfach in bestehende Anwendungen einbinden lassen.

Hierbei kommen unter anderem die 30.000 Business Partner von Microsoft (Entwickler, Softwarehäuser, etc.) ins Spiel, die in die Lage versetzt werden sollen, ihre Software mit KI-Elementen anzureichern. Aber auch andere Bevölkerungsschichten sollen mithilfe von geeigneten Ausbildungsmaßnahmen fit gemacht werden für das Grundverständnis von KI. Denn nur so kann eine echte Demokratisierung der Künstlichen Intelligenz gelingen – und damit Ängste und Vorbehalte abgebaut werden.

Das Interview mit Jürgen Wirtgen in voller Länge

Weiterführende Informationen zum Thema Microsoft und KI

[Video] Ulrich Walter, IBM, über Künstliche Intelligenz und Storage

Dieses Videointerview mit Ulrich Walter von IBM ist auf dem IBM Storage Strategy Day 2017 in Ehningen entstanden. Darin spricht er über den Zusammenhang von Künstlicher Intelligenz und Storage-Systemen, was entsprechende Speicherlösungen können müssen und was IBM dazu im Portfolio hat.

Ulrich Walter kümmert sich bei IBM um das Thema Cloud & Cognitive Infrastructure im Kontext von Künstlicher Intelligenz (KI) und HPC. Daher wollte ich unbedingt wissen, wie KI und Storage zusammenpassen. Das ist aus Ulrich Walters Sicht ganz eindeutig: KI-Systeme benötigen in ausreichendem Maße Daten, von und mit denen sie lernen können.

KI-Anwendungen erfordern leistungsstarke und ausreichend dimensionierte Storage-Systeme

Doch genügen die aktuellen Speichersysteme den Anforderungen, die KI-Systeme an zugehörige Storage-Lösungen stellen? Nun, auch dazu hat er eine klare Meinung: KI-Anwendungen wie das Autonome Fahren oder die Gesichtserkennung im öffentlichen Raum generieren sehr viele Daten, die zuverlässig bereit stehen müssen. Hierfür sind große, leistungsstarke Speichersysteme erforderlich, die es heute schon gibt.

Das ist beispielsweise die IBM ESS-Familie (Elastic Storage Server), in Verbindung mit der IBM Spectrum Scale Software. Damit sind hochskalierbare Speichersysteme möglich, mit denen sich Daten speichern lassen, die mehrere hundert Petabyte umfassen.

Auch IBM POWER-Systeme sind KI-Storage-tauglich

Wer es ein wenig individueller mag, der kann laut Ulrich Walter alternativ auf IBM POWER-Systeme zurückgreifen. Diese bieten offene Betriebs- und Dateisysteme, in denen wahlweise Platten-, SSD- oder zunehmend NVMe-Speichersysteme zum Einsatz kommen. Je nach Budget und Einsatzgebiet.

So, und für alle Informationen aus erster Hand startet per Mausklick oder Fingertipp das Videointerview von und mit Ulrich Walter. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

CeBIT 2017: Ulrich Walter von IBM über Künstliche Intelligenz und IBM-Systeme

Am letzten Tag der CeBIT 2017 hatte ich das Vergnügen, mit Ulrich „Uli“ Walter von IBM über das Thema Künstliche Intelligenz zu plaudern. Dabei verriet er mir, was IBM Systems mit KI zu tun hat, welche Rechenpower dafür erforderlich ist und was in diesem Kontext IBM empfiehlt. Und warum schneller Speicher auch wichtig, habe ich ebenfalls von Uli erfahren.

Unstrukturierte Daten erfordern superschnelle Rechnersysteme

Was IBM-Systeme mit Künstlicher Intelligenz zu tun haben, wollte ich gerne wissen. Nun, das sei doch die Basis von KI: Eine schnelle Maschine, auf der sich rechenintensive und hochkomplexe Anwendungen wie Maschine Learning und Deep Learning mühelos ausführen lassen.

Dazu zählt aber nicht nur die reine Rechenleistung, sondern auch die Speicherleistung, die solch ein Hochleistungsserver bereitstellen muss. Denn gerade die Künstliche Intelligenz hantiert oft und gerne mit unstrukturierten Daten (Videos, Social-Media-Daten, etc.), die superschnelle Speichersysteme erfordern.

IBM POWER8-Systeme leisten mehr als Google Brain auf engstem Raum

Doch warum ist es heute einfacher, KI-Anwendungen zu realisieren? Für die Beantwortung dieser Frage zog Uli das Beispiel „Google Brain“ zurate. Dieser Supercomputer weist 16.000 Computer-Knoten auf und erzielt damit eine Rechenleistung von 50 TeraFLOPS .

Dieselbe Rechenleistung bietet heute, also gerade einmal fünf Jahre später, ein IBM POWER8-basiertes System, das deutlich preisgünstiger und kleiner ist und damit auch deutlich weniger Strom verbraucht. Das macht solche Systeme selbst für kleinere Firmen durchaus attraktiv.

POWER8 + NVIDIA + Mellanox = starkes KI-System

Die wesentliche Aufgabe der Künstlichen Intelligenz besteht laut Uli vor allem in der Wertschöpfung der zugrunde liegenden Daten, mit denen sich beispielsweise Konsumentenverhalten voraussagen, Präventionsmaßnahmen im öffentlichen Raum ableiten oder Versicherungsfälle aufklären lassen.

Für diese äußert rechenintensiven Anwendungen empfiehlt IBM natürlich eine Rechenmaschine vom Typ POWER8, in der obendrein NVIDIA-GPUs mit NVLink-Technik und Mellanox-Komponenten ihren Dienst verrichten. Damit bekommt man Rechenboliden an die Hand, die bis zu 80 TeraFLOPS und extrem hohe Datenbandbreiten liefern.

Mit POWER9 kommt noch mehr KI-Leistung in die Rechenzentren

Wie es weitergeht, wollte ich natürlich auch noch gerne wissen. Nun, hier befindet sich die POWER9-Prozessortechnik quasi auf der Zielgeraden. Mit diesen nächsten Hochleistungs-CPUs und -GPUs von IBM wird auf erneut kleiner werdendem Raum die Grundlage für künftige KI-Anwendungen geschaffen. Eine erste, grobe Schätzung geht von 100 TeraFLOPS aus, was eine deutliche Leistungssteigerung darstellt.

IBM hat auch KI-taugliche Speichersystem im Portfolio

Welche Speicherlösungen seitens IBM für das Thema Künstliche Intelligenz und Cognitive Computing zur Verfügung stehen, das erzählt Uli ab Minute 3:50 am besten selbst. Na dann: Film ab!