Dagmar Schuller von der audDEERING GmbH

Dagmar Schuller von audEERING über emotionale Künstliche Intelligenz

Um die ganze Bandbreite der menschlichen Emotionen zu beschreiben, soll ein Video dazu herhalten, dieses Phänomen zu visualisieren – und damit die Palette an Möglichkeiten sichtbar zu machen, die in dem Thema „emotionale Künstliche Intelligenz“ steckt.

In diesem Videoclip zeigt die Bloggerin Ewa Placzynska sehr anschaulich, wie mithilfe eines einzigen Worts Dutzende von Gefühlen und Emotionen transportiert werden können. Und genau das ist es, womit sich das Startup-Unternehmen audEERING aus Gilching bei München beschäftigt – und dies nach eigenem Bekunden ziemlich erfolgreich.

Wie das funktioniert und worauf es dabei ankommt hat mir die Geschäftsführerin und Co-Gründering Dagmar Schuller in einem zweiteiligen Videointerview nähergebracht. Im heutigen ersten Teil spricht sie über ihre Vision in Sachen emotionale Künstliche Intelligenz, über die involvierten Branchen und über die zum Einsatz kommenden Geräte und Plattformen.

Die Vision: intelligente Technik „made in Bavaria“

Die grundlegende Vision von audEERING zum Thema emotionale Künstliche Intelligenz ist in der Annahme begründet, dass Maschinen sehr viel besser in der Lage sind, menschliche Regungen und Emotionen anhand des gesprochenen Worts zu bewerten als der Menschen selbst. Der maßgebliche Beitrag von audEERING in diesem Kontext ist ein besserer und schnellerer Austausch von Mensch und Maschine, wenn es um das analytische Bewerten von menschlichen Stimmungen geht.

Dabei spielt eine wesentliche Rolle, dass Rechner und andere Geräte viel eher dazu in der Lage sind, aus einer Vielzahl an Emotionen die richtigen „herauszuhören“ als wir selbst. Das hat oft damit zu tun, dass der Mensch in vielen Fällen Gefangener seiner Gefühle ist und damit gar nicht wahrnehmen kann, was der Gegenüber gerade sagt, und vor allem wie er es sagt.

Rein markttechnisch betrachtet sieht sich audEERING als B2B-Marke, mit deren Hilfe Firmen und Einrichtungen in der Lage sind, ihre Software auf Basis der Kerntechnologie openSMILE so zu gestalten, dass ein größtmöglicher Nutzen daraus entsteht. Aber natürlich sollen auch Anwender anhand der drei kleinen audEERING-Wellen erkennen, dass im Gerät oder in der jeweiligen Software eine intelligente Technik „made in Bavaria“ steckt.

Die Firma audEERING ermöglicht das Analysieren und Erfassen von Stimmungen in Stimmen

audEERING-Software kommt in fünf Kernbereichen zum Einsatz

audEERING spielt in aktuell fünf Branchen eine wichtige Rolle, wenn es um das stimmbasierte Erkennen von Emotionen geht. Konkret handelt es sich um die Branchen Automotive, Call Center, Marketing, Medizin und Personal Assistant.

Automotive: Hier lässt sich anhand der aktuellen Stimmung im Auto feststellen, wie es dem Fahrer oder den Beifahrern geht, um auf dieser Basis die richtigen Maßnahmen einzuleiten (Stichworte: Übel-/Müdigkeit, Stress, Aggressionen, etc.).

Call Center: Mitarbeiter werden unterstützt, besser auf den Anrufer und dessen Emotionen zu reagieren. Der Agent erhält in Echtzeit Informationen, um das Gespräch richtig zu leiten.

Marketing: Die Emotionen von Kunden werden durch Atem- und Stimmgeräusche analysiert, um Werbung in Echtzeit darauf einzustellen oder um auszuwerten, wie ein Proband emotional auf ein vorgestelltes Produkt reagiert.

Medizin: Kürzeste Sprachaufnahmen können zur Frühdiagnostik von Krankheiten wie Parkinson, Depressionen oder ADHS dienen. Hier findet ein reger Austausch mit Kliniken und im Kontext von medizinischen Studien statt.

Personal Assistant: Roboter werden in die Lage versetzt, Emotionen in feinen Abstufungen zu erkennen und sozial mit ihrem menschlichen Gegenüber zu interagieren.

Diese möglichen Kernbereiche mündeten bereits in zahlreichen Applikation wie Audiary, Callyser und sensAI-Music.

audEERING-Software kommt auf unterschiedlichsten Geräten zum Einsatz

Grundsätzlich ist die audEERING-Software openSMILE multi-plattforn-tauglich. Sie kann also Daten sowohl aus der Cloud als auch von Großrechnern beziehen, die für das intelligente Erkennen von Stimmungen in Stimmen erforderlich sind. Allerdings bevorzugt audEERING das lokale Speichern und Nutzen lokaler Daten, also auf dem Endgerät selbst. Das kann eine Smartwatch sein, ein Smartphone oder jedes andere Device, auf dem die zugrundeliegende Software installiert werden kann.

Die Vorteile dieses lokalen Ansatzes sind klar: Zum einen hat der Anwender seine Daten jederzeit unter Kontrolle, was für viele Leute gerade in Zeiten des verstärkten Datenschutzes einen unvergleichlichen Mehrwert darstellt. Darüber sollen und dürfen besonders sensitive Daten, wie sie zum Beispiel im Bereich Medizin anfallen, den lokalen Bereich möglichst gar nicht verlassen, sodass hier das Erfassen und Berechnen von Emotionen am besten direkt auf dem Gerät stattfindet.

Das komplette Interview mit Dagmar Schuller

Udo Schneider, Trend Micro, über die akteulle IT-Sicherheitslage

[Videoblog] Udo Schneider, Trend Micro, über die aktuelle IT-Sicherheitslage

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Udo Schneider von Trend Micro Deutschland geführt. Darin spricht er über interne und externe Gefahren, wie man sich dagegen schützen kann und wie Künstliche Intelligenz die IT-Abteilung unterstützen kann.

Diese Gefahren lauern derzeit im Internet

Sieht man sich die aktuelle Gefahrenlage an, lauern vor allem zwei Bedrohungen auf Anwender: Die klassischen Erpressungstrojaner wie Wannacry und Konsorten, die auch als Ransomeware bezeichnet werden. Leider beschäftigt das immer noch viele zu viele Unternehmen, weil sie offenkundig noch nicht die richtigen Abwehrmechanismen implementieren konnten – oder im schlimmsten Fall wollten, da sie die potenzielle Bedrohung nicht ernst genug nehmen. Zu diesem Schluss kommt übrigens auch die groß angelegte IDC-Studie, die auf der Veranstaltung vorgestellt wurde.

Daneben macht der sogenannte Scheckbetrug (englisch: Business E-Mail Compromise, BEC) von sich Reden. In diesem Fall gehen Cyber-Erpresser vor allem gegen größere Unternehmen vor, um so an hohe Geldsummen heranzukommen. Dass sich dieses „Geschäftsmodell“ lohnt, zeigen Schätzungen von Trend Micro: So sollen alleine in diesem Jahr mittels BEC etwa 9 Milliarden US-Dollar erbeutet werden.

Die Vorgehensweise der BEC-Betrüger ist ganz oft dieselbe: Diese versenden an einen Finanzbeauftragten (z.B. den CFO der Firma) eine E-Mail mit dem Hinweis, er oder sie solle eine Summe X an einen Lieferanten oder ähnliches Unternehmen überweisen – was dann oft sehr gutgläubig auch geschieht. Dabei wäre es in vielen Fällen so einfach, diese Schadensfälle zu verringern bzw. ganz auszuschließen.

Große Gefahren lauern auch innerhalb vieler Unternehmen

Große Risiken gehen nach wie vor von den Anwendern selbst aus, wie das Beispiel BEC zeigt. Denn anstatt vorsichtig mit unseriösen Anfragen umzugehen, vertrauen viele Anwender nach wie vor auf die Technik und dass diese schon zwischen gut und böse unterscheiden kann. Hier ist also primär Aufklärungsarbeit notwendig, um Cyber-Angriffen effizient zu begegnen, und seien sie noch so banal und eigentlich leicht zu durchschauen. Dies können Trainings sein (auch auf Management-Ebene) oder regelmäßige Veranstaltung oder einfach nur interne Newsletter seitens der Security-Abteilung.

Gesunder Menschenverstand und Technik: So schützt man sich vor Angriffen

In Sachen Cyber-Angriffe müssen zwei Bereiche betrachtet werden: Zum einen sind für einen effektiven Schutz von Anwendern, Daten und Anwendungen technische Hilfemittel zwingend erforderlich. Hierzu gehören Security-Anwendungen, die helfen sollen, E-Mails nach schadhaften Inhalten zu filtern oder Webseiten vor dem Einschleusen von Schadcode zu schützen. Anti-Malware-Applikationen gehen mittlerweile sogar so weit, dass Krypto-Software Festplatten und andere Speicherkomponenten erst gar nicht verschlüsseln kann.

Darüber hinaus können organisatorische Maßnehmen helfen, Unternehmen vor unliebsamen Besuchern und Erpressungsversuchen zu bewahren. Dazu gehört neben dem richtigen Filtern und Scannen von E-Mails auch der regelmäßige Hinweis an die Anwender, nicht auf jeden Link zu klicken, der sich innerhalb einer Nachricht befindet.

So kann die Künstliche Intelligenz die IT-Abteilung unterstützen

Grundsätzlich kann die Künstliche Intelligenz (KI) resourcen-seitige Herausforderungen lösen. Denn redet man mit IT-Sicherheitsbeaurtragten in Unternehmen, bekommt man immer wieder zu hören, dass es aktuell nicht genügend Kandidaten am Markt gibt, mit deren Hilfe die anstehenden Aufgaben in Umfang und Qualität bewältigt und gelöst werden können.

Genau an dieser Stelle kommt die KI ins Spiel, da diese deutlich besser skaliert als IT-Security-Personal. Soll heißen, dass eine automatisierte Abwehr von Angriffen, so wie sie die KI leisten kann, deutlich effizienter und flexibler ist als mit Menschen, die noch nicht einmal zur Verfügung stehen. Die Herausforderung der KI besteht allerdings im Trainieren der zugehörigen Algorithmen und Anwendungen, wofür aussagekräftige und verlässliche Daten erforderlich sind. Und genau dieser Punkt bereitet vielen Unternehmen immer noch großen Kopfschmerzen.

Das komplette Videointerview mit Udo Schneider

 

Rick Koopman about Lenovo and AI

[Videoblog] Darum ist Künstliche Intelligenz für Lenovo so wichtig

Dieses Interview habe ich mit Rick Koopman von der Lenovo Data Center Group auf der International Supercomputing Conference 2018 geführt. Darin spricht er über das Thema KI (Künstliche Intelligenz) und warum es so wichtig für Lenovo ist. Darüber hinaus ließ er mich an den aktuellen KI-Entwicklungen teilhaben und zeigte auch, was Lenovo-Kunden in nächster Zeit in Sachen KI von Lenovo erwarten können.

Künstliche Intelligenz ist für Lenovo ein wichtiges Thema

Lenovo-Lösungen und das Thema KI passen zwangsläufig gut zusammen, weil sich beide Seiten sehr gut ergänzen. Damit ermöglicht Lenovo seinen Kunden, deren Arbeit und Projekte noch besser realisieren als ohne KI. Davon profitieren zahlreiche Bereiche wie die Wissenschaften und das Gesundheitswesen, wo Bilderkennungsalgorithmen eine wichtige Rolle spielen. Und genau dort kommt die KI zum Einsatz, und das häufig in Form von Machine Learning und Deep Learning. Das erfordert natürlich optimierte und auf den Kunden zugeschnittene Lösungen und Algorithmen, die Lenovo bieten kann und will.

NVIDA V100-CPU-Lösung und Warmwasserkühlung sind auf dem Vormarsch

Sieht man sich die aktuellen Algorithmen und Anwendungen an, wird schnell klar, dass ein Großteil immer noch sehr prozessor-lastig ist, da sich die Software-Entwickler immer noch stark an der Prozessor-basierten Programmierung orientieren. Allerdings verschieben sich hier die Grenzen zunehmend, sodass neue Ansätze und Techniken erforderlich sind. Eine Möglichkeit ist der Einsatz von Spezialhardware, die auf einer großen Zahl von Grafikchips beruht, was sich in einer leistungsfähigen und parallel arbeitenden Multicore-Architektur widerspiegelt.

Das führt dann zu KI-Hardware-Lösungen wie NVIDIA V100. Dieser Hochleistungsgrafikprozessor wurde speziell für die Bereiche KI, HPC und Co. entwickelt und beruht auf der NVIDIA Volta-Technologie. Laut NVIDIA entspricht die Rechenleistung eines einzigen Grafikprozessors der von 100 herkömmlichen CPUs. Darüber hinaus ist der V100-Prozessor mit einem eigenen Speicher von 16 bzw. 32 Gigabyte ausgestattet, was den Zugriff auf häufig benötigte Daten deutlich beschleunigt.

Klar ist aber auch, dass diese hohe Dichte an CPU- und GPU-Komponenten die Wärmeentwicklung innerhalb eines KI-Systems deutlich erhöht, was ganz neue Kühlungsmethoden erfordert. Daher wird Lenovo künftig verstärkt auf die Warmwasserkühlung setzen, was sich sehr gut anhand der neuen Technologie Lenovo Neptune zeigt. Diese soll sowohl in kleineren Systemen wie auch in kompletten Rechenzentren zum Einsatz kommen. Dass das sehr gut funktioniert, zeigt das Leibniz-Rechenzentrum (LRZ) bereits seit vielen Jahren.

KI-Algorithmen „wandern“ auf IoT-Geräte – zur Entlastung des Zentralrechners

Zweifellos werden und müssen die Kapazitäten in Sachen KI deutlich erhöht werden. Dazu gehört auch eine spezielle Form der Dezentralisierung von Rechenleistung, die unmittelbar mit dem aufstrebenden Internet der Dinge (IoT) verknüpft ist. Damit lässt sich die bisher zentrale Rechenpower eines einzelnen Supercomputers auf angeschlossene Recheneinheiten „transferieren“, sodass die CPU-GPU-Power näher an die Anwender rückt.

Damit kann beispielsweise die notwendige Bild-/Audio-/Videoerkennung direkt vom IoT-Gerät selbst durchgeführt werden, das die Daten erfasst hat. Dazu gehören unter anderem Kameras sowie Audio- und Infrarotsensoren, die den Zentralrechner von den maßgeblichen Rechenarbeiten entlasten können. Was dazu führt, dass der Supercomputer permanent mit den IoT-Geräten Zwischenergebnisse austauscht und daraus nur noch das finale Ergebnis erstellt.

Das Videointerview mit Rick Koopman in voller Länge

 

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Dominic Gaspary, Volkswagen AG, über VW We Experience

[Videoblog] Dominic Gaspary von der Volkswagen AG über VW We Experience

Auf der diesjährigen, komplett renovierten CEBIT habe ich dieses Interview mit Dominic Gaspary von der Volkswagen AG geführt. Thema war VW We Experience, das auf der IT-Messe in Hannover am IBM-Stand vorgestellt wurde. Und das geschah – räumlich betrachtet – aus gutem Grund.

Das verbirgt sich hinter „VW We Experience“

Grundsätzlich ist zu sagen, dass es sich bei Volkswagen We um ein digitales Ökosystem handelt. Konkret gesagt ist VW We der digitale Versuch, VW-Fahrer an jedem digitalen Touchpoint zu begegnen und ihm bestimmte Mehrwerte während der Autofahrt zu ermöglichen. Dazu gehören unter anderem so Dinge wie der Kofferraum als Lieferadresse für Amazon-Pakete, das Smartphone als digitale Parkuhr – und eben VW We Experience.

We Experience ist ein Bestandteil der VW-App „We Park“ und erlaubt beispielsweise das Einlösen von Gutscheinen entweder aus der App oder direkt aus dem Auto heraus.

Das können Autofahrer von We Experience erwarten

We Experience kann aber noch mehr. So bekommt der Fahrer beispielsweise im Falle eines niedrigen Wischwasserstands die nächste Tankstelle angezeigt, bei der sich der Wassertank wieder füllen lässt und erhält dafür in vielen Fällen sogar einen kleinen Rabatt eingeräumt. Hierfür werden Daten des Fahrzeugs genutzt, sodass VW-Besitzer nach und nach in den Genuss von Mehrwertdiensten kommen, die ihnen helfen, besser von A nach B zu gelangen.

Die We-Kooperation von IBM und Volkswagen im Detail

Volkswagen hat IBM ganz bewusst als Technologiepartner gewählt, um sich von „Big Blue“ in den Bereichen Machine Learning und Datenverarbeitung unterstützen zu lassen. IBM wiederum erlebt die Zusammenarbeit mit VW als enge Partnerschaft, aus der zukünftig weitere Dienste hervorgehen sollen. Diese neuen – aber auch aktuellen – Services entwickeln IBM und VW gemeinsam in Berlin, wo Mitarbeiter beider Firmen an neuen Konzepten und Ideen feilen.

Im Hintergrund kommt übrigens IBM Watson zum Einsatz, der die entscheidenden Impulse in Sachen Machine Learning und Co. liefert. Hierfür werden unter anderem Fahrzeug- und Bewegungsdaten benötigt, die VW an IBM Watson liefert, der daraus bestimmte Empfehlungen und Angebote ableitet. Das geschieht sehr individuell, also an die Bedürfnisse und Vorzüge des Autofahrers angepasst.

Das ist von VW We Experience noch zu erwarten

Volkswagen will und wird mit We Experience künftig weitere Bereiche erschließen und damit neue Teilnehmer in das Programm integrieren. Das können Tankstellenbesitzer bzw. -ketten sein, aber auch Einkaufszentren oder Ladengeschäfte. Das reicht vom Wechseln der Winterreifen bis hin zu speziellen Angeboten seitens der VW-Händler, die natürlich auch Teil des Ökosystems werden sollen. Aber letztlich sollen VW-Fahrer besser an die Marke Volkswagen gebunden werden. Hierzu bietet der Konzern mit VW We ein Fahrerlebnis, mit dem man Zeit und Geld spart.

Das komplette Interview in voller Länge

 

Matthias Hartmann (IBM) über die digitale Transformation

CEBIT 2018: Matthias Hartmann, IBM, über die digitale Transformation

Während der CEBIT 2018 hatte ich die Gelegenheit, dieses Interview mit Matthias Hartmann, General Manager IBM DACH, zu führen. Darin spricht er über sein erklärtes Lieblingsthema „Digitale Transformation“: Wo wir stehen, wie IBM helfen kann und ob die CEBIT in diesem Kontext der richtige Neuanfang ist.

Wie ist es hierzulande um die digitale Transformation bestellt?

In diesem Punkt ist Herr Hartmann etwas zwiegespalten: Es ist nicht so schlecht, wie oft behauptet wird, aber auch noch nicht so, wie es eigentlich sein sollte. Hierbei tun sich diverse Fragen auf:

  • Wie gehen Unternehmen mit der digitalen Transformation um?
  • Wie nimmt der einfache Anwender die digitale Transformation wahr?
  • Wie verhält es sich diesbezüglich mit grenzüberschreitenden Regeln und Regularien?

Wer aus Herrn Hartmanns Sicht zur digitalen Transformation auf jeden Fall beiträgt, ist die stetig größer werdende Start-up-Szene in Deutschland, aber auch die großen Technologieunternehmen wie IBM, Intel und Co. Und doch, so Hartmann, geht es eher um Wissen, um Kultur, um Geschäftsmodelle, als um eine rein technische Betrachtungsweise dieses Themas.

Wie kann die IBM bei der digitalen Transformation helfen?

Wichtig ist aus Herrn Hartmanns Sicht erst einmal die Bereitschaft, neue Dinge und Wege auszuprobieren – mit allen Möglichkeiten, sowohl im erfolgreichen als auch im weniger erfolgreichen Sinne. In diesem Zusammenhang sieht sich IBM als eine Art „Bereitsteller“ von Plattformen, an denen Unternehmen jedweder Couleur und Größe partizipieren können. Damit will „Big Blue“ leichter „konsumierbar“ werden, wie das Beispiel Watson ja sehr deutlich zeigt. Das belegt eindrucksvoll, dass sich IBM permanent dem Markt anpasst, um auf diesem Weg ein zuverlässiger und innovativer Partner sein zu können, den viele Firmen bei ihrer ganz persönlichen digitalen Transformation brauchen.

Stellt die „neue“ CEBIT einen Neuanfang dar?

Ja, so Herr Hartmann, die CEBIT 2018 ist ein Neuanfang, gar ein großer Wurf, über den er sich recht angetan zeigt. Nicht zuletzt wohl auch deshalb, weil die IBM als kritischer Geist an den Ideen- und Konzeptfindungstreffen teilgenommen hat. Natürlich muss man abwarten, wie die „neue“ CEBIT ankommt und welche Lehre daraus gezogen werden können. Doch eines ist für ihn völlig klar: Die Entscheidung – auch seitens der IBM – Technik und Technologie anfassbarer und transparenter zu machen, war eine sehr gute.

Und es ist wohl so, wie Herr Hartmann es sagt: Die neuen Konzepte und Ideen wurden angenommen, selbst viele Kritiker finden auf einmal wieder Gefallen an der CEBIT. Und selbst wenn die Besucherzahlen noch einmal schlechter waren als im vorherigen Jahr: Der Neustart der CEBIT war wichtig und richtig und macht Mut für weitere Ausgaben.

Das vollständige Interview mit Matthias Hartmann

 

Sebastian Amtage (b.telligent) über den Status Quo der Künstlichen Intelligenz

[Videochat] Sebastian Amtage, b.telligent, über Künstliche Intelligenz

Dieses Interview habe ich während des BI Kongress 2018 mit Sebastian Amtage, dem CEO von b.telligent, über den Status Quo der Künstlichen Intelligenz geführt. Darin spricht er über den aktuellen Stand der Dinge der KI, über die größten KI-Herausforderungen und was seine Firma dazu beizutragen hat.

Wie ist es aktuell um das Thema KI bestellt?

Aus Sicht von b.telligent handelt es sich beim Thema KI um einen Hype, da viele Unternehmen im Rahmen ihrer Digitalisierungsstrategie den Einsatz von KI-Techniken und -Tools durchaus einplanen. Hierbei stehen unter anderem effizientere Prozesse und intelligentere Produkte im Vordergrund. Allerdings ist der Wissensstand in vielen Unternehmen sehr unterschiedlich ausgeprägt, vor allem der datengetriebene Ansatz der KI ist für viele Firmen noch recht neu.

Diese Unternehmen müssen erst einmal grundsätzliche Fragen klären: Woher kommen die richtigen Daten? Wie ist es um deren Qualität bestellt? Wie kann ich die vorhandenen Datenpools sinnvoll zusammenfassen, etc.

Andere Firmen hingegen beschäftigen sich mit der KI schon sehr viel länger und haben damit einen erheblich leichteren Einstieg in dieses Thema. Diese Unternehmen setzen bereits komplexere Techniken und Methoden wie Deep Learning und Machine Learning ein, was über das klassische Data Mining und statistische Modelle bei weitem hinaus geht.

Worin bestehen die größten KI-Herausforderungen?

In diesem Kontext sind zahlreiche Hürden und Hindernisse zu nennen. Das sind zum einen die bereits erwähnten Daten. Hier kommt es vor allem auf eine ausreichende Datenmenge und deren Qualität an. Zum anderen spielt das Thema Know-how innerhalb der Firma eine große Rolle. Denn oft fehlt es an sehr gut ausgebildeten KI-Experten, die solch ein Projekt sach- und fachgemäß steuern und mit Leben füllen können. Hier sind diejenigen Unternehmen auf jeden Fall im Vorteil, die sich schon mit den Themen Business Intelligence und Big Data beschäftigt haben und entsprechendes Know-how aufbauen konnten.

Was trägt b.telligent zum Thema KI bei?

Mit dem Thema Data Science, was ja einen Oberbegriff der KI darstellt, beschäftigt sich b.telligent schon seit 15 Jahren. Damit gib es im Unternehmen zahlreiche Experten, die die Herausforderungen vieler Unternehmen kennen und helfen können, diese zu bewältigen.

Für b.telligent steht meist die Hilfe zur Selbsthilfe im Vordergrund, wie sich also innerhalb von Unternehmen KI-Experten und -Projektteams ausbilden und aufbauen lassen, um sich mit dem Thema bestmöglich auseinandersetzen zu können. Das nimmt aber oft einen langen Zeitraum in Anspruch, da die Künstliche Intelligenz mit all ihren Disziplinen viel Erfahrung und Wissen voraussetzt.

Das Interview mit Sebastian Amtage in voller Länge

Dr. Konstantin Greger (Tableau Software) über Künstliche Intelligenz

[Videochat] Konstantin Greger (Tableau Software) über Künstliche Intelligenz

Dieses Videointerview habe ich während eines IDC-KI-Events mit Dr. Konstantin Greger von Tableau Software geführt. Darin spricht er über den aktuellen Zustand der Künstlichen Intelligenz in Deutschland, welchen Beitrag Tableau dazu leistet und was noch nötig ist, um den Umstieg auf die „starke“ KI zu schaffen.

Was trägt die Firma Tableau zum Thema KI bei?

Für Konstantin Greger stehen dabei vor allem zwei Aspekte im Vordergrund: Der Einsatz von KI und Machine Learning in den Anwendungen von Tableau Software selbst und bei der Unterstützung von Unternehmen und wie diese Künstliche Intelligenz für ihre Zwecke nutzen können. Hierbei wird auch das Kerngeschäft von Tableau Software sichtbar: Wie bereite ich Daten so auf, damit ich sie besser verstehen und optimal einsetzen kann. Es geht also um die Abstrahierung komplexer Datensammlungen hin zu einem verständlichen Modell, das sich auf einfache Art und Weise nutzen lässt.

Wie ist es hierzulande um das Thema KI bestellt?

Laut Herrn Greger lässt sich das weite Feld der KI in Deutschland als sehr heterogen bezeichnen. So setzen es gerade kleinere Firmen schon recht agil ein, da sie den Nutzen der Künstlichen Intelligenz für sich erkannt haben und ihr Geschäftsmodell daran ausrichten.

Im Gegensatz dazu fällt es den größeren Firmen oftmals noch recht schwer, KI-Ansätze innerhalb der geplanten Projekte sinnvoll zu integrieren. Dort sind zwar innovative Ideen vorhanden, wie sich Künstliche Intelligenz und Machine Learning einsetzen ließen, aber gleichzeitig fehlt das Know-how, um diese Ideen sinnvoll umzusetzen. Denn oft folgen diese Firmen letztlich nur dem Drang, in Sachen KI etwas zu unternehmen, da der Mitbewerber in dieser Richtung auch etwas tut. Dabei wissen diese Unternehmen oft noch gar nicht, wie sich KI richtig einsetzen lässt.

An dieser Stelle kann Tableau Software ins Spiel kommen, da ein wesentliches Element der KI, nämlich die Daten, vollkommen außer acht gelassen werden. Und genau hierbei kann Tableau helfen, nämlich beim Identifizieren, Aufbereiten und Bewerten der vorhandenen Daten.

Was sind die größten Hürden beim Umstieg von der „schwachen“ zur „starken“ KI?

Die Hürden beim Umstieg von der „schwachen“ zur „starken“ KI lassen sich als äußert vielfältig beschreiben. Das betrifft zum einen das bereits erwähnte Thema Daten. Denn für eine starke KI sind viele „gute“ und vertrauenswürdige Daten erforderlich, da ansonsten die korrespondierenden KI-Dienste und -Lösungen nicht glaubwürdig sind. Darüber hinaus fehlt es an vielen Stellen am richtigen Know-how, also an KI-Experten, die das Vorantreiben der starken KI überhaupt erst ermöglichen können.

Das Interview mit Konstantin Greger in voller Länge

 

Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

[Videochat] Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

Während eines IDC-Events, auf dem eine Studie zum Thema KI in Deutschland vorgestellt wurde, habe ich dieses Interview mit Jürgen Wirtgen von Microsoft geführt. Darin spricht er über den Beitrag seitens Microsoft in Sachen KI, wie sich Daten für KI-Projekte bestmöglich nutzen lassen und was Microsoft unter der Demokratisierung der Künstlichen Intelligenz versteht.

Was leistet Microsoft im Kontext von KI?

Die Künstliche Intelligenz sieht Herr Wirtgen als eine Art übergeordneten Schirm, der sich bei Microsoft über alle Bereiche spannt. Dazu gehört beispielsweise der Bereich Produktivität (Office 365, etc.), aber auch ein eigens hierfür geschaffener Geschäftsbereich zu den Themen Cloud und KI existiert bei Microsoft. Hierfür stellt Redmond zahlreiche Entwicklungsressourcen zur Verfügung, mit deren Hilfe neue KI-Lösungen und -Dienste entstehen sollen. Das betrifft sowohl die Grundlagenforschung als auch den realen Nutzen von KI im Produktionsumfeld.

Darüber hinaus unterstützt Microsoft seine Kunden in Sachen Künstliche Intelligenz. Das reicht von der Entwicklung eines eigenen Bots bis hin zum Einsatz kognitiver Dienste oder der Entwicklung neuer Geschäftsmodelle, in denen die Künstliche Intelligenz eine entsprechende Rolle spielt.

Wie lassen sich Daten für die KI bestmöglich nutzen?

Hierzu muss erst einmal das Geschäftsmodell entwickelt und verstanden werden. Denn erst dann kann man herausfinden, welche Daten ich besitze und welche davon für mein spezielles KI-Projekt wichtig und erforderlich sind. In manchen Fällen sind zusätzliche Daten notwendig, sodass beispielswiese der Einsatz von Sensoren in Erwägung gezogen werden sollte. Diese Datengewinnung ist dann ebenfalls wichtiger Teil des Gesamtprojekts.

Müßig zu erwähnen, dass beim Sammeln und Speichern von Daten jederzeit die höchsten Sicherheitsstandards berücksichtigt werden sollten. Alleine schon aus Gründen des Datenschutzes und der Datensicherheit.

Was versteht Microsoft unter der Demokratisierung von KI?

Viele Menschen verbinden mit der Künstlichen Intelligenz vor allem wissenschaftliche Anwendungen, hinter denen sich komplexe und komplizierte Modelle befinden. Microsoft möchte erreichen, dass KI-Anwendungen von einer breiten Masse genutzt werden können. Hierfür sind Dienste erforderlich, die sich trivial nutzen und genauso einfach in bestehende Anwendungen einbinden lassen.

Hierbei kommen unter anderem die 30.000 Business Partner von Microsoft (Entwickler, Softwarehäuser, etc.) ins Spiel, die in die Lage versetzt werden sollen, ihre Software mit KI-Elementen anzureichern. Aber auch andere Bevölkerungsschichten sollen mithilfe von geeigneten Ausbildungsmaßnahmen fit gemacht werden für das Grundverständnis von KI. Denn nur so kann eine echte Demokratisierung der Künstlichen Intelligenz gelingen – und damit Ängste und Vorbehalte abgebaut werden.

Das Interview mit Jürgen Wirtgen in voller Länge

Weiterführende Informationen zum Thema Microsoft und KI

Plamen Kiradjiev über Smart Factory und IBM

[Videochat] Plamen Kiradjiev (IBM) über Smart Factories am Beispiel von Mettler Toledo

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Plamen Kiradjiev von IBM über das Thema Smart Factories am Beispiel von Mettler Toledo geführt. Darin zeigt er, wieso IBM ein wichtiger Teil der SmartFactory-Szene ist, welche Rolle IBM darin einnimmt und wie IBM mit seinen KI- und Cloud-Tools Industriekunden wie Mettler Toledo hilft.

„Was zeigen Sie hier [auf dem Smart Factory-KL-Stand] auf der Hannover-Messe 2018“?

Laut Herrn Kiradjiev zeigten auf dem Smart Factory-KL-Stand in Halle 8 wie seit vielen Jahren zahlreiche Aussteller ihre Lösungen rund um das Thema „Schlaue Fabriken“ und Industrie 4.0. Und auch dieses Jahr war IBM wieder von der Partie. Das Hauptinteresse seitens IBM auf diesem großen Messestand bestand im Sammeln, Analysieren und Bewerten der Daten, die hier zu Demonstrationszwecken benötigt wurden.

Einen dieser Messepartner, der gleichzeitig auch Kunde von IBM ist, versorgte IBM mit Daten für die Qualitätssicherung seiner Produkte. Die Rede ist von Mettler Toledo, dem Hersteller von Präzisionswaagen, für den das Thema Qualitätssicherung in der Fertigung von allerhöchster Wichtigkeit ist.

„Welche Rolle nimmt IBM in der Smart Factory ein?“

Die primäre Rolle von IBM innerhalb des Smart Factory-Kontexts war die vorausschauende Fertigung und Wartung, was auch als Predictive Manufacturing und Predictive Maintenance bezeichnet wird. Dabei hatte es sich IBM unter anderem zum Ziel gesetzt, diese beiden auf Machine Learning basierenden Ansätze auf der Hannover-Messe (und darüber hinaus) zu Lern-un Demonstrationszwecken bestmöglich einzusetzen.

Ein wichtiger Prozess dabei ist das Extrahieren und Analysieren der Daten, die IBM mithilfe geeigneter Tools aus den Industrieanlagen der Partner holt. Hierfür kommt ein einheitliches Protokoll zum Einsatz, mit dessen Hilfe sämtliche Daten in einem einheitlichen Format in den zur Verfügung stehenden Datenpools gespeichert werden. Von dort aus gelangen sie in den unterschiedlichsten Cloud-Plattformen, die je nach Anwendung und Kunde genutzt werden. Hierbei kommen auch Multi-Cloud-Szenarien zur Anwendung.

„Wie hilft IBM in diesem Kontext [dem Hersteller von Präzisionswaagen] Mettler Toledo?“

Bei dem gemeinsamen Projekt mit Mettler Toledo steht für den Anbieter und Hersteller von Präzisionswaagen die Qualität seiner Messgeräte an allererster Stelle. Denn die Waagen werden primär selbst zur Qualitätssicherung eingesetzt, indem gefertigte Produkte zur Überprüfung von möglichen Abweichungen von der gewünschten Qualität vermessen werden. Da die Mettler-Toledo-Waagen bis in das Milligramm genau wiegen können, lassen sich mithilfe dieser Hightech-Messgeräte kleinste Produktionsabweichungen exakt feststellen, ohne jedes einzelne Bauteil oder ein komplettes Produkt aufwändig nachmessen oder gar zerlegen zu müssen.

Aus diesem Grund ist es für Mettler Toledo immanent wichtig, sich auf die hundertprozentige Messgenauigkeit seiner Waagen verlassen zu können. Und genau hier kommt IBM mit seinen Softwarelösungen ins Spiel. So stellt „Big Blue“ eine Schnittstelle in seine IoT Cloud zur Verfügung, mit dessen Hilfe Mettler Toledo Zugriff auf geeignete Machine-Learning-Algorithmen erhält. Damit kann der Hersteller ziemlich exakt voraussagen, wann und bei welchen Waagen eine Ungenauigkeit von Messergebnissen zu erwarten ist, da sich bei der Produktion der Messgeräte mit hoher Wahrscheinlichkeit Unregelmäßigkeiten einstellen werden.

IBM IoT Cloud und Watson Studio für das Überprüfen von Qualität von Präzisionswaagen

Hierfür werden die von Mettler Toledo zur Verfügung gestellten Daten innerhalb der IBM IoT Cloud in das Softwaretool Watson Studio importiert. Daraus erstellt die Anwendung ein Produktionsprozessmodell, das anschließend installiert und konfiguriert wird. Sobald die vorhandenen Daten durch dieses Modell geleitet werden, lässt sich ziemlich genau vorhersagen, welche Waage mit relativ hoher Wahrscheinlichkeit Abweichungen bei der gewünschten Qualität aufweisen wird. In solch einem Fall erhält der Smart-Factory-Administrator von der Software einen Warnhinweis, der auf die mögliche Abweichung der Messgenauigkeit hinweist. Damit kann er unmittelbar und ohne größeren Messaufwand die Qualität der Waage überprüfen lassen.

Das Interview mit Plamen Kiradjiev in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Eduard Erhart über IBM Supply Chain Insights

Eduard Erhart über IBM Supply Chains Insights und Watson AI

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Eduard Erhart zum Thema IBM Supply Chains Insights geführt. Mit diesem Tool hilft IBM ihren Kunden, Lieferkettenprozesse künftig mithilfe von Watson AI zu optimieren und einfacher zu gestalten.

„Was zeigt IBM [auf der Hannover-Messe] zum Thema Watson AI und Supply Chains?“

Kern des Demopunktes, an dem Eduard Erhart während der Hannover-Messe 2018 sein Wissen weitergegeben hat, war das Teilen von Erkenntnissen mit Messebesuchern rund um das Thema Supply Chains, also Lieferketten, und welche Erfahrungen IBM während der letzten Jahren im Kontext ihrer Supercomputer und Speicherlösungen sammeln konnte. Herausgekommen ist ein Softwaretool, das sich IBM Supply Chain Insights nennt, mit dem auf die sehr speziellen Anforderungen von Kunden an deren Lieferketten reagiert werden kann.

„Welche Vorteile ergeben sich dabei aus dem Einsatz von Künstlicher Intelligenz (AI)?“

Laut Herrn Erhart ergeben sich im Kontext von Lieferketten durch den Einsatz von Künstlicher Intelligenz ganz neue Möglichkeiten. So lassen sich mithilfe von IBM Watson AI Services die bestehenden Supply-Chain-Daten von Unternehmen um externe Daten und Informationen anreichern, die allerdings in vielen Fällen unstrukturiert vorliegen.

Genau das erfordert eine ganz spezielle Behandlung und Verarbeitung dieser Daten von außerhalb. An dieser Stelle kommt IBM Supply Chain Insights ins Spiel. Damit lassen sich die Daten des Kunden mühelos auswerten, bewerten und in den richtigen Kontext setzen mit den eigenen und fremden Daten.

„Wie profitieren IBM-Kunden [dabei genau] von IBM Supply Chain Insights?“

Die große Herausforderung, mit der sich Kunden und Anwender konfrontiert sehen, lautet: Wie kann ich die riesigen Datenmengen sinnvoll einsetzen, um möglichst schnell gewinnbringende Informationen über meine Lieferkettenprozesse zu bekommen? Hierfür bietet sich eben das Softwaretool IBM Supply Chains Insights an, das innerhalb der IBM Cloud zur Verfügung steht.

Damit haben IBM-Kunden einerseits einen schnellen Zugriff auf diese Lieferketten-Analysesoftware, andererseits können sie gleichzeitig die anderen vorhandenen IBM-Cloud-Tools nutzen, die dort ebenfalls bereit stehen. Auch damit lassen sich Lieferkettenprobleme analysieren und beheben. Dies geschieht unter anderem auf Basis eines Chattools, auf das jeder Anwender innerhalb des Unternehmen Zugriff hat.

„Wie genau arbeitet IBM Supply Chain Insights?“

IBM Supply Chain Insights betrachtet die vorhandenen Transaktionsdaten und erkennt automatisch die Abweichungen von einem vorher definierten Soll-Zustand. Sollte dieser Fall eintreten, wird der Anwender darüber in Kenntnis gesetzt, um darauf reagieren zu können. So kann er sich mit seinem Team innerhalb eines Chatrooms von IBM Supply Chain Insights treffen, um eine möglichst probate Lösung des Problems zu eruieren.

Dabei füttert er IBM Watson AI mit den gewonnenen Erkenntnissen und möglichen Lösungsansätzen, von denen Watson wiederum lernen kann. Was am Ende dazu führen soll, dass beim nächsten Auftreten eines ähnlichen oder gleichen Problems eine Lösung schneller herbei geführt werden kann.

Das Videointerview mit Eduard Erhart in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.