Dominic Gaspary, Volkswagen AG, über VW We Experience

[Videoblog] Dominic Gaspary von der Volkswagen AG über VW We Experience

Auf der diesjährigen, komplett renovierten CEBIT habe ich dieses Interview mit Dominic Gaspary von der Volkswagen AG geführt. Thema war VW We Experience, das auf der IT-Messe in Hannover am IBM-Stand vorgestellt wurde. Und das geschah – räumlich betrachtet – aus gutem Grund.

Das verbirgt sich hinter „VW We Experience“

Grundsätzlich ist zu sagen, dass es sich bei Volkswagen We um ein digitales Ökosystem handelt. Konkret gesagt ist VW We der digitale Versuch, VW-Fahrer an jedem digitalen Touchpoint zu begegnen und ihm bestimmte Mehrwerte während der Autofahrt zu ermöglichen. Dazu gehören unter anderem so Dinge wie der Kofferraum als Lieferadresse für Amazon-Pakete, das Smartphone als digitale Parkuhr – und eben VW We Experience.

We Experience ist ein Bestandteil der VW-App „We Park“ und erlaubt beispielsweise das Einlösen von Gutscheinen entweder aus der App oder direkt aus dem Auto heraus.

Das können Autofahrer von We Experience erwarten

We Experience kann aber noch mehr. So bekommt der Fahrer beispielsweise im Falle eines niedrigen Wischwasserstands die nächste Tankstelle angezeigt, bei der sich der Wassertank wieder füllen lässt und erhält dafür in vielen Fällen sogar einen kleinen Rabatt eingeräumt. Hierfür werden Daten des Fahrzeugs genutzt, sodass VW-Besitzer nach und nach in den Genuss von Mehrwertdiensten kommen, die ihnen helfen, besser von A nach B zu gelangen.

Die We-Kooperation von IBM und Volkswagen im Detail

Volkswagen hat IBM ganz bewusst als Technologiepartner gewählt, um sich von „Big Blue“ in den Bereichen Machine Learning und Datenverarbeitung unterstützen zu lassen. IBM wiederum erlebt die Zusammenarbeit mit VW als enge Partnerschaft, aus der zukünftig weitere Dienste hervorgehen sollen. Diese neuen – aber auch aktuellen – Services entwickeln IBM und VW gemeinsam in Berlin, wo Mitarbeiter beider Firmen an neuen Konzepten und Ideen feilen.

Im Hintergrund kommt übrigens IBM Watson zum Einsatz, der die entscheidenden Impulse in Sachen Machine Learning und Co. liefert. Hierfür werden unter anderem Fahrzeug- und Bewegungsdaten benötigt, die VW an IBM Watson liefert, der daraus bestimmte Empfehlungen und Angebote ableitet. Das geschieht sehr individuell, also an die Bedürfnisse und Vorzüge des Autofahrers angepasst.

Das ist von VW We Experience noch zu erwarten

Volkswagen will und wird mit We Experience künftig weitere Bereiche erschließen und damit neue Teilnehmer in das Programm integrieren. Das können Tankstellenbesitzer bzw. -ketten sein, aber auch Einkaufszentren oder Ladengeschäfte. Das reicht vom Wechseln der Winterreifen bis hin zu speziellen Angeboten seitens der VW-Händler, die natürlich auch Teil des Ökosystems werden sollen. Aber letztlich sollen VW-Fahrer besser an die Marke Volkswagen gebunden werden. Hierzu bietet der Konzern mit VW We ein Fahrerlebnis, mit dem man Zeit und Geld spart.

Das komplette Interview in voller Länge

 

Tobias Stöckel auf der Hannover-Messe über Predictive Maintenance

[Videochat] Tobias Stöckel über Predictive Maintenance mit IBM Watson AI

Während der Hannover-Messe 2018 habe ich dieses Interview mit Tobias Stöckel von der IBM geführt. Darin spricht er über IBM Watson AI als Frühwarnsystem bei möglichen Materialfehlern und was IBM sonst noch zum Thema Predictive Maintenance beizutragen hat – inklusive der richtigen Hardware.

„Was zeigt die Techdemo „AI powered Factory?“

An diesem großen Demopunkt, der während der gesamten Hannover-Messe 2018 mehr als gut besucht war, stand vor allem das Thema Predictive Maintenance im Vordergrund. Zutaten waren hierfür Machine Learning mithilfe von IBM Watson, die beide in der Produktion zunehmend eingesetzt werden. Damit sollen unter anderem die Automatisierung von Qualitätskontrollen mithilfe von Visual Recognition ermöglicht und die Verfügbarkeit von Equipment verbessert werden.

„Wie hilft Watson AI bei der Früherkennung von Fehlern?“

Hierfür kommt die IBM Predictive Maintenance Solution zum Einsatz, mit der sich in diesem speziellen Fall Sensorwerte auslesen lassen, die einen genauen „Befindlichkeitsstatus“ des Roboters messen und diese an die IBM-Software übergeben können. Anschließend werden diese cloud-basierten Daten an Machine-Learning-Modelle übertragen, wo sie mit historischen Daten verglichen werden. Dies ermöglicht eine ziemlich genaue Vorhersage, wie sich der Roboter anhand der Vergangenheit in der Zukunft verhalten wird.

„Was trägt IBM für die Erkennung von Defekten bei?“

Mithilfe der IBM-Software Visual Insights lassen sich unter anderem Maschine-Learning-Modelle aufbauen, die für das Trainieren von Neuronalen Netzen erforderlich sind. Damit wird in diesem Fall festgelegt, wie zu untersuchende Fabrikationsteile aussehen sollen, die einerseits in Ordnung und andererseits defekt sind.

Hierfür ist natürlich eine leistungsstarke Hardware vonnöten, mit denen solche Neuronalen Netze samt ihrer Machine-Learning-Algorithmen trainiert werden können. Diese steht mit IBM PowerAI zur Verfügung, auf denen solche Aufgaben äußerst zügig erledigt werden können.

Das hat unter anderem mit der leistungsstarken NVIDIA Tesla-Grafikhardware zu tun, die in den PowerAI-Maschinen verbaut ist. Damit können Bilderkennungsaufgaben sehr schnell durchgeführt werden, was zum Beispiel im Kontext von flexiblen Herstellungsmodellen wichtig ist. Aber auch für dynamische Fehlerklassen sind möglichst kurze Trainingszyklen äußerst relevant.

Im Falle der Roboterdemo auf der Hannover-Messe wurde das System am Sonntag vor Messebeginn innerhalb weniger Stunden trainiert, wobei die meiste Zeit das Fotografieren der entsprechenden Bauteile in Anspruch genommen hat. Das Trainieren des Machine-Learning-Algorithmus selbst dauerte laut Herrn Stöckel nur wenige Sekunden!

Das Interview mit Tobias Stöckel in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Informationen über die Künstliche Intelligenz

Was die Künstliche Intelligenz mit uns Menschen zu tun hat

Wenn man sich mit dem Thema Künstliche Intelligenz genauer befasst, stößt man zwangsläufig auf zahlreiche Parallelen, die mit uns Menschen in Verbindung stehen. Klar, es sollen ja dank KI neue Wege gefunden und genutzt werden, die vor allem etwas mit dem menschlichen Gehirn zu tun haben. Denn unsere Denkzentrale, bestehend aus rund 85 Milliarden Neuronen, schicken permanent elektrische Impulse in sehr schneller Abfolge durch unser Nervensystem. Hierfür stehen zehntausende von Verbindungen zwischen den einzelnen Nervenzellen parat, womit das menschliche Gehirn wohl das größte vorzustellende Netzwerk des Universum darstellt.

Künstliche Intelligenz erfordert schnelle Rechner, schlaue Programme und ganz viele Daten

All dies ermöglicht unsere angeborene Fähigkeit, neue Dinge zu lernen, aus erlebten Erfahrungen die richtigen Schlüsse zu ziehen, abstrakt zu denken und vieles mehr. Da die aktuellen Computer hierfür gar nicht geschaffen und gebaut wurden, stellen sich derzeit zahlreiche Experten diese eine Frage: Lässt sich ein hochkomplexes Gebilde wie das menschliche Gehirn mithilfe von Hard- und Software so nachbauen, dass es einen höchstmöglichen Nutzen bringt. Und genau damit beschäftigt sich die Wissenschaft der Künstlichen Intelligenz.

Für den optimalen Einsatz von Künstlicher Intelligenz sind vor allem zwei Dinge notwendig: Ein Computersystem, das möglichst schnell rechnen kann, und eine Software darauf, die mit all den Berechnungen klar kommt und anhand der vorliegenden Daten die richtigen Schlüsse zieht und die gewünschten Ergebnisse ermittelt.

Von schwacher und starker KI

Bei den aktuellen KI-Programmen wird unterschieden zwischen der schwachen und der starken KI. Zur Kategorie der schwachen KI gehört beispielsweise der Schachcomputer Deep Blue von IBM, der 1996 zum ersten Mal den damaligen amtierenden Schachweltmeister Garri Kasparov schlagen konnte, aber auch Apple Siri, Amazon Alexa und andere Programme, die auf ihrem Gebiet schon ganz erstaunliche Dinge können.

Die starke KI hingegen bietet viel weiter gehende Möglichkeiten, da sie in der Lage ist, die erzielten Ergebnisse auf andere Disziplinen zu übertragen und dort auch anzuwenden. So wie es eben der Mensch kann. Allerdings steht die Forschung in diesem Bereich noch ganz am Anfang.

Neuronale Computerprogramme müssen gefüttert werden

Doch welche Schritte sind notwendig, um eine Anwendung der schwachen KI in ein Programm der starken KI zu transformieren? Nun, dazu muss man erst einmal grundlegend verstehen, wie das menschliche Gehirn funktioniert. Ein wichtiger Baustein hierfür sind computergestützte neuronale Netzwerke, die im besten Fall wie der menschliche Verbund an Neuronen arbeiten. Hierfür sind große Datenmengen erforderlich, damit ein künstliches neuronales Netz genauso funktionieren kann wie unseres. Denn so wie wir Erlerntes in neue Erkenntnisse und Fähigkeiten umsetzen, kann ein neuronal arbeitendes Computerprogramm mithilfe von Bildern, Mustern, Audiodateien, etc. lernen. Nur dass es hierfür eine sehr große Zahl an Daten benötigt, mit dem es zuvor gefüttert werden muss.

Man kennt solche einfachen Algorithmen zum Beispiel vom Apple Foto-Programm, das auf jedem Mac-Rechner vorinstalliert ist. Dort legt man zum Beispiel fest, wie Onkel Karl aussieht, und der Apple-PC versucht daraus alle vorhandenen Bilder von Onkel Karl zu erkennen. Und je öfter dies erfolgreich geschieht, desto besser ist die Trefferquote von Apple Fotos. Dies ist zwar ein sehr triviales Beispiel von KI, aber ein doch recht anschauliches.

„Deep Learning“ als wichtiger Baustein der Künstlichen Intelligenz

Dieses Lernen von neuen Fähigkeiten mithilfe vieler, vieler Daten und Muster wird in der Disziplin der Künstlichen Intelligenz „Deep Learning“ genannt. So hilft beispielsweise IBM Watson schon heute, Krebszellen zu erkennen und damit Ärzte und Krankenhäuser bei der Früherkennung der heimtückischen Krankheit zu unterstützen. Aber auch das Analysieren und Erkennen von Emotionen und Sprache zählt zum KI-Fachgebiet des Deep Learning sowie das Automatisierte Fahren oder das simultane, computergestützte Übersetzen.

Was unterscheidet den Menschen vom KI-Computer?

Doch zur Künstlichen Intelligenz gehören jenseits der technischen Anforderungen auch ganz andere Fragen:

Erfordert die KI ein Bewusstsein?

Wie entstehen Emotionen?

Gibt es so etwas wie eine Seele?

Oder anders ausgedrückt: Was macht aus dem Menschen einen Menschen und was unterscheidet ihn vom neuronalen Computerprogramm?

Dr. Axel Köster (IBM) über Cognitive Storage

[Video] Dr. Axel Köster von IBM über Cognitive Storage

Während des IBM Storage Strategy Day 2017 in Ehningen habe ich dieses Interview mit Dr. Axel Köster geführt. Darin spricht er über Cognitive Storage und was es damit auf sich hat. Er zeigt, welche Speichertechniken bereits „Cognitive-ready“ sind und was das IBM Watson IoT Center damit zu tun hat.

Zunächst einmal gilt festzuhalten, dass Herr Köster einen tollen Titel trägt, er ist nämlich Cheftechnologe des Europäischen Speicherkompetenzzentrums in Frankfurt/Main. Zudem ist er Chairman der IBM Technical Expert Council (TEC) im deutschsprachigen Raum.

Von „Cognitive Storage“ und IBM Watson

Meine erste Frage führte mich direkt zum Thema des Interviews, was denn „Cognitive Storage“ sei. Dabei handelt es sich laut Herrn Köster um eine zweigeteilte Technologie: Einerseits handele es sich um hochparalellen Speicher für die kognitiven Algorithmen, die dafür sorgen, dass kognitive Systeme wie IBM Watson  überhaupt arbeiten können.

Zum anderen stehen diese Algorithmen auch für Storage-Systeme zur Verfügung, womit intelligenter Speicher möglich wird, der also lernt, was zu tun ist. Die Speichereinheit weiß zum Beispiel nach einer gewissen Zeit, welche Daten wichtig (Hot Data) und welche weniger wichtig (Cold Data) sind.

Kognitive Speichersysteme sind in 10 Jahren Standard-IT

Aber gibt es überhaupt schon Speichersysteme, die mit dieser Form von Künstlicher Intelligenz zurecht kommen. Ja, diese Systeme gibt laut Herrn Köster schon, die extrem parallel arbeiten. Allerdings kommen diese Hochleistungssysteme vor allem bei größeren Unternehmen zum Einsatz, kleineren Firmen mangelt es an solchen Systemen noch.

Aber, und da ist er sich sicher, müssen sich mittel- bis langfristig alle IT-Verantwortlichen mit dieser neuen Form des Speichers befassen, denn in etwa zehn Jahren wird das zur Standard-IT gehören.

Sensoren & Co. generieren große Datenmengen

Natürlich hat auch das IBM Watson IoT Center mit großen Datenmengen zu tun, die beim Einsammeln derselben generiert werden. Denn überall dort, wo beispielsweise Sensoren große Datenmengen produzieren, lassen sich neue Erkenntnisse gewinnen, die dann an anderer Stelle eingesetzt werden können.

Diese Ergebnisse werden nicht mithilfe von Algorithmen erzielt, sondern auf Basis neuronaler Netze, die wie das menschliche Gehirn funktionieren. Damit können zum Beispiel Gebiete identifiziert werden, in denen möglicherweise Hagelschaden entsteht, um daraus die richtigen Maßnahmen abzuleiten.

x86 ist für neuronales Rechnen nicht parallel genug, IBM TrueNorth schon

Doch neben den hohen Anforderungen an Speicher kommen auch den Recheneinheiten von kognitiven Systemen eine große Bedeutung zu. So hat mich interessiert, ob General Purpose Prozessoren wie der Intel x86 für solche Aufgaben geeignet seien. Und nein, sind sie nicht, da diese CPUs laut Herrn Köster nicht parallel genug arbeiten. Hierfür taugen eher die grafischen Co-Prozessoren, wie man sie von NVIDIA kennt.

In dieser Kategorie tummelt sich auch der IBM-eigene Hochleistungschip TrueNorth, der bereits erste Rekorde aufgestellt hat und eben genau wie das menschliche Gehirn arbeitet. An dieser Stelle kommt Herr Köster geradezu ins Schwärmen, da die CPU gerade mal 70 Milliwatt im Betrieb verbraucht, weil sie ganz anders arbeitet als die Von-Neumann-Prozessoren.

Dr. Axel Köster im Videointerview

Wer die hier genannten Informationen lieber aus erster Hand bezieht, der klicke oder tippe auf den Startknopf des Videointerviews von und mit Axel Köster. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

IBM Havyn - interalktiver Security-Assistent inspired by IBM Watson

Projekt „Havyn“: IBM und Watson sagen Cybercrime den Kampf an

Heute Mittag erst habe ich über die bevorstehende Sicherheitskonferenz und -messe IT-SA und den geplanten Messeauftritt von IBM berichtet. Teil dieser Messepräsenz wird das Projekt „Havyn“ sein, das auf Basis der Watson-Technik eine ganze neue Herangehensweise bei der Beantwortung von sicherheitsrelevanten Fragen ermöglichen soll. Ich habe mir das mal ein wenig genauer angesehen und kann nur sagen: toll!

Entwickelt wurde Havyn von Michael Spisak und seinem Team bei IBM. Die Idee dazu lieferte allerdings der 11-Jährige Sohn von Spisak, Evan, der seinem Dad eines Tages bei der Arbeit an einer Watson-Anwendung zusah. Dabei kommunizierte Spisak mit Watson mittels einer herkömmlichen Tastatur, was Evan wohl ziemlich unpraktisch und uncool fand. So machte er den Vorschlag, das Gespräch mit Watson ganz natürlich per Sprache zu suchen.

Raspberry Pi + Touchscreen = Watson-Sprachzentrale Havyn

Und so machten sich Vater und Sohn daran, ein Raspberry Pi-Board samt Touchscreen zu bestellen, um daraus die Watson-Kommunikationszentrale zu bauen. Auf diesem Weg entstand eine sprachbasierte Schnittstelle zu IBM Watson, mit der die Unterhaltung und das Stellen von sicherheitsrelevanten Fragen deutlich vereinfacht werden kann.

Michael Spisak sieht in Havyn einen Sicherheitsexperten, der eine Vielzahl von IT-Bedrohungen schneller, zuverlässiger und komplexer darstellen kann als jeder IT-Experte, der sich seit Jahren mit dem Thema Sicherheit beschäftigt.

So schlummert in Havyn noch großes Potential, das nur darauf wartet,  weiterhin von klugen Köpfen abgerufen und freigelegt zu werden. So wie von ihm selbst und seinem Sohn Evan, mit dem er weiterhin an Havyn herumbastelt und damit neue Möglichkeiten schaffen will.

Wie das Ganze aussieht, kann man sich vom 10. bis 12. Oktober 2017 in Halle 10 am IBM-Stand hautnah ansehen. Seien Sie gespannt darauf – so wie ich es schon bin.

httpss://www.youtube.com/watch?v=nVyqGKhLBcY

CeBIT 2017: Ulrich Walter von IBM über Künstliche Intelligenz und IBM-Systeme

Am letzten Tag der CeBIT 2017 hatte ich das Vergnügen, mit Ulrich „Uli“ Walter von IBM über das Thema Künstliche Intelligenz zu plaudern. Dabei verriet er mir, was IBM Systems mit KI zu tun hat, welche Rechenpower dafür erforderlich ist und was in diesem Kontext IBM empfiehlt. Und warum schneller Speicher auch wichtig, habe ich ebenfalls von Uli erfahren.

Unstrukturierte Daten erfordern superschnelle Rechnersysteme

Was IBM-Systeme mit Künstlicher Intelligenz zu tun haben, wollte ich gerne wissen. Nun, das sei doch die Basis von KI: Eine schnelle Maschine, auf der sich rechenintensive und hochkomplexe Anwendungen wie Maschine Learning und Deep Learning mühelos ausführen lassen.

Dazu zählt aber nicht nur die reine Rechenleistung, sondern auch die Speicherleistung, die solch ein Hochleistungsserver bereitstellen muss. Denn gerade die Künstliche Intelligenz hantiert oft und gerne mit unstrukturierten Daten (Videos, Social-Media-Daten, etc.), die superschnelle Speichersysteme erfordern.

IBM POWER8-Systeme leisten mehr als Google Brain auf engstem Raum

Doch warum ist es heute einfacher, KI-Anwendungen zu realisieren? Für die Beantwortung dieser Frage zog Uli das Beispiel „Google Brain“ zurate. Dieser Supercomputer weist 16.000 Computer-Knoten auf und erzielt damit eine Rechenleistung von 50 TeraFLOPS .

Dieselbe Rechenleistung bietet heute, also gerade einmal fünf Jahre später, ein IBM POWER8-basiertes System, das deutlich preisgünstiger und kleiner ist und damit auch deutlich weniger Strom verbraucht. Das macht solche Systeme selbst für kleinere Firmen durchaus attraktiv.

POWER8 + NVIDIA + Mellanox = starkes KI-System

Die wesentliche Aufgabe der Künstlichen Intelligenz besteht laut Uli vor allem in der Wertschöpfung der zugrunde liegenden Daten, mit denen sich beispielsweise Konsumentenverhalten voraussagen, Präventionsmaßnahmen im öffentlichen Raum ableiten oder Versicherungsfälle aufklären lassen.

Für diese äußert rechenintensiven Anwendungen empfiehlt IBM natürlich eine Rechenmaschine vom Typ POWER8, in der obendrein NVIDIA-GPUs mit NVLink-Technik und Mellanox-Komponenten ihren Dienst verrichten. Damit bekommt man Rechenboliden an die Hand, die bis zu 80 TeraFLOPS und extrem hohe Datenbandbreiten liefern.

Mit POWER9 kommt noch mehr KI-Leistung in die Rechenzentren

Wie es weitergeht, wollte ich natürlich auch noch gerne wissen. Nun, hier befindet sich die POWER9-Prozessortechnik quasi auf der Zielgeraden. Mit diesen nächsten Hochleistungs-CPUs und -GPUs von IBM wird auf erneut kleiner werdendem Raum die Grundlage für künftige KI-Anwendungen geschaffen. Eine erste, grobe Schätzung geht von 100 TeraFLOPS aus, was eine deutliche Leistungssteigerung darstellt.

IBM hat auch KI-taugliche Speichersystem im Portfolio

Welche Speicherlösungen seitens IBM für das Thema Künstliche Intelligenz und Cognitive Computing zur Verfügung stehen, das erzählt Uli ab Minute 3:50 am besten selbst. Na dann: Film ab!

Oliver Droske von IBM zum Watson IoT Center in München

[Videochat] „München ist ein sehr attraktiver Standort für Watson“

Am vergangenen Dienstag habe ich über eine IBM-Veranstaltung berichtet, auf der ich zugegen sein durfte. Auf diesem Event im 16. Stockwerk wurde höchstoffiziell das IBM Watson IoT Center eröffnet, das künftig Firmen und Forschungseinrichtungen helfen soll, mithilfe von Cognitive Computing die drängendsten Fragen unserer Zeit zu beantworten. Dazu gehören zweifellos die aktuellen klimatechnischen Herausforderungen, aber auch das optimale Betreiben von Windkrafträdern und Aufzügen zählen zu den Aufgaben, die Unternehmen dank Watson in Zukunft schneller, genauer und zufrieden stellender lösen können.

Was mich am neuen IBM-Projekt als (wenn auch nicht gebürtiger) Münchner besonders begeistert ist die Tatsache, dass „Big Blue“ die bayerische Landeshauptstadt als Standort für Watson gewählt hat. Klar, hier sind zahlreiche namhafte IT-Firmen ansässig (Intel, Microsoft, Infineon, etc.) und vor allem eine technische Universität, die einen sehr guten Ruf genießt. Darüber hinaus zeichnet sich München durch eine Vielzahl renommierter Firmen außerhalb der IT auf, wie die Beispiele Allianz, die Münchner Re und Rodenstock belegen. Diese und viele andere Unternehmen können und werden Watson künftig dazu nutzen, ihre Produkte und Lösungen hoffentlich noch besser zu machen.

Während des Events hatte ich die Gelegenheit, neben dem Interview mit Bret Greenstein das folgende Gespräch mit Oliver Droske von IBM zu führen, der maßgeblich an der Entstehung des IBM Watson IoT Center beteiligt ist. Natürlich wollte ich von ihm wissen, warum sich IBM für den Standort München entschieden und was die bayerische Staatspolitik damit zu tun hat. Aber auch die Fragen, was genau im Watson IoT Center passieren wird und welche Experten hierfür gesucht werden, hat mir Oliver Droske geduldig beantwortet.

Und, schon gespannt, was einer zuständigen IBM-Experten zum Münchner Watson IoT-Zentrum zu sagen hat? Na, dann sollten Sie ganz schnell auf den Play-Knopf klicken oder tippen und den Antworten von Oliver Droske lauschen.

Bret Greenstein von IBM zu Watson und IoT

[Videochat] „Das Internet of Things ist größer als wir alle!“

Vorgestern war ich in den HighLight Towers zu München, einer Einladung von IBM folgend. Ich wusste lediglich, dass das Thema „IBM Watson und Internet of Things“ auf der Agenda stand. Da mich beides sehr interessiert, bin ich dem Ruf von Big Blue gefolgt (allerdings nicht nur deswegen). Tja, und was soll ich sagen: Meine Überraschung konnte nicht größer sein, als ich den Anlass für das IBM-Event in luftiger Höhe (16. Stock!) erfahren habe.

Denn dort fand nicht irgendeine PR-Veranstaltung statt, sondern die offizielle Neueröffnung des IBM Watson IoT Center, in dem künftig rund 1.000 Experten und Fachleute dafür sorgen werden, zahlreichen Firmen und Forschungseinrichtungen die Dienste von Watson zur Verfügung zu stellen. Auf dass sie die drängendsten Fragen unserer Zeit beantwortet bekommen.

Natürlich habe ich die Gunst der Stunde genutzt und habe mit einem der anwesenden IBM-Experten ein Videointerview zum Thema Watson und IoT geführt. Darin beantwortet Bret Greenstein diverse Fragen, die allesamt mit Watson und dem Internet der Dinge zu tun haben. Und Bret sollte es wissen: Schließlich ist er Vice President IoT Solutions und seit 1988 bei IBM.

Natürlich wollte ich hören, was denn derzeit die größten Herausforderungen in Sachen IoT sind und wie IBM helfen kann, die damit verknüpften Aufgaben zu lösen. Zudem drängt sich im Zusammenhang mit dem Internet der Dinge die Frage auf, was IBM Watson damit zu tun hat und wie diese Cognitive Computing-Maschine die passenden Antworten auf die aktuellen Probleme findet.

Und, schon neugierig, was Bret zu meinen Fragen zu sagen hatte? Dann sollten Sie nicht zögern, diesem Video dreieinhalb Minuten zu spendieren. Das hat es auf jeden Fall verdient…

IBM Watson IoT Center in München

IBM eröffnet das weltweite Watson IoT Center in München [Upd]

IBM Watson IoT Center in MünchenDas ist mal ein echter Knaller: Eines meiner IBM Lieblingsthemen, nämlich der Kognitiv-Superrechner Watson, den ich auf dem Hightech Computing Blog schon mehrfach besprochen habe, kommt nach München. Genauer gesagt in die HighLight Towers im Norden der bayerischen Hauptstadt. Das ist aus mehreren Gesichtspunkten sehr bemerkenswert.

Es ist natürlich nicht so, dass solch eine neu zu gründende Forschung- und Entwicklungszentrale aus IBM-Sicht so ungewöhnlich wäre. So unterhält „Big Blue“ in Böblingen bei Stuttgart seit vielen Jahrzehnten ein großes R&D-Labor, das sich unter anderem um die Entwicklung des IBM Power-Prozessors kümmert. Mit einem der Leiter, Herrn Dr. Maier, habe ich schon mehrfach Interviews geführt.

Darüber hinaus kann man München ohne Übertreibung als das Herz der deutschen IT bezeichnen. Somit ist es kaum überraschend, dass sich IBM für München als Watson-Standort entschieden hat. Dazu konnte sicherlich auch die aktuelle Staatsregierung beitragen, und das in persona Ilse Aigner, die sich immer wieder rund um neue IT-Projekte einen Namen gemacht hat. So möchte ich das Werk1 im Kunstpark Ost erwähnen, das sie in gewisser Weise als ihr „Baby“ sieht und wo sie schon des öfteren gesichtet wurde. So wie hier heute auch, nebenbei bemerkt.

Für die Entscheidung, aus München die IBM Watson-IoT-Zentrale zu machen, sprechen aber sicherlich auch die vielen, vielen IT-Unternehmen, die hier oder im Umland niedergelassen sind. Ob Microsoft, IBM selbst oder andere namhafte Firmen zeugen von einer hohen Innovationskraft, die diese Stadt prägt.

IBM hat übrigens mehrere Stockwerke in den HighLight Towers angemietet, die in den nächsten Monaten sukzessive bezogen werden sollen. Die Rede ist von 1.000 neuen Arbeitsplätzen, die hier entstehen werden. Das ist ziemlich genau die Hälfte aller Arbeitsstellen, die mit dem Thema Watson IoT verknüpft sind. Eine sehr beeindruckende Zahl, die sich München ans Revers heften darf.

Mehr dazu gibt es demnächst auf diesem Kanal, und zwar in Form eines Videointerviews, das ich in den nächsten Minuten mit einem der zuständigen Projektmanager führen werden, der für das Münchener Watson IoT Center mitverantwortlich ist.

Update: Das Videointerview mit Oliver Droske samt nützlicher Zusatzinfos ist online. Und das mit Bret Greenstein zum Thema Watson und IoT auch.