Konrad Trojok, SVA, über Cognitive Storage

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Konrad Trojok von der SVA über Cognitive Computing/Storage, und warum sich Unternehmen verstärkt mit diesem Thema beschäftigen sollten.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Zunächst einmal wollte ich von Herrn Trojok wissen, wie das kognitive Computing die IT-Landschaft verändern wird (kC ist ein IBM-geprägter Begriff, der die Themen Künstliche Intelligenz, Machine Learning, etc. umschreibt). Seiner Meinung nach wird Cognitive Computing die aktuellen IT-Strukturen maßgeblich verändern.

Weg vom reaktiven IT-Dienstleister, hin zur agierenden Fachabteilung

So wird das heutige Modell eines IT-Dienstleisters, der Services bereitstellt, der also lediglich auf die Anforderungen seiner Anwender reagiert, vollständig abgelöst von agierenden Fachabteilungen, deren Ideen und Konzepte die erforderlichen IT-Modelle vorgeben. Dabei werden vor allem die generierten Daten im Vordergrund stehen, die in weitaus erheblicherem Umfang genutzt werden, als das heute der Fall ist.

Doch was macht Herrn Trojok so sicher, dass sich Cognitive Computing resp. Cognitive Storage durchsetzen wird? Nun, die Begründung hierfür ist recht schlicht: Um selbstlernende Systeme nutzen zu können, sind große Datenmengen erforderlich, die in geeigneter Form gespeichert werden müssen. Dabei hilft eine aufstrebende, zunehmend „schlaue“ Technik, die sich Objektspeicher nennt.

Mit Objektspeicher lassen sich jegliche Datentypen sichern – und auswerten

Damit werden nämlich genau diese großen Datenpools samt ihrer Bearbeitung bzw. Analyse möglich sein, und das im Hinblick auf strukturierte und unstrukturierte Daten. Hierbei werden die unstrukturierten Daten – also Videos, Protokolldaten, etc. – kontinuierlich an Bedeutung gewinnen. Wichtig ist auch das Archivieren dieser Daten, die heute generiert, aber möglicherweise erst morgen oder übermorgen benötigt und verarbeitet werden.

Aber, auch da ist sich Herr Trojok sicher, hat die kognitive Reise eben erst angefangen. Daher ist man bei der SVA sehr froh darüber, mit IBM einen innovativen und visionären Partner in Sachen Cognitive Computing an seiner Seite zu haben. Denn gemeinsam mit den passenden IBM-Produkten und Lösungen zu den Themen Objektspeicher und Co. wird die Transformation vom klassischen IT-Speicher zu kognitiven Speicherlösungen gelingen.

Sicherheitsbehörden setzen erste kognitive Lösungen bereits ein

So gibt es erste Prototypen in diesem Bereich, die sehr optimistisch stimmen, dass das Unterfangen Speichertransformation gelingt. Diese kommen beispielsweise in Sicherheitsbehörden bereits zum Einsatz. Genau so werden mehr und mehr Unternehmen auf zunehmend standardisierte CC-Lösungen setzen, die bei erhöhter Verbreitung kostengünstiger werden. Damit mutieren visionäre Lösungen zu praxiserprobten Lösungen.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Gero Dieckmann über den SVA StorageDay 2017

Dr. Axel Köster (IBM) über Cognitive Storage

[Video] Dr. Axel Köster von IBM über Cognitive Storage

Während des IBM Storage Strategy Day 2017 in Ehningen habe ich dieses Interview mit Dr. Axel Köster geführt. Darin spricht er über Cognitive Storage und was es damit auf sich hat. Er zeigt, welche Speichertechniken bereits „Cognitive-ready“ sind und was das IBM Watson IoT Center damit zu tun hat.

Zunächst einmal gilt festzuhalten, dass Herr Köster einen tollen Titel trägt, er ist nämlich Cheftechnologe des Europäischen Speicherkompetenzzentrums in Frankfurt/Main. Zudem ist er Chairman der IBM Technical Expert Council (TEC) im deutschsprachigen Raum.

Von „Cognitive Storage“ und IBM Watson

Meine erste Frage führte mich direkt zum Thema des Interviews, was denn „Cognitive Storage“ sei. Dabei handelt es sich laut Herrn Köster um eine zweigeteilte Technologie: Einerseits handele es sich um hochparalellen Speicher für die kognitiven Algorithmen, die dafür sorgen, dass kognitive Systeme wie IBM Watson  überhaupt arbeiten können.

Zum anderen stehen diese Algorithmen auch für Storage-Systeme zur Verfügung, womit intelligenter Speicher möglich wird, der also lernt, was zu tun ist. Die Speichereinheit weiß zum Beispiel nach einer gewissen Zeit, welche Daten wichtig (Hot Data) und welche weniger wichtig (Cold Data) sind.

Kognitive Speichersysteme sind in 10 Jahren Standard-IT

Aber gibt es überhaupt schon Speichersysteme, die mit dieser Form von Künstlicher Intelligenz zurecht kommen. Ja, diese Systeme gibt laut Herrn Köster schon, die extrem parallel arbeiten. Allerdings kommen diese Hochleistungssysteme vor allem bei größeren Unternehmen zum Einsatz, kleineren Firmen mangelt es an solchen Systemen noch.

Aber, und da ist er sich sicher, müssen sich mittel- bis langfristig alle IT-Verantwortlichen mit dieser neuen Form des Speichers befassen, denn in etwa zehn Jahren wird das zur Standard-IT gehören.

Sensoren & Co. generieren große Datenmengen

Natürlich hat auch das IBM Watson IoT Center mit großen Datenmengen zu tun, die beim Einsammeln derselben generiert werden. Denn überall dort, wo beispielsweise Sensoren große Datenmengen produzieren, lassen sich neue Erkenntnisse gewinnen, die dann an anderer Stelle eingesetzt werden können.

Diese Ergebnisse werden nicht mithilfe von Algorithmen erzielt, sondern auf Basis neuronaler Netze, die wie das menschliche Gehirn funktionieren. Damit können zum Beispiel Gebiete identifiziert werden, in denen möglicherweise Hagelschaden entsteht, um daraus die richtigen Maßnahmen abzuleiten.

x86 ist für neuronales Rechnen nicht parallel genug, IBM TrueNorth schon

Doch neben den hohen Anforderungen an Speicher kommen auch den Recheneinheiten von kognitiven Systemen eine große Bedeutung zu. So hat mich interessiert, ob General Purpose Prozessoren wie der Intel x86 für solche Aufgaben geeignet seien. Und nein, sind sie nicht, da diese CPUs laut Herrn Köster nicht parallel genug arbeiten. Hierfür taugen eher die grafischen Co-Prozessoren, wie man sie von NVIDIA kennt.

In dieser Kategorie tummelt sich auch der IBM-eigene Hochleistungschip TrueNorth, der bereits erste Rekorde aufgestellt hat und eben genau wie das menschliche Gehirn arbeitet. An dieser Stelle kommt Herr Köster geradezu ins Schwärmen, da die CPU gerade mal 70 Milliwatt im Betrieb verbraucht, weil sie ganz anders arbeitet als die Von-Neumann-Prozessoren.

Dr. Axel Köster im Videointerview

Wer die hier genannten Informationen lieber aus erster Hand bezieht, der klicke oder tippe auf den Startknopf des Videointerviews von und mit Axel Köster. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Ulrich Walter, IBM, über Künstliche Intelligenz und Storage

Dieses Videointerview mit Ulrich Walter von IBM ist auf dem IBM Storage Strategy Day 2017 in Ehningen entstanden. Darin spricht er über den Zusammenhang von Künstlicher Intelligenz und Storage-Systemen, was entsprechende Speicherlösungen können müssen und was IBM dazu im Portfolio hat.

Ulrich Walter kümmert sich bei IBM um das Thema Cloud & Cognitive Infrastructure im Kontext von Künstlicher Intelligenz (KI) und HPC. Daher wollte ich unbedingt wissen, wie KI und Storage zusammenpassen. Das ist aus Ulrich Walters Sicht ganz eindeutig: KI-Systeme benötigen in ausreichendem Maße Daten, von und mit denen sie lernen können.

KI-Anwendungen erfordern leistungsstarke und ausreichend dimensionierte Storage-Systeme

Doch genügen die aktuellen Speichersysteme den Anforderungen, die KI-Systeme an zugehörige Storage-Lösungen stellen? Nun, auch dazu hat er eine klare Meinung: KI-Anwendungen wie das Autonome Fahren oder die Gesichtserkennung im öffentlichen Raum generieren sehr viele Daten, die zuverlässig bereit stehen müssen. Hierfür sind große, leistungsstarke Speichersysteme erforderlich, die es heute schon gibt.

Das ist beispielsweise die IBM ESS-Familie (Elastic Storage Server), in Verbindung mit der IBM Spectrum Scale Software. Damit sind hochskalierbare Speichersysteme möglich, mit denen sich Daten speichern lassen, die mehrere hundert Petabyte umfassen.

Auch IBM POWER-Systeme sind KI-Storage-tauglich

Wer es ein wenig individueller mag, der kann laut Ulrich Walter alternativ auf IBM POWER-Systeme zurückgreifen. Diese bieten offene Betriebs- und Dateisysteme, in denen wahlweise Platten-, SSD- oder zunehmend NVMe-Speichersysteme zum Einsatz kommen. Je nach Budget und Einsatzgebiet.

So, und für alle Informationen aus erster Hand startet per Mausklick oder Fingertipp das Videointerview von und mit Ulrich Walter. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

CeBIT 2017: Paulo Carvao, IBM Systems, über Cognitive Computing

Während der CeBIT 2017 hatte ich die Gelegenheit, dieses Videointerview mit Paulo Carvao von IBM zu führen. Während des Gesprächs erfuhr ich, warum Paulo und IBM auf der CeBIT waren, welche Trends in Sachen Künstliche Intelligenz und Cognitive Computing auf uns warten und was er vom Watson IoT Center in München hält.

Paolo und IBM hatten sich für die CeBIT fest vorgenommen, mit Kunden und Partnern ausführlich über das Thema Cognitive Computing und die kognitive Ära zu reden. Was ihnen offensichtlich gelungen ist, wenn man sich den IBM-Stand in Halle 2 angesehen und die Presseberichte verfolgt hat.

IT-Infrastruktur und Cognitive Computing müssen zusammenpassen

Damit eng verknüpft ist für Paolo und sein Team natürlich das Thema IT-Infrastruktur, also das Bereitstellen der passenden Hardware und Software für rechenintensive Aufgaben, wie sie beim Cognitive Computing anfallen. Dabei ist es vor allem wichtig, mit den enormen Datenmengen vernünftig umgehen zu können, die bei CC-Applikationen entstehen.

Drei Trends: Acceleratoren, Hybrid-Clouds und Techniktransformation

Doch welche Trends sieht IBM in Sachen Cognitive Computing? Nun, dazu gehören laut Paolo Carvao mindestens drei: Hardware-Acceleratoren, hybride Cloud-Infrastrukturen und die Transformation von vorhandenen Techniken.

Hardware-Acceleratoren sorgen dafür, dass speziell in heterogenen IT-Umgebungen Daten und Anwendungen so schnell wie möglich verarbeitet werden können. Zu den Acceleratoren gehören spezielle Grafikkarten und FPGAs, aber auch der Quantencomputer IBM Q.

Hybride Cloud-Infrastrukturen werden laut Paolo dafür sorgen, dass Public und Private Cloud-Anwendungen sinnvoll und sicher verschmelzen können.

Mit der Transformation vorhandener Techniken wie Blockchain werden sich angestammte Geschäftsmodelle vollständig verändern und neue Märkte erschließen.

IBM Watson IoT Center steht nicht zufällig in München

Zu guter Letzt wollte ich von Paolo noch wissen, welche Chancen das IBM Watson IoT Center für Deutschland und Europa bietet. Seine Antwort überrascht kaum:  es sei kein Zufall, dass das Watson IoT Headquarter in München entstanden ist. Bündeln sich doch hier die kreativen und innovativen Köpfe und Firmen der IT- und Automobil-Szene.

Oliver Droske von IBM zum Watson IoT Center in München

[Videochat] „München ist ein sehr attraktiver Standort für Watson“

Am vergangenen Dienstag habe ich über eine IBM-Veranstaltung berichtet, auf der ich zugegen sein durfte. Auf diesem Event im 16. Stockwerk wurde höchstoffiziell das IBM Watson IoT Center eröffnet, das künftig Firmen und Forschungseinrichtungen helfen soll, mithilfe von Cognitive Computing die drängendsten Fragen unserer Zeit zu beantworten. Dazu gehören zweifellos die aktuellen klimatechnischen Herausforderungen, aber auch das optimale Betreiben von Windkrafträdern und Aufzügen zählen zu den Aufgaben, die Unternehmen dank Watson in Zukunft schneller, genauer und zufrieden stellender lösen können.

Was mich am neuen IBM-Projekt als (wenn auch nicht gebürtiger) Münchner besonders begeistert ist die Tatsache, dass „Big Blue“ die bayerische Landeshauptstadt als Standort für Watson gewählt hat. Klar, hier sind zahlreiche namhafte IT-Firmen ansässig (Intel, Microsoft, Infineon, etc.) und vor allem eine technische Universität, die einen sehr guten Ruf genießt. Darüber hinaus zeichnet sich München durch eine Vielzahl renommierter Firmen außerhalb der IT auf, wie die Beispiele Allianz, die Münchner Re und Rodenstock belegen. Diese und viele andere Unternehmen können und werden Watson künftig dazu nutzen, ihre Produkte und Lösungen hoffentlich noch besser zu machen.

Während des Events hatte ich die Gelegenheit, neben dem Interview mit Bret Greenstein das folgende Gespräch mit Oliver Droske von IBM zu führen, der maßgeblich an der Entstehung des IBM Watson IoT Center beteiligt ist. Natürlich wollte ich von ihm wissen, warum sich IBM für den Standort München entschieden und was die bayerische Staatspolitik damit zu tun hat. Aber auch die Fragen, was genau im Watson IoT Center passieren wird und welche Experten hierfür gesucht werden, hat mir Oliver Droske geduldig beantwortet.

Und, schon gespannt, was einer zuständigen IBM-Experten zum Münchner Watson IoT-Zentrum zu sagen hat? Na, dann sollten Sie ganz schnell auf den Play-Knopf klicken oder tippen und den Antworten von Oliver Droske lauschen.

IBM Watson IoT Center in München

IBM eröffnet das weltweite Watson IoT Center in München [Upd]

IBM Watson IoT Center in MünchenDas ist mal ein echter Knaller: Eines meiner IBM Lieblingsthemen, nämlich der Kognitiv-Superrechner Watson, den ich auf dem Hightech Computing Blog schon mehrfach besprochen habe, kommt nach München. Genauer gesagt in die HighLight Towers im Norden der bayerischen Hauptstadt. Das ist aus mehreren Gesichtspunkten sehr bemerkenswert.

Es ist natürlich nicht so, dass solch eine neu zu gründende Forschung- und Entwicklungszentrale aus IBM-Sicht so ungewöhnlich wäre. So unterhält „Big Blue“ in Böblingen bei Stuttgart seit vielen Jahrzehnten ein großes R&D-Labor, das sich unter anderem um die Entwicklung des IBM Power-Prozessors kümmert. Mit einem der Leiter, Herrn Dr. Maier, habe ich schon mehrfach Interviews geführt.

Darüber hinaus kann man München ohne Übertreibung als das Herz der deutschen IT bezeichnen. Somit ist es kaum überraschend, dass sich IBM für München als Watson-Standort entschieden hat. Dazu konnte sicherlich auch die aktuelle Staatsregierung beitragen, und das in persona Ilse Aigner, die sich immer wieder rund um neue IT-Projekte einen Namen gemacht hat. So möchte ich das Werk1 im Kunstpark Ost erwähnen, das sie in gewisser Weise als ihr „Baby“ sieht und wo sie schon des öfteren gesichtet wurde. So wie hier heute auch, nebenbei bemerkt.

Für die Entscheidung, aus München die IBM Watson-IoT-Zentrale zu machen, sprechen aber sicherlich auch die vielen, vielen IT-Unternehmen, die hier oder im Umland niedergelassen sind. Ob Microsoft, IBM selbst oder andere namhafte Firmen zeugen von einer hohen Innovationskraft, die diese Stadt prägt.

IBM hat übrigens mehrere Stockwerke in den HighLight Towers angemietet, die in den nächsten Monaten sukzessive bezogen werden sollen. Die Rede ist von 1.000 neuen Arbeitsplätzen, die hier entstehen werden. Das ist ziemlich genau die Hälfte aller Arbeitsstellen, die mit dem Thema Watson IoT verknüpft sind. Eine sehr beeindruckende Zahl, die sich München ans Revers heften darf.

Mehr dazu gibt es demnächst auf diesem Kanal, und zwar in Form eines Videointerviews, das ich in den nächsten Minuten mit einem der zuständigen Projektmanager führen werden, der für das Münchener Watson IoT Center mitverantwortlich ist.

Update: Das Videointerview mit Oliver Droske samt nützlicher Zusatzinfos ist online. Und das mit Bret Greenstein zum Thema Watson und IoT auch.