[Video] Dr. Axel Köster von IBM über Cognitive Storage

[Video] Dr. Axel Köster von IBM über Cognitive Storage

Während des IBM Storage Strategy Day 2017 in Ehningen habe ich dieses Interview mit Dr. Axel Köster geführt. Darin spricht er über Cognitive Storage und was es damit auf sich hat. Er zeigt, welche Speichertechniken bereits „Cognitive-ready“ sind und was das IBM Watson IoT Center damit zu tun hat.

Zunächst einmal gilt festzuhalten, dass Herr Köster einen tollen Titel trägt, er ist nämlich Cheftechnologe des Europäischen Speicherkompetenzzentrums in Frankfurt/Main. Zudem ist er Chairman der IBM Technical Expert Council (TEC) im deutschsprachigen Raum.

Von „Cognitive Storage“ und IBM Watson

Meine erste Frage führte mich direkt zum Thema des Interviews, was denn „Cognitive Storage“ sei. Dabei handelt es sich laut Herrn Köster um eine zweigeteilte Technologie: Einerseits handele es sich um hochparalellen Speicher für die kognitiven Algorithmen, die dafür sorgen, dass kognitive Systeme wie IBM Watson  überhaupt arbeiten können.

Zum anderen stehen diese Algorithmen auch für Storage-Systeme zur Verfügung, womit intelligenter Speicher möglich wird, der also lernt, was zu tun ist. Die Speichereinheit weiß zum Beispiel nach einer gewissen Zeit, welche Daten wichtig (Hot Data) und welche weniger wichtig (Cold Data) sind.

Kognitive Speichersysteme sind in 10 Jahren Standard-IT

Aber gibt es überhaupt schon Speichersysteme, die mit dieser Form von Künstlicher Intelligenz zurecht kommen. Ja, diese Systeme gibt laut Herrn Köster schon, die extrem parallel arbeiten. Allerdings kommen diese Hochleistungssysteme vor allem bei größeren Unternehmen zum Einsatz, kleineren Firmen mangelt es an solchen Systemen noch.

Aber, und da ist er sich sicher, müssen sich mittel- bis langfristig alle IT-Verantwortlichen mit dieser neuen Form des Speichers befassen, denn in etwa zehn Jahren wird das zur Standard-IT gehören.

Sensoren & Co. generieren große Datenmengen

Natürlich hat auch das IBM Watson IoT Center mit großen Datenmengen zu tun, die beim Einsammeln derselben generiert werden. Denn überall dort, wo beispielsweise Sensoren große Datenmengen produzieren, lassen sich neue Erkenntnisse gewinnen, die dann an anderer Stelle eingesetzt werden können.

Diese Ergebnisse werden nicht mithilfe von Algorithmen erzielt, sondern auf Basis neuronaler Netze, die wie das menschliche Gehirn funktionieren. Damit können zum Beispiel Gebiete identifiziert werden, in denen möglicherweise Hagelschaden entsteht, um daraus die richtigen Maßnahmen abzuleiten.

x86 ist für neuronales Rechnen nicht parallel genug, IBM TrueNorth schon

Doch neben den hohen Anforderungen an Speicher kommen auch den Recheneinheiten von kognitiven Systemen eine große Bedeutung zu. So hat mich interessiert, ob General Purpose Prozessoren wie der Intel x86 für solche Aufgaben geeignet seien. Und nein, sind sie nicht, da diese CPUs laut Herrn Köster nicht parallel genug arbeiten. Hierfür taugen eher die grafischen Co-Prozessoren, wie man sie von NVIDIA kennt.

In dieser Kategorie tummelt sich auch der IBM-eigene Hochleistungschip TrueNorth, der bereits erste Rekorde aufgestellt hat und eben genau wie das menschliche Gehirn arbeitet. An dieser Stelle kommt Herr Köster geradezu ins Schwärmen, da die CPU gerade mal 70 Milliwatt im Betrieb verbraucht, weil sie ganz anders arbeitet als die Von-Neumann-Prozessoren.

Dr. Axel Köster im Videointerview

Wer die hier genannten Informationen lieber aus erster Hand bezieht, der klicke oder tippe auf den Startknopf des Videointerviews von und mit Axel Köster. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Published by Michael Hülskötter

Ich bin Blogger, IT-Journalist, (Buch-)Autor, Videotrainer, Content Manager - und das alles in einer Person. Ich gehöre seit 1999 der schreibenden Zunft an, und es macht mir immer noch sehr viel Spaß. Lebe seit 1977 in München und habe drei wundervolle Kinder.

%d Bloggern gefällt das: