Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Thomas Harrer von IBM über KI und Daten

Videoblog: „Die KI wird uns helfen, die Welt besser zu verstehen“

Dieses Interview habe ich auf den IBM Storage Strategy Days 2018 mit Thomas Harrer geführt. Darin spricht er über die Notwendigkeit guter und valider Daten für KI-Anwendungen und was das für aktuelle und künftige Storage-Systeme bedeutet.

Die Datenexplosion der nächsten Jahre und ihre Folgen

Eine der wesentlichen Grundvoraussetzungen für eine funktionierende Künstliche Intelligenz ist das Bereitstellen und Vorhalten der benötigten Daten, die meist in großer Zahl vorliegen. Daher ist die richtige Storage-Strategie unerlässlich, will man die KI bestmöglich einsetzen und nutzen.

Eine Besonderheit kommt hierbei den unstrukturierten Daten zu, die im Verhältnis zu den strukturierten Daten deutlich schneller wachsen. Diese erfordern sehr viel leistungsfähigere und größere Speichersysteme, da hier die Datenmengen exponentiell wachsen. Das lässt sich sehr gut anhand einiger markanter Zahlen verdeutlichen.

Bis zum Jahr 2000 wurden weltweit etwa 2 Exabyte an Daten gespeichert. Das betraf alles von Büchern über Filme und anderen Informationen. Umgerechnet entspricht das 2.000 Petabyte. Mittlerweile werden 14 Exabyte an Daten generiert – und zwar pro Tag, woraus sich eine weltweit gespeicherte Datenmenge am Jahresende ergibt, die sich auf unglaubliche 20 Zettabyte beläuft.  Das sind 1.000.000.000.000.000.000.000 Bytes, also eine Million mal 1 Million mal eine Million mal 1.000.

Und diese Entwicklung schreitet weiter voran. So schätzen Experten, dass bis zum Jahr 2025 die Menschheit in etwa 165 Zettabyte an Daten generieren wird. Und was das für die benötigten Speichersysteme bedeutet, kann man sich wohl in etwa ausmalen.

Bereiche wie die Medizin treiben große Datenmenge voran

Dank medizinischer Apparaturen wie Mikroskope, Röntgengeräte, etc. werden schon seit vielen Jahren kontinuierlich Daten gesammelt und gespeichert. Hinzu kommt jetzt die Möglichkeit, das menschliche Genom immer kostengünstiger und besser analysieren und speichern zu können, wofür „nur“ etwa 700 Megabyte Datenspeicher erforderlich sind.

Will man allerdings noch das Genom sämtlicher menschlicher Bakterien entschlüsseln und protokollieren, verhält sich das gleich völlig anders. Hier kommen ganz schnell Terabyte an Daten zusammen, und das pro Patient! Was aber gleichzeitig bedeutet, dass die Erkenntnisse daraus neue Therapieformen ermöglichen, mit denen sich Patienten immer individueller behandeln lassen.

Die Künstliche Intelligenz hilft, die Welt besser zu verstehen

Die KI soll und wird uns helfen, die Welt anhand von Daten besser zu verstehen. Als Beispiel seien hier Videobilder zu nennen, die Geschehnisse aufzeichnen, die Bilder liefern für bestimmte Lebenslagen, und so fort. Klar ist hierbei, dass so sehr schnell riesige Datenmengen entstehen, die obendrein mit den typischen prozeduralen Algorithmen gar nicht richtig erfasst und verstanden werden können.

Daher sind neue Konzepte und Ansätze erforderlich, die vor allem auf Basis unstrukturierter Daten die Informationen liefern, die wir brauchen. Dazu gehören beispielsweise neuronale Netze, die mit diesen Daten ganz anders umgehen können und auch deutlich lernfähiger sind als die herkömmlichen Rechenansätze. So hilft die KI selbstfahrenden Autos, Gegenstände auf der Fahrbahn besser und schneller zu erkennen, weil sie permanent dazu lernen. Damit können autonom betriebene Fahrzeuge in Echtzeit entscheiden, wann sie bremsen sollen oder einem Hindernis einfach nur ausweichen können.

Das und vieles mehr wird uns helfen, die Welt ein bisschen verständlicher zu machen und die Automatisierung vieler Abläufe voranzutreiben.

Das komplette Videointerview mit Thomas Harrer

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Ein weiteres Interview von den IBM Storage Strategy Days 2018

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

 

Ralf Colbus über KI-taugliche Speichersysteme

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

Dieses Interview habe ich mit Ralf Colbus von IBM Deutschland anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über die Rolle von Strorage-Systemen im Kontext leistungshungriger KI-Anwendungen, wie sie immer häufiger zum Einsatz kommen. Und über ein Tool, das künftig Datenwissenschaftlern helfen soll, Daten zielgerichteter und schneller zu finden.

Storage-Lösungen für KI-Anwendungen müssen zahlreichen Anforderungen genügen

KI-Anwendungen durchlaufen verschiedene Phasen, und vor allem daran sollten sich die entsprechenden Storage-Systeme orientieren. So werden im ersten Schritt sämtliche Daten für die Lernphase gesammelt, und das aus ganz unterschiedlichen Quellen, was ein System erfordert, das sowohl mit strukturierten als auch unstrukturierten Datentypen klar kommt.

Darüber hinaus muss man sich die Frage stellen: Habe ich überhaupt genug Speicherplatz für all die Daten. Hierbei geht es also um Aspekte wie die passenden Schnittstellen und die richtigen  Speichersysteme wie NAS, die ich hierfür brauche.

Als Nächstes sind die Verarbeitung und die Präparation an der Reihe. Hierzu gehört vor allem das sogenannte Taggen, also das Versehen der Daten mit Metatags. Die helfen dem Data Scientist, Daten von Anfang besser zuordnen und kategorisieren zu können. Denn wie die Praxis zeigt, verschwenden Datenwissenschaftler Zweidrittel ihrer Arbeitszeit mit dem Suchen und Auffinden der richtigen Daten. Was angesichts ihrer Stundensätze ein kaum hinnehmbarer Zustand ist.

Sobald die Verschlagwortung der Daten abgeschlossen ist, wird dieser meist riesige Datensatz in den Rechner geladen, der sie verarbeiten soll, was zum einen enorme Rechenzeiten und zum anderen schnelle Datenverbindungen erfordert.

Aber auch das Thema Datenarchivierung spielt in diesem Kontext mitunter eine gewichtige Rolle, also muss das Speichersystem auch hierfür geeignet sein. Denkbar sind hier Fälle des Autonomen Fahrens, bei denen es beispielsweise zu einem Unfall kommt, dessen rechtliche Lage eindeutig geklärt werden muss. Hierbei dreht es sich zum Beispiel um Fragen nach den Algorithmen, mit deren Hilfe das KI-Modell erstellt wurde, etc.

 Mit „MetaOcean“ gibt IBM Datenwissenschaftlern das richtige Tool an die Hand

Hinter dem Projekt „MetaOcean“ verbirgt sich der Versuch seitens IBM, vor allem Data Scientists bei der Suche nach den richtigen Daten für ihr spezielles KI-Projekt bestmöglich zu unterstützen. Hiermit lassen sich Daten von vornherein mit den passenden Schlagwörter versehen, also taggen. Das Tool kann zudem Datendoubletten ausfindig machen, was den notwendigen Datenbestand von Anfang an auf ein Minimum reduziert. Darüber hinaus erfolgt das Verschlagworten von Daten teilweise automatisiert, sodass die KI-Wissenschaftler diese Arbeit nicht ausschließlich manuell erledigen müssen.

Das Gute daran: IBM wird das Projekt „MetaOcean“ im Laufe des Herbst in ein „richtiges“ Produkt überführen, das die Datenwissenschaftlern dieser Welt beim schnellen Auffinden der richtigen Daten unterstützen und so ihre kostbare Zeit schonen soll.

Das komplette Videointerview mit Ralf Colbus

Disclaimer: Für das Erstellen dieses Videoblogpost hat mit IBM Deutschland beauftragt. Bei der Ausgestaltung der Inhalte hatte ich freie Hand.

Peter Ratuschni, Dt. Nationalbibliothek, über IBM Spectrum Scale

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

Auf dem großen IBM Spectrum Scale Strategy Days-Event hatte ich die Gelegenheit, dieses Videointerview mit Peter Ratuschni von der Deutschen Nationalbibliothek zu führen. Darin spricht er von gesetzlichen Verpflichtungen, großen Datenmengen sowie interessanten und wichtigen Gesprächen mit IBM-Entwicklern zum Thema Software-definded Storage.

Da Herr Ratuschni für den gesamten IT-Bereich der Dt. Nationalbibliothek verantwortlich ist, trafen er und sein Team die Entscheidung, IBM Spectrum Scale für den Storage-Fuhrpark einzusetzen. Und das aus diversen Gründen. So hat die Dt. Nationalbibliothek den gesetzlichen Auftrag, sämtliche Publikationen in Deutschland für die Nachwelt zu archivieren und zu wissenschaftlichen Zwecken zur Verfügung zu stellen. Da auf diese Weise große Datenmengen zustande kommen, setzt die Dt. Nationalbibliothek zwei IBM-Speichersysteme vom Typ Elasctic Storage Server zu Präsentationszwecken ein, auf denen IBM Spectrum Scale implementiert wurde.

Schneller Datenzugriff mit eindeutigen Dateipfaden – das ermöglicht IBM Spectrum Scale

Diese Kombination führt laut Herrn Ratuschni zu verzögerungsfreien Zugriffen auf beliebige elektronische Dokumente innerhalb der riesigen Datenbestände der Dt. Nationalbibliothek. Doch nicht nur das schnelle Bereitstellen der gewünschte Objekte steht im Vordergrund, sondern auch der garantierte Zugriff über stets dieselben Dateipfade, was mit IBM Spectrum Scale ermöglicht wird. In Ergänzung zu Spectrum Scale kommt in der Dt. Nationalbibliothek auch IBM Spectrum Protect zum Einsatz. Diese Datensicherungslösung von IBM zielt vor allem auf virtuelle Storage-Umgebungen ab, weswegen sich die Dt. Nationalbibliothek genau dafür entschieden hat.

„Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event“

Natürlich hat mich auch interessiert, warum Herr Ratuschni auf der IBM Spectrum Scale-Veranstaltung war. Bereits zum dritten Mal dabei, sieht er das Event als sehr gute Möglichkeit, alle Neuigkeiten rund um die Software-defined Storage-Lösung von IBM zu konsumieren. Obendrein schätzt er die Gelegenheit, mit IBM-Entwicklern aus Deutschland und den USA zu sprechen und so drängende Fragen zu klären. Zudem waren Veränderungen rund um den Spectrum Scale-Service für Herrn Ratuschni von großem Interesse, die ebenfalls auf dem Event vorgestellt wurden.

Dt. Nationalbibliothek, SVA und IBM – ein erprobtes Team

Interessant wurde es auch am Ende des Interviews, als die Zusammenarbeit zwischen der Dt. Nationalbibliothek und IBM ins Gespräch kam. So habe ich gelernt, dass die Firma SVA aus Wiesbaden (die ich auch schon unterstützen durfte), den Rahmenvertrag mit dem Bund in Sachen IBM-Storageprodukte inne hält. Daraus ergibt sich laut Herrn Ratuschni eine sehr gute Zusammenarbeit zwischen der Dt. Nationalbibliothek, IBM und SVA, was vor allem das Beschaffen und Bereitstellen benötigter Storage-Lösungen betrifft.

Das komplette Videointerview mit Peter Ratuschni in voller Länge

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Alf Wachsmann vom Max Delbrück Institut über IBM Spectrum Scale

[Videochat] „Das IBM Spectrum Scale-Event ist wirklich fantastisch!“

Anlässlich der IBM Spectrum Scale Strategy Days 2018 konnte ich dieses Videointerview mit Alf Wachsmann vom Max Delbrück Centrum für molekulare Medizin führen. Darin spricht er über den aktuellen und geplanten Einsatz der Spectrum Scale-Technik innerhalb seines Instituts sowie über das Event selbst und warum er nach Ehningen zu IBM gereist ist.

Zunächst einmal wollte ich wissen, wovon der Vortrag von Herrn Wachsmann auf dem IBM-Event handelte. Nun, das Max Delbrück Centrum mit seiner Grundlagenforschung kam genauso zur Sprache wie die Einsatzbereiche von IBM Spectrum Scale, was eine perfekte Überleitung zur zweiten Frage war.

httpss://twitter.com/mhuelskoetter/status/968835972879323142

Die Software-defined Storage-Lösung namens Spectrum Scale kommt am Max Delbrück-Institut derzeit hauptsächlich zu Datenspeicherungszwecken zum Einsatz. Denn aufgrund von medizinischen Anwendungsfeldern wie Gensequenzierung, Massenspektrometrie und Mikroskopie werden am Max Delbrück Centrum riesige Datenmengen generiert, die unterschiedliche Zugriffscharakteristiken und Größen aufweisen.

IBM Spectrum Scale erlaubt einen enormen Datendurchsatz und kurze Wartezeiten

Daher können diese Daten nicht mit einem herkömmlichen Dateisystem verwaltet und analysiert werden, sondern erfordern eine Hochleistungssoftware wie IBM Spectrum Scale. Alleine schon aus Durchsatz-, aber auch aus Zeitgründen sind die Anwender des Instituts auf ein solch schnelles Datenspeichersystem angewiesen.

Doch setzt das Max Delbrück Centrum IBM Spectrum Scale überhaupt mit all seinen Möglichkeiten ein? Das konnte Herr Wachsmann mit einem „Nein“ beantworten, ergänzte aber auch gleichzeitig, dass er und sein Team die IBM-Software künftig intensiver und breiter nutzen wollen. Denn neben den bisher verwendeten Funktionen „Quotas“ und „Snapshots“ möchte er ein umfassendes Datenmangement auf Spectrum Scale-Basis implementieren.

Mithilfe der Policy Engine „Cold Data“ automatisch auf günstigere Datenspeicher transferieren

Das soll auf Basis der Policy Engine dazu führen, dass selten genutzte Dateien vom schnellen und teueren Massenspeicher automatisch auf kostengünstigere, weil langsamere Speicherbereiche zu transferiert werden. Das geht dann so weit, dass diese „kalten“ Daten letztendlich auf Bandlaufwerken landen, und das alleine schon aus Gründe der Compliance, also aufgrund von gesetzlichen Regelungen.

Für die IBM Spectrum Strategy Days 2018 hat Herr Wachsmann nur ein Wort übrig: „Fantastisch“. Das liegt zum einen an den wertvollen Informationen, aber auch an der Möglichkeit, sich mit Kollegen und IBM-Experten vor Ort auszutauschen. Denn auf diese Weise kann man etwas über Lösungsansätze anderer Firmen erfahren, auf deren Suche man gerade selbst ist. Das geht dann so weit, dass anwesende IBM-Vertreter bei der Bewältigung von Herausforderungen rund um Spectrum Scale helfen können.

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

IBM Spectrum Scale Strategy Days 2018

IBM Spectrum Scale Strategy Days 2018: Ehningen, I’m coming! [UPDATE]

Das werden meine ersten IBM Spectrum Scale Strategy Days, die ich als „eingekaufter“ Videoblogger begleiten darf. Spectrum Scale? Noch nie gehört? Ok, dann eine kurze Erklärung:

IBM Spectrum Scale ist eine skalierbare Hochleistungslösung für das Daten- und Dateimanagement (auf Basis der Technologie von IBM General Parallel File System oder GPFS, auch bekannt unter dem Codenamen Elastic Storage), die in unterschiedlichen Branchen weltweit zum Einsatz kommt. IBM Spectrum Scale vereinfacht das Datenmanagement und bietet integrierte Tools für den Informationslebenszyklus, die Petabyte an Daten und Milliarden Dateien verwalten können. So lassen sich die steigenden Kosten für das Management der ständig zunehmenden Datenmengen im Griff behalten. (Quelle: SVA GmbH)

Der IBM SSSD 2018 gliedert sich in drei Teile, wovon der erste Tag dem Einstieg in die Welt der Spectrum Scale-Softwarelösung vorbehalten ist, an den Tagen zwei und drei kommen dann zahlreiche IBM-Experten, aber auch IBM-Kunden zu Wort.

Fünf davon, genauer gesagt zwei IBM- und drei Kundenvertreter, werde ich mit meiner Videokamera befragen dürfen. Schließlich sollen die vielen Informationen, die dort präsentiert werden, nicht wieder einfach so versickern. Als Interviewpartner sind momentan folgende Personen vorgesehen:

  • Dirk Thometzek von Rohde & Schwarz GmbH & Co. KG
  • Alf Wachsmann vom Max Delbrück Center for Molecular Medicine
  • Alexander Gast vom WDR
  • Piyush Chaudhary von IBM
  • Kevin Gildea von IBM

Alle fünf Interviewpartner haben eine ganze Menge zu erzählen zum Thema IBM Spectrum Scale und Software-defined Storage. So werde ich unter anderem wissen wollen, wie IBM Spectrum Scale bei den Kunden zum Einsatz kommt, wie sich Spectrum Scale und Hadoop/Spark gegenseitig ergänzen, was Spectrum Scale und Künstliche Intelligenz miteinander zu tun haben, und einiges mehr.

Vier der fünf Interviewpartner werden einen eigenen Vortrag halten, die ich wie gewohnt per Twitter verfolgen und kommentieren werde. Das sind wie folgt:

10:15 – 10:40Keynote: Cognitive Computing and Spectrum ScaleKevin Gildea
10:40 – 11:05Spectrum Scale Big Data & Analytics InitiativePiyush Chaudhary (IBM)
Florian von Walter (HortonWorks)
14:00 – 14:20Kundenbericht – Max Dellbrück Center (MDC)Alf Wachsmann (MDC)
15:40 – 16:00Kundenbericht – Rohde & SchwarzDirk Thometzek (R&S)

Darüber hinaus wird es weitere zahlreiche Informationen zum Thema IBM Spectrum Scale geben. Auszug gefällig?

  • Spectrum Scale Cloud Initiatitve
  • Was ist neu bei Spectrum Scale?
  • Erfahrungen aus der Portierung von Spectrum Scale auf IBM Z
  • uvm.

Seien Sie also gespannt auf das, was morgen, übermorgen und überübermorgen  in Ehningen passieren wird. Ich bin es auch. Und klar, dass ich die Videointerviews allesamt auf meinem Blog veröffentlichen werde.

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

[Videochat] „Das IBM Spectrum Scale-Event ist wirklich fantastisch!“

[Videochat] „Mit IBM Spectrum Scale gehen keine Daten verloren – trotz Speicherwechsel“

[Videochat] „Autonomes Fahren profitiert von IBM Spectrum Scale und Hadoop“

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Gero Dieckmann, SVA GmbH

[Video] Gero Dieckmann über den SVA StorageDay 2017

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg geführt. Darin spricht der neue Geschäftsstellenleiter Nord der SVA GmbH, Gero Dieckmann, über die Veranstaltung und warum die Kunden der SVA dieses Veranstaltungsformat sehr schätzen.

Was war denn das Hauptmotiv, den SVA StorageDay 2017 durchzuführen? Hier nennt Herr Dieckmann vor allem „geschichtliche Zusammenhänge“, da die SVA GmbH mit der Konzeption und Realisierung von Speichermanagementlösungen und Speichersystemen bekannt geworden ist. Auf dieser Basis kann das Unternehmen seit gut 20 Jahren ihre Kunden gewinnen und überzeugen.

Schwerpunkte und Themen des SVA StorageDay 2017

Kein Wunder also, dass der SVA StorageDay die Veranstaltungsreihe mit der längsten Historie innerhalb des Unternehmens darstellt, auf dem wieder einmal zahlreiche Themen und Schwerpunkte besprochen werden konnten.Dazu gehörten in Hamburg unter anderem:

Bei so vielen Themen stellt sich natürlich die Frage: Welche davon sind für die Teilnehmer des SVA StorageDay besonders interessant, warum also sind sie ins Millerntorstadion des FC St. Pauli gekommen? Auch hierfür lassen sich diverse Gründe nennen:

Viele gute Gründe für den SVA StorageDay 2017

  1. Intensive Gespräche mit den anwesenden IT-Architekten.
  2. Die Produktmanager und regionalen Speicherexperten waren ebenfalls für den direkten Austausch vor Ort.
  3. An den zahlreichen Partnerständen der anwesenden Hersteller konnten die Kunden und Teilnehmer des SVA Storageday Informationen aus erster Hand abgreifen.
  4. Die vielen Vorträge während der Veranstaltung boten zahlreiche weiterführende Informationen.
  5. Die coole Location sowie der geführte Rundgang durch das Fußballstadion des FC St. Pauli.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videos vom SVA StorageDay 2017

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Sven Kaminiski, SVA, über NetApp ONTAP

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Sven Kaminski von der SVA über die Flexibilität und Möglichkeiten, die NetApp-Produkte im Allgemeinen und die ONTAP-Applikation im Speziellen bieten.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Meine erste Frage bezog sich auf die unterschiedlichen Workloads, die sich mithilfe der aktuellen NetApp-Produktlösungen abbilden lassen. Hier ist vor allem die ONTAP-Serie zu nennen, die sämtliche Protokolle am Markt unterstützt. Dazu gehört beispielsweise CIFS/SMB inklusive diverser Sicherheitsfunktionen, NFS für Unix- und VMware-Anbindungen sowie iSCSI und Fibre Channel.

Hieraus ergeben sich zahlreiche Anwendungsmöglichkeiten wie zum Beispiel Splunk-Applikationen für das Erfassen und Speichern von Maschinen-Logdaten. Es lassen sich also laut Herr Kaminski 80 bis 90 Prozent aller aktuellen Workloads mit nur einer Anwendung erfassen und speichern, nämlich mit NetApp ONTAP. Hierfür werden obendrein Funktionen wie die Hochverfügbarkeit und Disaster Recovery unterstützt.

NetApp SolidFire für Next-Gen-Rechenzentren

Darüber hinaus hat NetApp die SolidFire-Produktreihe im Portfolio, mit der Rechenzentren der nächsten Generation ausgestattet werden können. Diese Storage-Systeme wenden sich beispielsweise an Service Provider, die bestimmte Speicherklassen definieren und zugesagte Minimum-I/Os einhalten wollen und müssen, da ihre Kunden genau das von ihnen erwarten.

NetApp ONTAP ist auf allen Cloud-Infrastrukturen zu Hause

Doch wie sorgt NetApp für ein Verschmelzen von Cloud und Rechenzentrum? Nun, auch hierfür bietet die ONTAP-Produktserie sämtliche Funktionen, die hierfür erforderlich sind. So lässt sie sich in Kombination mit einem Rechenzentrum sowohl in Private- als auch Public Cloud-Umgebungen einsetzen, je nach Anforderungen und Wünschen des Kunden. Damit müssen sich diese nicht für das ein oder andere RZ-Cloud-Modell entscheiden, sondern können jederzeit die für sie beste Kombination nutzen.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Gero Dieckmann über den SVA StorageDay 2017

Holger Fröhlich, SVA, über Hitachi Content Platform

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Holger Fröhlich von der SVA über die Bedeutung der Hitachi Content Platform (HCP) und warum diese Storage-Lösung als Objektspeicher immer mehr an Bedeutung gewinnt.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Mit der ersten Frage und ihrer Beantwortung wollte ich zunächst einmal verstehen, warum Objektspeicherlösungen wie die HCP eine immer wichtigere Rolle spielen. Die Erklärung hierfür ist recht simpel: Da das Datenaufkommen (vor allem der unstrukturierten Daten) in den nächsten Jahren weiterhin zunimmt, werden die herkömmlichen Storage-Systeme für diese Art der Datenspeicherung nicht mehr tauglich sein. Und das sowohl aus technischer als auch preislicher Hinsicht. Hierfür bieten sich eben Objektspeicherlösungen wie die HCP an, die mit riesigen Datenmengen bestens klar kommen, diese durchsuchbar machen und die eine sinnvolle Ergänzung für weitere Applikationen darstellen.

Die HCP ist äußerst vielseitig und äußerst effizient

Doch welche Vorzüge weist die Hitachi Content Platform in diesem Zusammenhang auf? Nun, auch dazu konnte mir Holger Fröhlich eine Menge erzählen. Das Marktforschungsunternehmen Gartner hat 2016 zwölf unterschiedliche Objektspeichersysteme genauer unter die Lupe genommen, und da hat die HCP speziell in den Kategorien Backup, Interoperabilität und Effizienz sehr gut abgeschnitten. Gerade bei der Interoperabilität besticht die HCP durch ihre vielfältigen Zugriffstechniken und -methoden. So wird unter anderem eine Schnittstelle zu Amazon S3 unterstützt, eine offene API, aber auch CIFS und NFS stehen für den Zugriff auf die HCP zur Verfügung.

Zudem macht die HCP in der Disziplin „Backup“ eine sehr gute Figur. Denn das Konzept der Hitachi-Appliance sieht vor, dass Daten gegenüber physikalischen und logischen Datenfehlern geschützt sind. Daraus ergibt sich, dass Daten nicht mehr extra gesichert müssen. Folge: Zu kurze Backup-Fenster oder ähnliche Dinge stellen für IT-Admins keine Herausforderung mehr dar. Die Daten liegen nämlich auf der HCP sehr sicher und sehr stabil.

Die HCP ist ein ausgeklügelter Soft- und Hardware-Verbund

Darüber hinaus hat mich das Zusammenspiel von vorhandener Soft- und Hardware aus dem Hause Hitachi interessiert. Namentlich sind das die HCP einerseits und der HDI (Hitachi Data Ingestor) sowie HCP Anywhere andererseits, die beide softwareseitig zum Einsatz kommen. Es handelt sich also um ein modulares System, mit der HCP als Basis und dem HDI und HCP Anywhere als Anwendungsprogramme.

Hierbei übernimmt der HDI die Aufgabe eines Daten-Cachesystems, mit dessen Hilfe Außenstellen per CIFS und NFS direkt auf die HCP zugreifen können. Und HCP Anywhere ist eine Applikation, mit der Daten verwaltet und auf verschiedenen Geräten synchronisiert werden können.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Informationen zum SVA StorageDay 2017

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Gero Dieckmann über den SVA StorageDay 2017