Gero Dieckmann, SVA GmbH

[Video] Gero Dieckmann über den SVA StorageDay 2017

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg geführt. Darin spricht der neue Geschäftsstellenleiter Nord der SVA GmbH, Gero Dieckmann, über die Veranstaltung und warum die Kunden der SVA dieses Veranstaltungsformat sehr schätzen.

Was war denn das Hauptmotiv, den SVA StorageDay 2017 durchzuführen? Hier nennt Herr Dieckmann vor allem „geschichtliche Zusammenhänge“, da die SVA GmbH mit der Konzeption und Realisierung von Speichermanagementlösungen und Speichersystemen bekannt geworden ist. Auf dieser Basis kann das Unternehmen seit gut 20 Jahren ihre Kunden gewinnen und überzeugen.

Schwerpunkte und Themen des SVA StorageDay 2017

Kein Wunder also, dass der SVA StorageDay die Veranstaltungsreihe mit der längsten Historie innerhalb des Unternehmens darstellt, auf dem wieder einmal zahlreiche Themen und Schwerpunkte besprochen werden konnten.Dazu gehörten in Hamburg unter anderem:

Bei so vielen Themen stellt sich natürlich die Frage: Welche davon sind für die Teilnehmer des SVA StorageDay besonders interessant, warum also sind sie ins Millerntorstadion des FC St. Pauli gekommen? Auch hierfür lassen sich diverse Gründe nennen:

Viele gute Gründe für den SVA StorageDay 2017

  1. Intensive Gespräche mit den anwesenden IT-Architekten.
  2. Die Produktmanager und regionalen Speicherexperten waren ebenfalls für den direkten Austausch vor Ort.
  3. An den zahlreichen Partnerständen der anwesenden Hersteller konnten die Kunden und Teilnehmer des SVA Storageday Informationen aus erster Hand abgreifen.
  4. Die vielen Vorträge während der Veranstaltung boten zahlreiche weiterführende Informationen.
  5. Die coole Location sowie der geführte Rundgang durch das Fußballstadion des FC St. Pauli.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videos vom SVA StorageDay 2017

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Konrad Trojok, SVA, über Cognitive Storage

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Konrad Trojok von der SVA über Cognitive Computing/Storage, und warum sich Unternehmen verstärkt mit diesem Thema beschäftigen sollten.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Zunächst einmal wollte ich von Herrn Trojok wissen, wie das kognitive Computing die IT-Landschaft verändern wird (kC ist ein IBM-geprägter Begriff, der die Themen Künstliche Intelligenz, Machine Learning, etc. umschreibt). Seiner Meinung nach wird Cognitive Computing die aktuellen IT-Strukturen maßgeblich verändern.

Weg vom reaktiven IT-Dienstleister, hin zur agierenden Fachabteilung

So wird das heutige Modell eines IT-Dienstleisters, der Services bereitstellt, der also lediglich auf die Anforderungen seiner Anwender reagiert, vollständig abgelöst von agierenden Fachabteilungen, deren Ideen und Konzepte die erforderlichen IT-Modelle vorgeben. Dabei werden vor allem die generierten Daten im Vordergrund stehen, die in weitaus erheblicherem Umfang genutzt werden, als das heute der Fall ist.

Doch was macht Herrn Trojok so sicher, dass sich Cognitive Computing resp. Cognitive Storage durchsetzen wird? Nun, die Begründung hierfür ist recht schlicht: Um selbstlernende Systeme nutzen zu können, sind große Datenmengen erforderlich, die in geeigneter Form gespeichert werden müssen. Dabei hilft eine aufstrebende, zunehmend „schlaue“ Technik, die sich Objektspeicher nennt.

Mit Objektspeicher lassen sich jegliche Datentypen sichern – und auswerten

Damit werden nämlich genau diese großen Datenpools samt ihrer Bearbeitung bzw. Analyse möglich sein, und das im Hinblick auf strukturierte und unstrukturierte Daten. Hierbei werden die unstrukturierten Daten – also Videos, Protokolldaten, etc. – kontinuierlich an Bedeutung gewinnen. Wichtig ist auch das Archivieren dieser Daten, die heute generiert, aber möglicherweise erst morgen oder übermorgen benötigt und verarbeitet werden.

Aber, auch da ist sich Herr Trojok sicher, hat die kognitive Reise eben erst angefangen. Daher ist man bei der SVA sehr froh darüber, mit IBM einen innovativen und visionären Partner in Sachen Cognitive Computing an seiner Seite zu haben. Denn gemeinsam mit den passenden IBM-Produkten und Lösungen zu den Themen Objektspeicher und Co. wird die Transformation vom klassischen IT-Speicher zu kognitiven Speicherlösungen gelingen.

Sicherheitsbehörden setzen erste kognitive Lösungen bereits ein

So gibt es erste Prototypen in diesem Bereich, die sehr optimistisch stimmen, dass das Unterfangen Speichertransformation gelingt. Diese kommen beispielsweise in Sicherheitsbehörden bereits zum Einsatz. Genau so werden mehr und mehr Unternehmen auf zunehmend standardisierte CC-Lösungen setzen, die bei erhöhter Verbreitung kostengünstiger werden. Damit mutieren visionäre Lösungen zu praxiserprobten Lösungen.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Gero Dieckmann über den SVA StorageDay 2017

Wendel Zacheiss, SVA, über Dell EMC Isilon

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Wendel Zacheiss von der SVA über die Dell EMC Isilon-Plattform und warum diese Lösung so gut mit unstrukturierten Daten umgeht.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Mit der Isilon hat Dell EMC eine Scale-Out-NAS-Plattform im Programm, die in den Ausprägungen All-Flash, Hybrid und Archivierung vorliegt. Dabei steht das Speichern und Archivieren von unstrukturierten Daten im Vordergrund. Doch warum ist das so, wollte ich von Herrn Zacheiss gerne wissen. Zunächst einmal: Es spielt überhaupt keine Rolle, ob es um reine Dateidaten geht, die mithilfe von Office-Anwendungen generiert werden, oder um Video-/Analysedaten, die zunehmend auf Storage-Einheiten wie der Dell EMC Isilon landen.

Dell EMC Isilon skaliert beinahe beliebig, und das in alle Richtungen

Das Besondere an der NAS-Lösung von Dell EMC ist deren enorme Skalierbarkeit. Denn es stehen sämtliche Ressourcen wie Prozessor und Datenspeicher nahezu unbegrenzt zur Verfügung. Gleichzeitig lässt sich diese Plattform sehr komfortabel verwalten, womit sie die richtige Speicherlösung für unstrukturierte Daten ist.

Ursprünglich wurde die Dell EMC Isilon vor allem für das Speichern von Videostreams eingesetzt, und das merkt man ihr auch heute noch an. So ist ein zunehmend wichtiger Bereich die Aufzeichnung von enormen Videodaten, die von Überwachungskameras generiert werden.

Ob CIFS, SMB, S3 oder OpenStack – Dell EMC Isilon ist eine Multi-Protokoll-Lösung

Für das  Speichern und Abrufen dieser unstrukturierten Daten stehen diverse Schnittstellen wie CIFS/NFS, SMB, Amazon S3, OpenStack und Swift zur Verfügung. Damit können die Anwender der Dell EMC Isilon auf vielfältiger Weise ihre unstrukturierter Daten speichern und diese anschließend mit geeigneten Tools weiterverarbeiten.

Hadoop-Big-Data-Analysen finden direkt auf der Isilon statt

So nimmt beispielsweise das Analysieren von großen Datenmengen eine immer wichtigere Rolle ein, was unter dem Schlagwort „Big Data“ subsummiert wird, . Hierfür existieren zahlreiche Analysetools wie Hadoop samt dem Hadoop File System (HFS), die aus den unstrukturierten Daten aussagekräftige Ergebnisse extrahieren und aufbereiten.

Damit lassen sich die Daten auf der Dell EMC Isilon bestmöglich nutzen, da auf der Speicher-Appliance ein Hadoop-Plugin vorinstalliert ist, das die zu untersuchenden Daten in einem Hadoop-Cluster zusammenfasst und analysiert. Das hat den wesentlichen Vorteil, dass die Daten nicht erst umständlich auf die Speichereinheit geladen oder kopiert werden müssen, sondern sofort bereit stehen. Das spart Zeit und Geld.

Social-Media-Analysen und mehr mit Hadoop

In Sachen Datentypen ist das Hadoop-Plugin äußerst flexibel. So kann nahezu alles analysiert werden, von Social-Media-Daten wie Twitter- oder Facebook-Beiträge bis hin zu Analyse- und Logfile-Daten, wie sie im Splunk-Umfeld anfallen und ausgewertet werden.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Gero Dieckmann über den SVA StorageDay 2017

 

 

Sven Kaminiski, SVA, über NetApp ONTAP

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Sven Kaminski von der SVA über die Flexibilität und Möglichkeiten, die NetApp-Produkte im Allgemeinen und die ONTAP-Applikation im Speziellen bieten.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Meine erste Frage bezog sich auf die unterschiedlichen Workloads, die sich mithilfe der aktuellen NetApp-Produktlösungen abbilden lassen. Hier ist vor allem die ONTAP-Serie zu nennen, die sämtliche Protokolle am Markt unterstützt. Dazu gehört beispielsweise CIFS/SMB inklusive diverser Sicherheitsfunktionen, NFS für Unix- und VMware-Anbindungen sowie iSCSI und Fibre Channel.

Hieraus ergeben sich zahlreiche Anwendungsmöglichkeiten wie zum Beispiel Splunk-Applikationen für das Erfassen und Speichern von Maschinen-Logdaten. Es lassen sich also laut Herr Kaminski 80 bis 90 Prozent aller aktuellen Workloads mit nur einer Anwendung erfassen und speichern, nämlich mit NetApp ONTAP. Hierfür werden obendrein Funktionen wie die Hochverfügbarkeit und Disaster Recovery unterstützt.

NetApp SolidFire für Next-Gen-Rechenzentren

Darüber hinaus hat NetApp die SolidFire-Produktreihe im Portfolio, mit der Rechenzentren der nächsten Generation ausgestattet werden können. Diese Storage-Systeme wenden sich beispielsweise an Service Provider, die bestimmte Speicherklassen definieren und zugesagte Minimum-I/Os einhalten wollen und müssen, da ihre Kunden genau das von ihnen erwarten.

NetApp ONTAP ist auf allen Cloud-Infrastrukturen zu Hause

Doch wie sorgt NetApp für ein Verschmelzen von Cloud und Rechenzentrum? Nun, auch hierfür bietet die ONTAP-Produktserie sämtliche Funktionen, die hierfür erforderlich sind. So lässt sie sich in Kombination mit einem Rechenzentrum sowohl in Private- als auch Public Cloud-Umgebungen einsetzen, je nach Anforderungen und Wünschen des Kunden. Damit müssen sich diese nicht für das ein oder andere RZ-Cloud-Modell entscheiden, sondern können jederzeit die für sie beste Kombination nutzen.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Gero Dieckmann über den SVA StorageDay 2017

Holger Fröhlich, SVA, über Hitachi Content Platform

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Holger Fröhlich von der SVA über die Bedeutung der Hitachi Content Platform (HCP) und warum diese Storage-Lösung als Objektspeicher immer mehr an Bedeutung gewinnt.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Mit der ersten Frage und ihrer Beantwortung wollte ich zunächst einmal verstehen, warum Objektspeicherlösungen wie die HCP eine immer wichtigere Rolle spielen. Die Erklärung hierfür ist recht simpel: Da das Datenaufkommen (vor allem der unstrukturierten Daten) in den nächsten Jahren weiterhin zunimmt, werden die herkömmlichen Storage-Systeme für diese Art der Datenspeicherung nicht mehr tauglich sein. Und das sowohl aus technischer als auch preislicher Hinsicht. Hierfür bieten sich eben Objektspeicherlösungen wie die HCP an, die mit riesigen Datenmengen bestens klar kommen, diese durchsuchbar machen und die eine sinnvolle Ergänzung für weitere Applikationen darstellen.

Die HCP ist äußerst vielseitig und äußerst effizient

Doch welche Vorzüge weist die Hitachi Content Platform in diesem Zusammenhang auf? Nun, auch dazu konnte mir Holger Fröhlich eine Menge erzählen. Das Marktforschungsunternehmen Gartner hat 2016 zwölf unterschiedliche Objektspeichersysteme genauer unter die Lupe genommen, und da hat die HCP speziell in den Kategorien Backup, Interoperabilität und Effizienz sehr gut abgeschnitten. Gerade bei der Interoperabilität besticht die HCP durch ihre vielfältigen Zugriffstechniken und -methoden. So wird unter anderem eine Schnittstelle zu Amazon S3 unterstützt, eine offene API, aber auch CIFS und NFS stehen für den Zugriff auf die HCP zur Verfügung.

Zudem macht die HCP in der Disziplin „Backup“ eine sehr gute Figur. Denn das Konzept der Hitachi-Appliance sieht vor, dass Daten gegenüber physikalischen und logischen Datenfehlern geschützt sind. Daraus ergibt sich, dass Daten nicht mehr extra gesichert müssen. Folge: Zu kurze Backup-Fenster oder ähnliche Dinge stellen für IT-Admins keine Herausforderung mehr dar. Die Daten liegen nämlich auf der HCP sehr sicher und sehr stabil.

Die HCP ist ein ausgeklügelter Soft- und Hardware-Verbund

Darüber hinaus hat mich das Zusammenspiel von vorhandener Soft- und Hardware aus dem Hause Hitachi interessiert. Namentlich sind das die HCP einerseits und der HDI (Hitachi Data Ingestor) sowie HCP Anywhere andererseits, die beide softwareseitig zum Einsatz kommen. Es handelt sich also um ein modulares System, mit der HCP als Basis und dem HDI und HCP Anywhere als Anwendungsprogramme.

Hierbei übernimmt der HDI die Aufgabe eines Daten-Cachesystems, mit dessen Hilfe Außenstellen per CIFS und NFS direkt auf die HCP zugreifen können. Und HCP Anywhere ist eine Applikation, mit der Daten verwaltet und auf verschiedenen Geräten synchronisiert werden können.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Informationen zum SVA StorageDay 2017

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Gero Dieckmann über den SVA StorageDay 2017