Peter Ratuschni, Dt. Nationalbibliothek, über IBM Spectrum Scale

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

Auf dem großen IBM Spectrum Scale Strategy Days-Event hatte ich die Gelegenheit, dieses Videointerview mit Peter Ratuschni von der Deutschen Nationalbibliothek zu führen. Darin spricht er von gesetzlichen Verpflichtungen, großen Datenmengen sowie interessanten und wichtigen Gesprächen mit IBM-Entwicklern zum Thema Software-definded Storage.

Da Herr Ratuschni für den gesamten IT-Bereich der Dt. Nationalbibliothek verantwortlich ist, trafen er und sein Team die Entscheidung, IBM Spectrum Scale für den Storage-Fuhrpark einzusetzen. Und das aus diversen Gründen. So hat die Dt. Nationalbibliothek den gesetzlichen Auftrag, sämtliche Publikationen in Deutschland für die Nachwelt zu archivieren und zu wissenschaftlichen Zwecken zur Verfügung zu stellen. Da auf diese Weise große Datenmengen zustande kommen, setzt die Dt. Nationalbibliothek zwei IBM-Speichersysteme vom Typ Elasctic Storage Server zu Präsentationszwecken ein, auf denen IBM Spectrum Scale implementiert wurde.

Schneller Datenzugriff mit eindeutigen Dateipfaden – das ermöglicht IBM Spectrum Scale

Diese Kombination führt laut Herrn Ratuschni zu verzögerungsfreien Zugriffen auf beliebige elektronische Dokumente innerhalb der riesigen Datenbestände der Dt. Nationalbibliothek. Doch nicht nur das schnelle Bereitstellen der gewünschte Objekte steht im Vordergrund, sondern auch der garantierte Zugriff über stets dieselben Dateipfade, was mit IBM Spectrum Scale ermöglicht wird. In Ergänzung zu Spectrum Scale kommt in der Dt. Nationalbibliothek auch IBM Spectrum Protect zum Einsatz. Diese Datensicherungslösung von IBM zielt vor allem auf virtuelle Storage-Umgebungen ab, weswegen sich die Dt. Nationalbibliothek genau dafür entschieden hat.

„Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event“

Natürlich hat mich auch interessiert, warum Herr Ratuschni auf der IBM Spectrum Scale-Veranstaltung war. Bereits zum dritten Mal dabei, sieht er das Event als sehr gute Möglichkeit, alle Neuigkeiten rund um die Software-defined Storage-Lösung von IBM zu konsumieren. Obendrein schätzt er die Gelegenheit, mit IBM-Entwicklern aus Deutschland und den USA zu sprechen und so drängende Fragen zu klären. Zudem waren Veränderungen rund um den Spectrum Scale-Service für Herrn Ratuschni von großem Interesse, die ebenfalls auf dem Event vorgestellt wurden.

Dt. Nationalbibliothek, SVA und IBM – ein erprobtes Team

Interessant wurde es auch am Ende des Interviews, als die Zusammenarbeit zwischen der Dt. Nationalbibliothek und IBM ins Gespräch kam. So habe ich gelernt, dass die Firma SVA aus Wiesbaden (die ich auch schon unterstützen durfte), den Rahmenvertrag mit dem Bund in Sachen IBM-Storageprodukte inne hält. Daraus ergibt sich laut Herrn Ratuschni eine sehr gute Zusammenarbeit zwischen der Dt. Nationalbibliothek, IBM und SVA, was vor allem das Beschaffen und Bereitstellen benötigter Storage-Lösungen betrifft.

Das komplette Videointerview mit Peter Ratuschni in voller Länge

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Alf Wachsmann vom Max Delbrück Institut über IBM Spectrum Scale

[Videochat] „Das IBM Spectrum Scale-Event ist wirklich fantastisch!“

Anlässlich der IBM Spectrum Scale Strategy Days 2018 konnte ich dieses Videointerview mit Alf Wachsmann vom Max Delbrück Centrum für molekulare Medizin führen. Darin spricht er über den aktuellen und geplanten Einsatz der Spectrum Scale-Technik innerhalb seines Instituts sowie über das Event selbst und warum er nach Ehningen zu IBM gereist ist.

Zunächst einmal wollte ich wissen, wovon der Vortrag von Herrn Wachsmann auf dem IBM-Event handelte. Nun, das Max Delbrück Centrum mit seiner Grundlagenforschung kam genauso zur Sprache wie die Einsatzbereiche von IBM Spectrum Scale, was eine perfekte Überleitung zur zweiten Frage war.

httpss://twitter.com/mhuelskoetter/status/968835972879323142

Die Software-defined Storage-Lösung namens Spectrum Scale kommt am Max Delbrück-Institut derzeit hauptsächlich zu Datenspeicherungszwecken zum Einsatz. Denn aufgrund von medizinischen Anwendungsfeldern wie Gensequenzierung, Massenspektrometrie und Mikroskopie werden am Max Delbrück Centrum riesige Datenmengen generiert, die unterschiedliche Zugriffscharakteristiken und Größen aufweisen.

IBM Spectrum Scale erlaubt einen enormen Datendurchsatz und kurze Wartezeiten

Daher können diese Daten nicht mit einem herkömmlichen Dateisystem verwaltet und analysiert werden, sondern erfordern eine Hochleistungssoftware wie IBM Spectrum Scale. Alleine schon aus Durchsatz-, aber auch aus Zeitgründen sind die Anwender des Instituts auf ein solch schnelles Datenspeichersystem angewiesen.

Doch setzt das Max Delbrück Centrum IBM Spectrum Scale überhaupt mit all seinen Möglichkeiten ein? Das konnte Herr Wachsmann mit einem „Nein“ beantworten, ergänzte aber auch gleichzeitig, dass er und sein Team die IBM-Software künftig intensiver und breiter nutzen wollen. Denn neben den bisher verwendeten Funktionen „Quotas“ und „Snapshots“ möchte er ein umfassendes Datenmangement auf Spectrum Scale-Basis implementieren.

Mithilfe der Policy Engine „Cold Data“ automatisch auf günstigere Datenspeicher transferieren

Das soll auf Basis der Policy Engine dazu führen, dass selten genutzte Dateien vom schnellen und teueren Massenspeicher automatisch auf kostengünstigere, weil langsamere Speicherbereiche zu transferiert werden. Das geht dann so weit, dass diese „kalten“ Daten letztendlich auf Bandlaufwerken landen, und das alleine schon aus Gründe der Compliance, also aufgrund von gesetzlichen Regelungen.

Für die IBM Spectrum Strategy Days 2018 hat Herr Wachsmann nur ein Wort übrig: „Fantastisch“. Das liegt zum einen an den wertvollen Informationen, aber auch an der Möglichkeit, sich mit Kollegen und IBM-Experten vor Ort auszutauschen. Denn auf diese Weise kann man etwas über Lösungsansätze anderer Firmen erfahren, auf deren Suche man gerade selbst ist. Das geht dann so weit, dass anwesende IBM-Vertreter bei der Bewältigung von Herausforderungen rund um Spectrum Scale helfen können.

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

IBM Spectrum Scale Strategy Days 2018

IBM Spectrum Scale Strategy Days 2018: Ehningen, I’m coming! [UPDATE]

Das werden meine ersten IBM Spectrum Scale Strategy Days, die ich als „eingekaufter“ Videoblogger begleiten darf. Spectrum Scale? Noch nie gehört? Ok, dann eine kurze Erklärung:

IBM Spectrum Scale ist eine skalierbare Hochleistungslösung für das Daten- und Dateimanagement (auf Basis der Technologie von IBM General Parallel File System oder GPFS, auch bekannt unter dem Codenamen Elastic Storage), die in unterschiedlichen Branchen weltweit zum Einsatz kommt. IBM Spectrum Scale vereinfacht das Datenmanagement und bietet integrierte Tools für den Informationslebenszyklus, die Petabyte an Daten und Milliarden Dateien verwalten können. So lassen sich die steigenden Kosten für das Management der ständig zunehmenden Datenmengen im Griff behalten. (Quelle: SVA GmbH)

Der IBM SSSD 2018 gliedert sich in drei Teile, wovon der erste Tag dem Einstieg in die Welt der Spectrum Scale-Softwarelösung vorbehalten ist, an den Tagen zwei und drei kommen dann zahlreiche IBM-Experten, aber auch IBM-Kunden zu Wort.

Fünf davon, genauer gesagt zwei IBM- und drei Kundenvertreter, werde ich mit meiner Videokamera befragen dürfen. Schließlich sollen die vielen Informationen, die dort präsentiert werden, nicht wieder einfach so versickern. Als Interviewpartner sind momentan folgende Personen vorgesehen:

  • Dirk Thometzek von Rohde & Schwarz GmbH & Co. KG
  • Alf Wachsmann vom Max Delbrück Center for Molecular Medicine
  • Alexander Gast vom WDR
  • Piyush Chaudhary von IBM
  • Kevin Gildea von IBM

Alle fünf Interviewpartner haben eine ganze Menge zu erzählen zum Thema IBM Spectrum Scale und Software-defined Storage. So werde ich unter anderem wissen wollen, wie IBM Spectrum Scale bei den Kunden zum Einsatz kommt, wie sich Spectrum Scale und Hadoop/Spark gegenseitig ergänzen, was Spectrum Scale und Künstliche Intelligenz miteinander zu tun haben, und einiges mehr.

Vier der fünf Interviewpartner werden einen eigenen Vortrag halten, die ich wie gewohnt per Twitter verfolgen und kommentieren werde. Das sind wie folgt:

10:15 – 10:40Keynote: Cognitive Computing and Spectrum ScaleKevin Gildea
10:40 – 11:05Spectrum Scale Big Data & Analytics InitiativePiyush Chaudhary (IBM)
Florian von Walter (HortonWorks)
14:00 – 14:20Kundenbericht – Max Dellbrück Center (MDC)Alf Wachsmann (MDC)
15:40 – 16:00Kundenbericht – Rohde & SchwarzDirk Thometzek (R&S)

Darüber hinaus wird es weitere zahlreiche Informationen zum Thema IBM Spectrum Scale geben. Auszug gefällig?

  • Spectrum Scale Cloud Initiatitve
  • Was ist neu bei Spectrum Scale?
  • Erfahrungen aus der Portierung von Spectrum Scale auf IBM Z
  • uvm.

Seien Sie also gespannt auf das, was morgen, übermorgen und überübermorgen  in Ehningen passieren wird. Ich bin es auch. Und klar, dass ich die Videointerviews allesamt auf meinem Blog veröffentlichen werde.

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

[Videochat] „Das IBM Spectrum Scale-Event ist wirklich fantastisch!“

[Videochat] „Mit IBM Spectrum Scale gehen keine Daten verloren – trotz Speicherwechsel“

[Videochat] „Autonomes Fahren profitiert von IBM Spectrum Scale und Hadoop“

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Gero Dieckmann, SVA GmbH

[Video] Gero Dieckmann über den SVA StorageDay 2017

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg geführt. Darin spricht der neue Geschäftsstellenleiter Nord der SVA GmbH, Gero Dieckmann, über die Veranstaltung und warum die Kunden der SVA dieses Veranstaltungsformat sehr schätzen.

Was war denn das Hauptmotiv, den SVA StorageDay 2017 durchzuführen? Hier nennt Herr Dieckmann vor allem „geschichtliche Zusammenhänge“, da die SVA GmbH mit der Konzeption und Realisierung von Speichermanagementlösungen und Speichersystemen bekannt geworden ist. Auf dieser Basis kann das Unternehmen seit gut 20 Jahren ihre Kunden gewinnen und überzeugen.

Schwerpunkte und Themen des SVA StorageDay 2017

Kein Wunder also, dass der SVA StorageDay die Veranstaltungsreihe mit der längsten Historie innerhalb des Unternehmens darstellt, auf dem wieder einmal zahlreiche Themen und Schwerpunkte besprochen werden konnten.Dazu gehörten in Hamburg unter anderem:

Bei so vielen Themen stellt sich natürlich die Frage: Welche davon sind für die Teilnehmer des SVA StorageDay besonders interessant, warum also sind sie ins Millerntorstadion des FC St. Pauli gekommen? Auch hierfür lassen sich diverse Gründe nennen:

Viele gute Gründe für den SVA StorageDay 2017

  1. Intensive Gespräche mit den anwesenden IT-Architekten.
  2. Die Produktmanager und regionalen Speicherexperten waren ebenfalls für den direkten Austausch vor Ort.
  3. An den zahlreichen Partnerständen der anwesenden Hersteller konnten die Kunden und Teilnehmer des SVA Storageday Informationen aus erster Hand abgreifen.
  4. Die vielen Vorträge während der Veranstaltung boten zahlreiche weiterführende Informationen.
  5. Die coole Location sowie der geführte Rundgang durch das Fußballstadion des FC St. Pauli.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videos vom SVA StorageDay 2017

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Sven Kaminiski, SVA, über NetApp ONTAP

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Sven Kaminski von der SVA über die Flexibilität und Möglichkeiten, die NetApp-Produkte im Allgemeinen und die ONTAP-Applikation im Speziellen bieten.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Meine erste Frage bezog sich auf die unterschiedlichen Workloads, die sich mithilfe der aktuellen NetApp-Produktlösungen abbilden lassen. Hier ist vor allem die ONTAP-Serie zu nennen, die sämtliche Protokolle am Markt unterstützt. Dazu gehört beispielsweise CIFS/SMB inklusive diverser Sicherheitsfunktionen, NFS für Unix- und VMware-Anbindungen sowie iSCSI und Fibre Channel.

Hieraus ergeben sich zahlreiche Anwendungsmöglichkeiten wie zum Beispiel Splunk-Applikationen für das Erfassen und Speichern von Maschinen-Logdaten. Es lassen sich also laut Herr Kaminski 80 bis 90 Prozent aller aktuellen Workloads mit nur einer Anwendung erfassen und speichern, nämlich mit NetApp ONTAP. Hierfür werden obendrein Funktionen wie die Hochverfügbarkeit und Disaster Recovery unterstützt.

NetApp SolidFire für Next-Gen-Rechenzentren

Darüber hinaus hat NetApp die SolidFire-Produktreihe im Portfolio, mit der Rechenzentren der nächsten Generation ausgestattet werden können. Diese Storage-Systeme wenden sich beispielsweise an Service Provider, die bestimmte Speicherklassen definieren und zugesagte Minimum-I/Os einhalten wollen und müssen, da ihre Kunden genau das von ihnen erwarten.

NetApp ONTAP ist auf allen Cloud-Infrastrukturen zu Hause

Doch wie sorgt NetApp für ein Verschmelzen von Cloud und Rechenzentrum? Nun, auch hierfür bietet die ONTAP-Produktserie sämtliche Funktionen, die hierfür erforderlich sind. So lässt sie sich in Kombination mit einem Rechenzentrum sowohl in Private- als auch Public Cloud-Umgebungen einsetzen, je nach Anforderungen und Wünschen des Kunden. Damit müssen sich diese nicht für das ein oder andere RZ-Cloud-Modell entscheiden, sondern können jederzeit die für sie beste Kombination nutzen.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Gero Dieckmann über den SVA StorageDay 2017

Holger Fröhlich, SVA, über Hitachi Content Platform

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Holger Fröhlich von der SVA über die Bedeutung der Hitachi Content Platform (HCP) und warum diese Storage-Lösung als Objektspeicher immer mehr an Bedeutung gewinnt.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Mit der ersten Frage und ihrer Beantwortung wollte ich zunächst einmal verstehen, warum Objektspeicherlösungen wie die HCP eine immer wichtigere Rolle spielen. Die Erklärung hierfür ist recht simpel: Da das Datenaufkommen (vor allem der unstrukturierten Daten) in den nächsten Jahren weiterhin zunimmt, werden die herkömmlichen Storage-Systeme für diese Art der Datenspeicherung nicht mehr tauglich sein. Und das sowohl aus technischer als auch preislicher Hinsicht. Hierfür bieten sich eben Objektspeicherlösungen wie die HCP an, die mit riesigen Datenmengen bestens klar kommen, diese durchsuchbar machen und die eine sinnvolle Ergänzung für weitere Applikationen darstellen.

Die HCP ist äußerst vielseitig und äußerst effizient

Doch welche Vorzüge weist die Hitachi Content Platform in diesem Zusammenhang auf? Nun, auch dazu konnte mir Holger Fröhlich eine Menge erzählen. Das Marktforschungsunternehmen Gartner hat 2016 zwölf unterschiedliche Objektspeichersysteme genauer unter die Lupe genommen, und da hat die HCP speziell in den Kategorien Backup, Interoperabilität und Effizienz sehr gut abgeschnitten. Gerade bei der Interoperabilität besticht die HCP durch ihre vielfältigen Zugriffstechniken und -methoden. So wird unter anderem eine Schnittstelle zu Amazon S3 unterstützt, eine offene API, aber auch CIFS und NFS stehen für den Zugriff auf die HCP zur Verfügung.

Zudem macht die HCP in der Disziplin „Backup“ eine sehr gute Figur. Denn das Konzept der Hitachi-Appliance sieht vor, dass Daten gegenüber physikalischen und logischen Datenfehlern geschützt sind. Daraus ergibt sich, dass Daten nicht mehr extra gesichert müssen. Folge: Zu kurze Backup-Fenster oder ähnliche Dinge stellen für IT-Admins keine Herausforderung mehr dar. Die Daten liegen nämlich auf der HCP sehr sicher und sehr stabil.

Die HCP ist ein ausgeklügelter Soft- und Hardware-Verbund

Darüber hinaus hat mich das Zusammenspiel von vorhandener Soft- und Hardware aus dem Hause Hitachi interessiert. Namentlich sind das die HCP einerseits und der HDI (Hitachi Data Ingestor) sowie HCP Anywhere andererseits, die beide softwareseitig zum Einsatz kommen. Es handelt sich also um ein modulares System, mit der HCP als Basis und dem HDI und HCP Anywhere als Anwendungsprogramme.

Hierbei übernimmt der HDI die Aufgabe eines Daten-Cachesystems, mit dessen Hilfe Außenstellen per CIFS und NFS direkt auf die HCP zugreifen können. Und HCP Anywhere ist eine Applikation, mit der Daten verwaltet und auf verschiedenen Geräten synchronisiert werden können.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Informationen zum SVA StorageDay 2017

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Gero Dieckmann über den SVA StorageDay 2017

 

Rückschau: Das war der IBM Storage Strategy Day 2017

Aufmerksame Leser meines Blogs wissen, dass ich letzte Woche im Auftrag von IBM auf zwei Events war, um von dort aus Bericht zu erstatten. Die erste Veranstaltung hatte mit dem Thema Mainframes und der IBM z14 zu tun, und das andere mit dem Thema Storage und Speicherlösungen. Und genau davon soll heute die Rede sein.

httpss://twitter.com/mhuelskoetter/status/907626741128220672

Die Veranstaltung war mehr als gut besucht, und eröffnet wurde sie standesgemäß vom neue Strorage-Chef DACH höchstpersönlich.

httpss://twitter.com/mhuelskoetter/status/907882075973459968

Den einleitenden Worten von Marcus Geist folgte die erste Keynote-Session von und mit Ed Walsh, der den Titel „General Manager Storage & Software Defined Infrastructure“ trägt.

httpss://twitter.com/mhuelskoetter/status/907883975884115968

Ed hatte eine ganze Menge zu erzählen darüber, warum alte, traditionelle Worksloads in neue Workloads überführt werden sollten und warum hierfür unter anderem neue Storage-Lösungen erforderlich sind.

httpss://twitter.com/mhuelskoetter/status/907885151698477056

Natürlich führte ihn das direkt zu der Stellung, die IBM derzeit im Storage-Markt inne hält. Dabei machte er anhand einer einzigen Folie klar, wo sich IBM in Sachen Speicherlösungen positioniert: Weltweit ist „Big Blue“ Nummer Zwei als „Storage Company“, und Nummer Eins, wenn es um die Gesamtheit an verfügbaren Speicherlösungen geht. Das hat vor allem mit den zahlreichen Softwarelösungen zu tun, die IBM im Portfolio hat.

httpss://twitter.com/mhuelskoetter/status/907886141139030017

Auf Ed Walsh folgte Dr. Robert Haas, der am schönen Zürichsee arbeitet, genauer gesagt am IBM-Labor Rüschlikon. Entsprechend  hatte sein Vortrag einen wissenschaftlichen Touch, indem er unter anderem von Atomen als Speicherzelle referierte.

httpss://twitter.com/mhuelskoetter/status/907889680066256896

httpss://twitter.com/mhuelskoetter/status/907891137096163329

Aber er wurde auch sehr konkret, indem er die These aufstellte, dass die Container-Technik die Virtual-Machine-Technik ablösen wird, da sich damit benötigter Speicherplatz innerhalb virtualisierter Umgebungen viel schneller bereitstellen lässt als mit VMs.

httpss://twitter.com/mhuelskoetter/status/907893938979303424

Aber auch das Thema Flash-Speicher war Robert Haas eine ausführliche Betrachtung wert. So referierte er über fallende Preise, die einen generellen Einsatz von Flashspeicher nach sich ziehen werden. Aber auch sinkende Latzenzzeiten führte er als Grund für die zunehmende Verbreitung von Flash-basierten Speichertechniken an.

httpss://twitter.com/mhuelskoetter/status/907898671047561217

httpss://twitter.com/mhuelskoetter/status/907899928785178624

5 Interviews runden die Storage-Berichterstattung ab

Ich wäre natürlich nicht ich, wenn ich nicht auf dem IBM Storage Strategy Day 2017 Videointerviews geführt hätte. Namentlich habe ich folgende IBM-Vertreter vor meine Kamera geholt:

  • Ed Walsh über Storage-Trends aus IBM-Sicht
  • Dr. Robert Haas über neue und alte Speichertechniken
  • Ralf Colbus über die Vorteile der NVMe-Speichertechnik
  • Dr. Axel Köster über Cognitive Storage
  • Ulrich Walter über Künstliche Intelligenz und Storage

Letzteres Video ist bereits online und kann hier an Ort und Stelle angesehen werden. Zu jedem dieser Interviews wird es übrigens einen separaten Blogbeitrag geben. Freut euch drauf.

 

Disclaimer: Für diesen Beitrag und die nachfolgenden Videointerview-Posts hat mich IBM Deutschland als Blogger beauftragt.

 

CeBIT 2017: Stefan von Dreusche über die DataCore-Lenovo-Storage-Appliance

Während der CeBIT 2017 habe ich dieses Videointerview mit Stefan von Dreusche geführt. Herr Dreusche ist Sales Director EMEA bei DataCore und hat mir diverse Fragen zur brandneuen Storage-Appliance Lenovo DX8200D powered by DataCore beantwortet. Sehr aufschlussreiche Informationen aus erster Hand.

So durfte ich unter anderem lernen, dass es sich bei der Lenovo DX8200D powered by DataCore um eine reine Lenovo-Storage-Appliance handelt, die über die Lenovo-Kanäle an DataCore-Kunden vertrieben wird. Das sieht ein OEM-Agreement zwischen Lenovo und DataCore vor, das es in dieser Form noch nicht gab.

Die Vorteile für beide Partner liegen dabei auf der Hand: Lenovo erlangt den Zutritt zum immer wichtiger werdenden Software-defined-Storage-Markt, und DataCore kommt in den Genuss, mit einem weltweit anerkannten Storage-Hersteller zu kooperieren.

DataCore-Software und Lenovo-Hardware: ein Weltmeistergespann

Der Grund für die Kooperation ist ebenfalls interessant: Da die DataCore-eigene Technik Parallel IO sehr gut mit Mehrkernprozessor-Maschinen klarkommt, hat man sich mit Lenovo zusammengetan und an der IO-Leistung solange „gebastelt“, bis ein neuer gemeinsamer Weltrekord erzielt werden konnte. Der liegt aktuell bei 5,1 Millionen IOPS.

Die Zielgruppe: Mittelständler mit großem IO-Hunger

Die Lenovo DX8200D powered by DataCore adressiert laut Stefan von Dreusche vor allem mittelständische Unternehmen in Deutschland, die mit datenintensiven Anwendungen arbeiten. Hierfür lässt sich die Appliance bis zu 40 Terabyte ausbauen, und das in einer sehr leistungsfähigen Maschine. So berichten erste Kunden von Leistungssteigerungen um bis zu 75 Prozent, und das zu gerade mal einem Viertel der ursprünglichen Kosten.

Was mag Stefan von Dreusche an der DataCore-Lenovo-Maschine?

Und was mag Stefan von Dreusche an dieser neuen Kooperations-Appliance am meisten? Nun, das verrät er Ihnen am besten höchstpersönlich. Na dann: Film ab!

Günther Kalina, Gründer und Geschäftsführer der CTT Computertechnik AG aus München

Die ganze Geschichte der CTT Computertechnik aus München

Einer meiner Münchner Kunden hat kürzlich damit begonnen, seine Geschichte aufzuschreiben, und zwar die fast 40-jährige Erfolgsstory der CTT Computertechnik AG.

Dabei kommt Gründer Günther Kalina ausführlich zu Wort, der in diesem Mehrteiler zahlreiche Anekdoten zum Besten gibt, aber auch immer noch gültige Tipps und Ratschläge für die heutige Gründergeneration parat hat.

Im ersten Teil erfährt man viele interessante Details zu den Gründerjahren der CTT. Was zum Beispiel die Firma Seagate mit dem Distributionsexperten zu tun hat, welche erste Kunden die CTT mit Festplatten versorgte und dass einer der ersten Seagate-HDDs gerade mal 5 Megabyte fasste.

Die ganze Geschichte finden Sie auf der CTT Knowledge Base. Dort werden auch sukzessive weitere Teile der CTT Homestory online gehen.

CeBIT 2014: Berichterstattung in Wort, Bild und Ton

Morgen geht sie also los, die große Fahrt gen Hannover, auf die CeBIT 2014, die auf mich mit drei vollgepackten Tagen wartet. Was so mancher Kollege nicht unbedingt verstehen mag: Ich freue mich auf die Messe, und das trotz der nunmehr 22 Jahren, in denen ich in schönster Regelmäßigkeit in der Landeshauptstadt von Niedersachsen lande.

Ich mag es einfach, dieses „Klassentreffen“, auf dem man jedes Mal viele bekannte Gesichter sieht, die genauso wie man selbst stets auf der Suche nach dem ultimativen Messehighlight Ausschau halten. Oder die Wiedersehen im Pressezentrum, in dem man auf den immer noch sehr unbequemen Hockern angestrengt versucht, das Gleichgewicht zu halten, während man mit der einen Hand den Cappuccino hält und mit der anderen auf seinem iPhone die letzten News checkt.

Weiterlesen