[Video] Bernd Bohne von der SDV-IT zu IBM-Mainframes

Bernd Bohne von der SDV-IT zu IBM-Mainframes und der IBM z14

Im IBM Watson IoT Center zu München durfte ich mit Bernd Bohne von der Sparda-Datenverarbeitung (SDV-IT) während es großen IBM Z-Events dieses Interview zum Thema IBM-Mainframes führen. Darin nennt er zahlreiche Gründe, warum Sparda-DV IBM-Großrechner einsetzt und warum er das z14-Feature „Pervasive Encryption“ so spannend findet.

IBM-Mainframes kommen bei der SDV-IT seit 1983 zum Einsatz

Die SDV-IT blickt auf eine lange IBM-Mainframe-Historie zurück. So werden die Rechner seit Gründung des Unternehmens im Jahr 1983 eingesetzt. Die Großrechner kommen vor allem im Bereich Transaktionsverarbeitung zum Einsatz, und das sowohl im Zahlungsverkehr als auch bei den Bankgeschäften. Zudem werden die Rechner massiv bei der Stapelverarbeitung verwendet.

Derzeit stehen unter anderem zwei Mainframes vom Typ IBM z13 in den Rechenzentren der SDV-IT, auf denen z/OS und z/VM sowie z/Linux installiert sind.

„Pervasive Encryption erlaubt die umfassende Verschlüsselung, vom Server bis zu den Platten“

Natürlich interessierte mich, wie Herr Bohne das neue Sicherheitsfeature der IBM z14 „Pervasive Encryption“ einschätzt. Er findet dieses neue Feature für einen Banken-IT-Dienstleister natürlich hochinteressant, da sich daraus eine vollständige Verschlüsselung vom Server über die Verbindungswege bis zu den Platten ergibt, wie er im Interview sagt.

„Vom IBM Watson IoT Center gehen wirklich eigene Impulse aus“

Neben den technischen Aspekten der Veranstaltung fand Bernd Bohne auch die Event-Location sehr bemerkenswert. Denn vom IBM Watson IoT Center gehen vollkommen neue Impulse aus und man komme dazu, mal wieder in neue Richtungen zu denken. Und klar, dass er auch wegen der IBM z14 den „weiten“ Weg von Nürnberg nach München auf sich genommen hat.

Bernd Bohne im Videointerview zu IBM Z und mehr

Alle Fans des Bewegtbilds können sich natürlich das Interview mit und von Bernd Bohne per Mausklick oder Fingertipp ansehen und -hören. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Dr. Axel Köster von IBM über Cognitive Storage

Dr. Axel Köster (IBM) über Cognitive Storage

Während des IBM Storage Strategy Day 2017 in Ehningen habe ich dieses Interview mit Dr. Axel Köster geführt. Darin spricht er über Cognitive Storage und was es damit auf sich hat. Er zeigt, welche Speichertechniken bereits „Cognitive-ready“ sind und was das IBM Watson IoT Center damit zu tun hat.

Zunächst einmal gilt festzuhalten, dass Herr Köster einen tollen Titel trägt, er ist nämlich Cheftechnologe des Europäischen Speicherkompetenzzentrums in Frankfurt/Main. Zudem ist er Chairman der IBM Technical Expert Council (TEC) im deutschsprachigen Raum.

Von „Cognitive Storage“ und IBM Watson

Meine erste Frage führte mich direkt zum Thema des Interviews, was denn „Cognitive Storage“ sei. Dabei handelt es sich laut Herrn Köster um eine zweigeteilte Technologie: Einerseits handele es sich um hochparalellen Speicher für die kognitiven Algorithmen, die dafür sorgen, dass kognitive Systeme wie IBM Watson  überhaupt arbeiten können.

Zum anderen stehen diese Algorithmen auch für Storage-Systeme zur Verfügung, womit intelligenter Speicher möglich wird, der also lernt, was zu tun ist. Die Speichereinheit weiß zum Beispiel nach einer gewissen Zeit, welche Daten wichtig (Hot Data) und welche weniger wichtig (Cold Data) sind.

Kognitive Speichersysteme sind in 10 Jahren Standard-IT

Aber gibt es überhaupt schon Speichersysteme, die mit dieser Form von Künstlicher Intelligenz zurecht kommen. Ja, diese Systeme gibt laut Herrn Köster schon, die extrem parallel arbeiten. Allerdings kommen diese Hochleistungssysteme vor allem bei größeren Unternehmen zum Einsatz, kleineren Firmen mangelt es an solchen Systemen noch.

Aber, und da ist er sich sicher, müssen sich mittel- bis langfristig alle IT-Verantwortlichen mit dieser neuen Form des Speichers befassen, denn in etwa zehn Jahren wird das zur Standard-IT gehören.

Sensoren & Co. generieren große Datenmengen

Natürlich hat auch das IBM Watson IoT Center mit großen Datenmengen zu tun, die beim Einsammeln derselben generiert werden. Denn überall dort, wo beispielsweise Sensoren große Datenmengen produzieren, lassen sich neue Erkenntnisse gewinnen, die dann an anderer Stelle eingesetzt werden können.

Diese Ergebnisse werden nicht mithilfe von Algorithmen erzielt, sondern auf Basis neuronaler Netze, die wie das menschliche Gehirn funktionieren. Damit können zum Beispiel Gebiete identifiziert werden, in denen möglicherweise Hagelschaden entsteht, um daraus die richtigen Maßnahmen abzuleiten.

x86 ist für neuronales Rechnen nicht parallel genug, IBM TrueNorth schon

Doch neben den hohen Anforderungen an Speicher kommen auch den Recheneinheiten von kognitiven Systemen eine große Bedeutung zu. So hat mich interessiert, ob General Purpose Prozessoren wie der Intel x86 für solche Aufgaben geeignet seien. Und nein, sind sie nicht, da diese CPUs laut Herrn Köster nicht parallel genug arbeiten. Hierfür taugen eher die grafischen Co-Prozessoren, wie man sie von NVIDIA kennt.

In dieser Kategorie tummelt sich auch der IBM-eigene Hochleistungschip TrueNorth, der bereits erste Rekorde aufgestellt hat und eben genau wie das menschliche Gehirn arbeitet. An dieser Stelle kommt Herr Köster geradezu ins Schwärmen, da die CPU gerade mal 70 Milliwatt im Betrieb verbraucht, weil sie ganz anders arbeitet als die Von-Neumann-Prozessoren.

Dr. Axel Köster im Videointerview

Wer die hier genannten Informationen lieber aus erster Hand bezieht, der klicke oder tippe auf den Startknopf des Videointerviews von und mit Axel Köster. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Dr. Robert Haas, IBM Schweiz, über neue und alte Speichertechnologien

Dr. Robert Haas (IBM Schweiz) über Storage-Trends

Während des IBM Storage Strategy Day 2017 habe ich dieses Interview mit Dr. Robert Haas vom IBM-Labor in Rüschlikon, Schweiz, geführt. Darin spricht er über aktuelle und neue Speichertechniken, verrät, warum Cloud Service Provider immer häufiger Bandlaufwerke einsetzen und warum Dockers die neuen Virtual Machines sind.

Robert Haas ist Chief Technology Officer (CTO) Storage für Europa, und das an einem der schöneren Orte dieser Erde, im schweizerischen Rüschlikon am Zürichsee. Sehr malerisch, davon durfte ich mich auch schon überzeugen.

Von Speichermedien zu Dockers – das ist die Haas’sche Storage-Reise

Während seines Vortrags auf dem IBM-Event in Ehningen nahm Herr Haas seine Zuhörer auf eine mehretappige Reise mit, dir er für mich kurz und knapp zusammengefasst hat. Dabei bezieht er sich auf die Vielschichtigkeit von Storage-Lösungen, die ein Unten und ein Oben haben.

Speichermedien verändern sich – aber nicht alle

Unten, das sind die Medien, auf denen Daten gespeichert werden, sowohl im klassischen Sinne, also auf Festplatte, als auch im neue Sinne, also beispielsweise auf NVMe-kompatiblen Flashkomponenten. Und in Zukunft werden weitere Medien hinzu kommen, wie das Speichern einzelner Bits auf Atomkernen eindrucksvoll bewiesen hat.

Davon profitieren heute und morgen die Storage-Applikationen, mit denen sich große Datenmengen speichern und nutzen lassen. Und ganz oben befindet sich schließlich die Container-Speichertechnik, die mithilfe der Docker-Technik benötigten Speicherplatz blitzschnell zur Verfügung stellen kann. Und klar, dass IBM diese Container-basierte Speichertechnik mit eigenen Lösungen wie speziellen Schnittstellen unterstützt.

Tape-Laufwerke bieten einen unschlagbaren TCO-Wert

Ein wenig überrascht war ich ob einer Aussage von Robert Haas, der während des Interviews die These aufstellt, dass sich Tape-Laufwerke aktuell bei den Cloud Service Providern als wichtiges Speichermedium etablieren. Und ja, diese Firmen haben laut Herrn Haas erkannt, dass Bandlaufwerke noch wie vor einen unschlagbaren TCO (Total Cost of Ownership) aufweisen. Daher sind  sie vor allem für Cold Data-Anwendungen (Datenarchive, Langzeit-Backup) immer noch ein konkurrenzloses Medium.

Das weiß natürlich auch IBM, und so wundert es nicht, dass man in den Laboren daran arbeitet, die Speicherdichte von Magnetbändern weiter zu erhöhen, und das wird wohl auch die nächsten Jahre gelingen.

Die Container-Technik als Alternative zu Virtual Machines

Eine weitere These, die Herr Haas während seines Vortrags aufgestellt hat, betrifft die Container-Technik, die laut seiner Aussage gerade eine Konkurrenz zu Virtual Machines wird.

Das hat vor allem mit der Tatsache zu tun, dass agile Services immer mehr in den Vordergrund drängen, mit denen beispielsweise sehr schnell auf unerwartete Datenbankabfragen reagiert werden kann. Dafür eignen sich Docker-basierte Container sehr gut, weil sie sehr schlank sind und sehr schnell bereitgestellt werden können. Und das ohne die Notwendigkeit, ein komplettes OS-Image starten zu müssen.

Alles Infos aus erster Hand von Dr. Robert Haas

Wie immer kann man sich die Infos auch direkt aus erster Hand beim Interviewpartner abholen. Na dann: Film ab!

[Video] Ed Walsh, IBM, über Storage-Trends aus IBM-Sicht

Ed Walsh, IBM, über Storage-Trends

Während des IBM Storage Strategy Day 2017 hatte ich die Gelegenheit, mit Ed Walsh zu sprechen. Er verantwortet das weltweite Storage- und Storage-Defined-Infrastructure-Geschäft bei IBM und hat mir verraten, was die Kernaussagen seines Keynote-Talks waren und wie sich IBM derzeit im weltweiten Speichermarkt positioniert. Außerdem spricht Ed darüber, worauf sich Storage-Verantwortliche künftig einstellen sollten.

Da Ed Walsh seit gerade mal einem guten Jahr seine aktuelle Position bekleidet, kam es ihm während seiner Keynote-Session vor allem darauf an, die weltweite Storage-Strategie von IBM aufzuzeigen und einen aktuellen Zustandsbericht abzuliefern.

IBM rangiert im weltweiten Storage-Markt auf #2, in Spezialdisziplinen wie Object Storage auf #1

Da wollte ich natürlich gleich wissen, wie es bei IBM in Sachen Storage derzeit aussieht. Hier zeigte sich Ed sehr zufrieden, da die komplette Storage-Sparte profitabel arbeitet und ein Wachstum von 7% (Q1-16 vs. Q1-17) und 8% in Q2-17 aufweist. Damit steht IBM derzeit auf dem zweiten Platz, wenn man den weltweiten Storage-Gesamtmarkt betrachtet. Sieht man sich hingegen bestimmte Marktsegment wie Storage-Software oder Object Storage an, rangiert IBM dort auf Platz 1.

Neue Worksloads erfordern neue Speicherlösungen

Während seines Vortrags sprach Ed über neue Worksloads und was hierfür in Sachen Storage zu tun sei. Was denn das sei, wollte ich wissen. Hier verwies er vor allem auf das Thema Software-defined Storage, mit dem sich heterogene Speicherlandschaften effizienter nutzen lassen, und das über Netzwerkgrenzen hinweg.

Gerade in diesem Kontext spielt IBM Spectrum Software laut Ed Walsh eine immer größere Rolle. Damit lassen sich hoch-skalierbare Workloads administrieren und verwalten, die in Zeiten von Künstlicher Intelligenz und Co. immer mehr in den Vordergrund rücken.

Ed Walsh im Videointerview

Wer das ganze Interview von und mit Ed Walsh sehen und hören möchte, starte am besten jetzt das Video. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Axel Panten von der R+V Versicherung zu IBM-Mainframes

Axel Panten von der R+V Versicherung über IBM-Mainframes und die IBM z14

Während des großen IBM Z-Events im Münchner IBM Watson IoT Center durfte ich mit Axel Panten von der R+V Versicherung dieses Gespräch führen. Darin verrät er mir, seit wann und warum und welche IBM-Mainframes in seinen Rechenzentren eingesetzt werden. Und was er an der Location so toll findet, sagt er auch.

Z-Mainframes kommen bei der R+V Versicherung schon lange zum Einsatz

Axel Panten leitet bei der R+V Versicherung den gesamten IT-Betrieb und ist obendrein für das Anwendungsmanagement zuständig. Damit ist er auch für die zwei IBM z13 Mainframes zuständig, die in seinen Rechenzentren zum Einsatz kommen. Und das ist nicht der erste IBM-Großrechner, den Herr Panten bei der R+V erlebt, schließlich arbeitet er dort schon seit 17 Jahren.

IBM-Mainframes spielen bei der R+V Versicherung eine strategische Rolle

Und es gibt gute Gründe für die IBM-Mainframes bei der R+V: Die gesamte Bestandsverwaltung und sämtliche Kundendaten liegen auf den Rechnern und stellen damit das Herz der IT-Umgebung dar. Dabei spielt auch eine strategische Entscheidung eine wichtige Rolle, denn offensichtlich vertraut man bei der R+V Versicherung den z-Maschinen so sehr (vor allem in punkto Stabilität), dass ein „Umzug“ der Daten auf einen anderen Großrechner nicht infrage zu kommen scheint.

Sicherheit ist natürlich das Top-Thema bei einer Versicherung

Doch wie garantiert die R+V die Datensicherheit auf den Mainframes? Hierfür kommen diverse Mechanismen wie zum Beispiel der Zugriffsschutz zur Anwendung, damit auch nur Berechtigte an ihre Daten herankommen. Natürlich gibt es auch weitere Abwehrmaßnahmen, wie Firewalls.

Sehr interessiert, wenn auch noch nicht vollständig informiert, zeigte sich Herr Panten beim Thema „Pervasive Encryption“. Aber er war guter Dinge, auf dem Event noch mehr Infos dazu einzuholen.

Watson IoT Center und „Networking“ als Event-Motivation

Beeindruckt zeigte sich Panten auf von der Event-Location. Er wollte sich das IBM Watson IoT Center schon immer einmal ansehen, daher war der Besuch der Z-Veranstaltung eine willkommene Gelegenheit, das endlich zu tun.

Zudem war und ist er auf der Suche nach mehr Infos zur IBM z14, die bei der R+V Versicherung wohl kurz über lang installiert wird. Und der Netzwerkgedanke stand bei der Entscheidung, die Veranstaltung zu besuchen, ebenfalls ganz weit oben auf Herrn Pantens Agenda.

Für alle Informationen aus erster Hand empfehle ich, das Video zu starten. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Ralf Colbus (IBM) über die NVMe-Speichertechnik

Ralf Colbus von IBM über die NVMe-Speichertechnik

Auf dem IBM Storage Strategy Day 2017 habe ich dieses interessante Interview mit Ralf Colbus geführt. Darin spricht er über den Stand der Dinge in Sachen NVMe-Technik, mit der vor allem Latenzprobleme bei hochperformanten Speicherlösungen der Gar ausgemacht werden soll. Und wie es mit dem Umstieg auf NVMe bei IBM aussieht, hat er mir auch verraten.

Mit Ralf Colbus habe ich schon diverse Gespräche geführt, so auch unter anderem über das Thema Software-defined Storage-Lösungen. Und so saßen wir in Ehningen wieder einmal zusammen, um uns über das Thema Non-Volatile Memory express (NVMe) zu unterhalten. Denn darin, so Ralf, liegt die Zukunft des hochperformanten Speichers.

NVMe reduziert vor allem lästige I/O-Latenzen

Denn mit NVMe lässt sich vor allem die I/O-Leistung maßgeblich verbessern, indem Latenzwerte drastisch reduziert werden. Damit bekommen Anwendungen schneller ihre Daten, und IT-Verantwortliche können auf diesem Weg ihrer traditionellen SAS-Backend-Infrastrukturen Stück für Stück „Lebewohl“ sagen.

Transaktionale Datenbanken werden zunächst von NVMe profitieren

Welche Applikationen werden denn maßgeblich von NVMe profitieren, lautete meine nächste Frage. Nun, zunächst einmal werden vor allem transaktionale Datenbank-Anwendungen von dieser neuen Speichertechnik ihre Vorteile ziehen. Mittel- bis langfristig werden aber alle anderen Workloads ebenfalls die NVMe-Technik zu ihren Gunsten nutzen können.

IBM stellt sukzessive auf NVMe um

Und wie sieht es bei IBM mit NVMe-basierten Speicherlösungen aus? Nun, da ist man „Big Blue“ schon auf einem guten Weg. Soll heißen, dass man sukzessive auf NVMe umsteigt, zunächst auf Basis von SSD-Speichermodulen, später kommt NVMe direkt in den Fabrics zum Einsatz.

Und ganz offensichtlich hat man es bei IBM ziemlich eilig mit dem Umstieg auf NVMe-taugliche Produkte. So werden die ersten vielleicht noch Ende dieses Jahres erscheinen, spätestens aber im ersten Quartal 2018. Das betrifft allerdings nicht alle Storage-Familien von IBM, da einige von ihnen mit Techniken ausgestattet sind, die schneller arbeiten als NVMe. Aber kurz über lang werden alle Speicherprodukte von IBM mindestens auf NVMe-Niveau gehievt.

Alle NVMe-Infos aus erster Hand

So, und wer alles direkt von Ralf Colbus hören und sehen möchte, dem empfehle ich dieses interessante Videointerview. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Ulrich Walter, IBM, über Künstliche Intelligenz und Storage

Dieses Videointerview mit Ulrich Walter von IBM ist auf dem IBM Storage Strategy Day 2017 in Ehningen entstanden. Darin spricht er über den Zusammenhang von Künstlicher Intelligenz und Storage-Systemen, was entsprechende Speicherlösungen können müssen und was IBM dazu im Portfolio hat.

Ulrich Walter kümmert sich bei IBM um das Thema Cloud & Cognitive Infrastructure im Kontext von Künstlicher Intelligenz (KI) und HPC. Daher wollte ich unbedingt wissen, wie KI und Storage zusammenpassen. Das ist aus Ulrich Walters Sicht ganz eindeutig: KI-Systeme benötigen in ausreichendem Maße Daten, von und mit denen sie lernen können.

KI-Anwendungen erfordern leistungsstarke und ausreichend dimensionierte Storage-Systeme

Doch genügen die aktuellen Speichersysteme den Anforderungen, die KI-Systeme an zugehörige Storage-Lösungen stellen? Nun, auch dazu hat er eine klare Meinung: KI-Anwendungen wie das Autonome Fahren oder die Gesichtserkennung im öffentlichen Raum generieren sehr viele Daten, die zuverlässig bereit stehen müssen. Hierfür sind große, leistungsstarke Speichersysteme erforderlich, die es heute schon gibt.

Das ist beispielsweise die IBM ESS-Familie (Elastic Storage Server), in Verbindung mit der IBM Spectrum Scale Software. Damit sind hochskalierbare Speichersysteme möglich, mit denen sich Daten speichern lassen, die mehrere hundert Petabyte umfassen.

Auch IBM POWER-Systeme sind KI-Storage-tauglich

Wer es ein wenig individueller mag, der kann laut Ulrich Walter alternativ auf IBM POWER-Systeme zurückgreifen. Diese bieten offene Betriebs- und Dateisysteme, in denen wahlweise Platten-, SSD- oder zunehmend NVMe-Speichersysteme zum Einsatz kommen. Je nach Budget und Einsatzgebiet.

So, und für alle Informationen aus erster Hand startet per Mausklick oder Fingertipp das Videointerview von und mit Ulrich Walter. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.