DSGVO-Studie: Lehrreiches IDC-Event zum Thema Datenschutz

Eigentlich wollte ich Freitag Morgen mit dem werten Karl Fröhlich von speicherguide.de via Skype ein Treffen vereinbaren. Am Ende des kurzen Chats stand die Einsicht, dass ich mich spontan ins Münchner Hotel „Le Meridien“ begeben sollte. Dort fand nämlich eine IDC-Veranstaltung zum Thema EU-DSGVO statt. Ein sehr spannendes Thema, in dessen Kontext IDC eine aktuelle Studie vorstellen wollte.

Und ich habe es nicht bereut, alleine schon wegen des sehr informativen und interaktiven Charakters der Veranstaltung. So wurden zunächst die Ergebnisse der Auguststudie von IDC zum Thema EU-DSGVO vorgestellt, anschließend nahmen drei Vertreter namhafter Firmen auf Hockern Platz, um sich den Fragen der IDC-Moderatorin und der anwesenden KollegInnen zu stellen.

Erkenntnis: Viele Firmen sind in Sachen DSGVO deutlich in Verzug

Das Gute an solch einer aktuellen Studie (Erhebungszeitraum: August 2017) ist deren Relevanz, denn man weiß sofort: Wenn im Rahmen der Umfrage 44 Prozent aller Probanden angaben, auf die EU-DSGVO noch nicht vorbereitet zu sein, dann wirft das ein eher erschütterndes Bild auf den aktuellen Status Quo der befragten Firmen. Und das waren genau 251 Unternehmen mit mehr als 20 Mitarbeitern, über alle Branchen hinweg.

Damit befinden sich 110 Unternehmen rund neun Monate im Verzug, was das Ergreifen der notwendigen Maßnahmen in Sachen Datenschutz betrifft. Dabei wird bereits seit Mai 2016 eine zweijährige Übergangsfrist gewährt, und trotzdem sind gerade einmal 15 Prozent (oder 38 von 251 der befragten Unternehmen) zu 100 Prozent auf die neue Datenschutzgrundverordnung vorbereitet.

Doch was ist für das hundertprozentige Erfüllen aller DSGVO-Kriterien überhaupt erforderlich? Nun, das betrifft vor allem vier Bereiche:

Organisation: Bestellung eines Datenschutzbeauftragten

Prozesse: Benachrichtigung bei Datenschutzverletzungen innerhalb von 72 Stunden

Technik: Berücksichtigung von „Privacy by Design“ und „Privacy by Default“

Recht: Gesonderte Einwilligung pro Verwendungszweck

Sieht man sich dazu die Ergebnisse der Studie an, fallen vor allem folgende Dinge auf:

„Datenschutzbeauftragter?! Damit warten wir noch ein bisschen…“

Gerade einmal 17 Prozent aller befragten Unternehmen beschäftigen (Stand heute) einen externen bzw. internen Datenschutzbeauftragten. Und das, obwohl sie allesamt zu der Bestellung eines Verantwortlichen verpflichtet wären, was sich aus der Größe der Studienteilnehmer ergibt.

„Stand der Technik?! Nun, wo sollen wir denn da anfangen?!“

Die Vielzahl an technischen Voraussetzungen in Sachen DSGVO ist derart unüberschaubar, dass wohl alleine wegen dieser enormen Komplexität zahlreiche Unternehmen wie das Kaninchen vor der Schlange stehen und mit weit geöffneten Augen starr vor Schreck ob dieser Herausforderungen im Nichtstun verharren.

„Wie sollen wir all diese notwendigen Maßnahmen umsetzen können?!“

Und sieht man sich die folgende Folie an, bekommt man eine leise Ahnung davon, warum so viele Unternehmen im DSGVO-Zeitplan ein Dreiviertel Jahr und mehr hinterher hinken. So gaben die Befragten an, vor allem hinsichtlich des Umbaus der IT-Systeme, hinsichtlich der Klassifizierung von Daten und bei der Schulung von Mitarbeitern an ihre Grenzen zu stoßen.

„Verschlüsselung?! Ja, da sind wir gerade dran…“

Doch die Studie offenbart noch weitere Schwächen in der aktuellen Umsetzung vieler Unternehmen in Sachen DSGVO. So sind zahlreiche Firmen beim Thema „Privacy by Design“ und „Privacy by Default“ deutlich hinter dem Zeitplan zurück. Es gaben mehr als 30 Prozent an, ihre Daten erst in den nächsten 12 Monaten DSGVO-konform verschlüsseln zu können, und das sowohl auf Datenbank- als auch auf Speicherebene. Zudem stellt die zweckgebundene Datenverarbeitung viele Unternehmen vor Probleme: Hier sind es fast die Hälfte, die noch keine entsprechenden Maßnahmen ergriffen haben.

Zahlreiche Rückstände in Sachen DSGVO

Exkurs: „Privacy by Design“ und „Privacy by Default“

Zwei Schlagworte, eine Forderung: Im Rahmen des europäischen Datenschutzes, der in der DSGVO geregelt ist, müssen alle betroffenen Firmen dafür sorgen, dass die zum Einsatz kommende Hard- und Software den hohen datenschutzrechtlichen Anforderungen genügt. Das bedeutet konkret, das die Unternehmenstechnik zum einen die Grundsätze der DSGVO vollständig unterstützen muss („by Design“) und zum anderen datenschutzkonforme Grundeinstellungen aufweist („by Default“).

Teil zwei der IDC-Veranstaltung: Fragen und Antworten

Im Anschluss an die Vorstellung der Studie wurden fünf Hocker aufgestellt, auf denen drei Vertreter namhafter Unternehmen Platz nahmen, die allesamt eine Menge zum Thema (Daten)Sicherheit zu sagen haben. Namentlich waren das Hans-Peter Bauer von McAfee, Tommy Grosche von Fortinet und Milad Aslaner von Microsoft. Ergänzt wurde die Runde von Matthias Zacher als IDC-Vertreter und Lynn-Kristin Thorenz, ebenfalls IDC, die für die Moderation zuständig war.

Was die US-Firma CAST mit der IT-SA 2017 zu tun hat

CAST Software - Dashboard-Ansicht

CAST logoGestern ging die IT-SA 2017 in Nürnberg zu Ende, und eines scheint wohl vielen Besuchern klar geworden zu sein: Das Thema Sicherheit geht jeden etwas an, und mit einer Strategie, die auf dem Vogel-Strauß-Prinzip basiert, werden die allermeisten Firmen keinen Erfolg haben. Im Gegenteil.

Denn spätestens mit Einführung der neuen EU-Datenschutz-Grundverordnung (EU-DSGVO) werden sich CEOs, CIOs, CTOs und alle anderen Verantwortlichen von Unternehmen mit dieser Abkürzung intensiv beschäftigen müssen. Besser noch: davor.

Denn im Grunde sollten alle Systeme, ob Hard- oder Software, den strengen Regelungen des EU-DSGVO gewachsen sein. Sind sie es nicht, sehen die Datenschutzhüter aus Brüssel für Vergehen – egal, ob gewollte und ungewollte – empfindliche Strafen vor.

CAST hilft, Verstöße gegen die EU-DSGVO zu vermeiden

Und genau an dieser Stelle kommt die US-Firma CAST ins Spiel. Denn mit ihren erprobten und zuverlässig arbeitenden Software-Methoden und -Werkzeugen hilft CAST Firmen und IT-Organisationen bei der Einhaltung der strengen Datenschutzverordnungen, die ab Mai 2018 auf sie zukommen.

Hierfür hat CAST diverse Tools und Produkte im Portfolio, mit denen sich jedwede Anwendungssoftware exakt analysieren lässt. Damit lassen sich mit relativ geringem Aufwand all diejenigen Schwachstellen aufspüren und eliminieren, die vor allem hinsichtlich der bevorstehenden EU-DSGVO kritisch werden können. Damit lassen sich unter anderem folgende Fragen beantworten:

Wo genau werden schützenswerte Daten gespeichert?

Welche Transaktionen und Anwendungen greifen auf Daten zu?

Welche Verfahren müssen verbessert werden, um ein angemessenes Datenschutzniveau zu erreichen?

Um all diese Schwachstellen innerhalb einer Anwendungssoftware identifizieren zu können, greift die Firma CAST auf drei wesentliche Grundprinzipen zurück:

1. Eine 25-jährige Erfahrung, die in jede Analyse und jede Bewertung von Software einfließt UND

2. eine holistische Anwendungsanalyse, die über alle Ebeneren funktioniert UND

3. eine Analysesoftware, die höchsten Qualitätsansprüchen genügt.

Die 25-jährige Erfahrung spiegelt sich vor allem in einer permanenten Weiterentwicklung der CAST’schen Softwaretools wider, was sich wiederum darin niederschlägt, dass hunderte international operierende Konzerne wie Airbus, Allianz, UniCredit, etc. den CAST-Softwarelösungen vertrauen. Zudem setzen Firmen wie IBM, Atos, Capgemini und andere bekannten Unternehmen CAST-Tools zu internen Zwecken ein.

Der holistische Ansatz macht den Unterschied

Tools wie SonarQube sind im Vergleich zu CAST-Werkzeugen und ihren Analysen recht eindimensional, da sie nur die einzelnen Bausteine einer kompletten Anwendungen betrachten, aber nicht das große Ganze. Und genau das ist gemeint mit dem holistischen Ansatz von CAST.

Hier werden sämtliche Anwendungen einer globalen Applikation auf mögliche Fehler hin untersucht, also von der Eingabequelle wie beispielsweise einer iPhone-App bis zu hin zur Transaktionsanwendung, die auf einem Mainframe-Rechner ihren Dienst verrichtet. Denn nur mit dieser vollumfänglichen Analyse über alle Ebenen hinweg können auch die sogenannten Sollbruchstellen überprüft werden, an denen es in 90 Prozent aller Fälle zu den größten Sicherheits- und Stabilitätsproblemen kommt.

Der holistische Analyseansatz der CAST Softwaretools macht den Unterschied

CAST-Software folgt den höchsten Softwarestandards

Für die Zuverlässigkeit einer Software, die mithilfe von CAST-Tools analysiert und bewertet werden soll, ist es unumgänglich, dass Standards zum Einsatz kommen. Aus diesem Grund setzt CAST seit Anfang an auf die Konformität, die sich aus dem Regelwerk anerkannter Institutionen ergibt. Dazu gehört das Software Engineering Institute (SEI), die Integration Standards Organization (ISO), das  und das Institute of Electrical and Eletronics Engineers (IEEE). Damit ist jederzeit eine bestmögliche Einhaltung bekannter Software-Standards gewährleistet.

CAST adressiert CIOs, IT-Admins und mehr

Die Analysetools von CAST folgen einem schlichten Credo: Es sollen immer genau die Daten zur Verfügung gestellt werden, die für die jeweilige Anwendergruppe relevant sind. So stellt beispielsweise das Management-Dashboard Metriken wie Ausfallrisiko einer Anwendungssoftware anschaulich dar. Damit lassen sich applikationsgenau Ressourcen festlegen und priorisieren, um bestehende Schwachstellen zu eliminieren.

Darüber hinaus können Produktmanager und Architekten mithilfe des Trend-Dashboards sehr genau die Entwicklung einer Anwendung analysieren und bewerten. Damit können sie feststellen, wie gut eine Software performt und wo mögliche Potentiale schlummern. Und zu guter Letzt bieten detaillierte Ansichten all die Informationen, die für Software-Entwickler bei der Behebung von Schwachstellen und schadhaftem Code wichtig sind.

CAST Software - Dashboard-Ansicht

CAST Software - Dashboard-Ansicht für Entwickler

Und was die Software-Tools von CAST sonst noch alles leisten, das erfahrt ihr zu einem späteren Zeitpunkt im nächsten CAST-Blogpost.

Disclaimer: Dieser Blogbeitrag ist im Auftrag der Firma CAST entstanden, die mir bei der Ausgestaltung und Formulierung nahezu freie Hand lässt.

[Video] Lars Herrmann (IBM) über das IBM Z-Event

Lars Herrmann (IBM) über das große IBM-Z-Event in München

Anlässlich des großen IBM Z-Events in München habe ich dieses Videointerview mit Lars Herrmann von IBM geführt. Darin spricht er über die große Klammer der Veranstaltung, über die Highlights des Paulo Carvao-Vortrags und über das Kundenfeedback zum Event.

Lars Herrmann kümmert sich bei der IBM um den Bereich Service Solutions für IBM POWER und IBM Mainframes. Er fasst den ersten Vormittag des Z-Events zusammen und verrät auch sonst wissenswerte Details.

„Vertrauen“ ist die Klammer des ersten Z-Vormittags

Zunächst einmal hat mich interessiert, ob es denn eine Klammer gab, mit der sich die vier Vorträge von Martina Koederitz, Martha Benneth, Jutta Rößner und Paulo Carvao zusammenfassen lassen. Und ja, die gab es, nämlich das Thema Vertrauen. Das sei für IBM sehr wichtig, da es ein zentrales Motiv seitens des Marktes und damit auch der Kunden darstelle.

Das hat auch damit zu tun, dass IBM immer mehr dazu übergehe, Kunden nicht etwas zu verkaufen, um zu verkaufen, sondern nur noch das zu verkaufen, was die Kunden auch wirklich kaufen wollen.

IBM z14 bietet vier wesentliche Aspekte: neues Preismodell, verbesserte Verschlüsselung, Machine Learning und offene APIs

Besonders erwähnenswert fand Lars Herrmann den Vortrag von Paulo Carvao, da er die Highlights der neuen IBM z14 kurz und knackig zusammengefasst hat. Dazu gehören ein kaufmännischer und drei technische Aspekte:

Kaufmännischer Aspekt: Mit dem Container Based Pricing ist es erstmals möglich, mit einer kleinen Mainframe-Version zu beginnen und diese dann bei Bedarf größer und größer werden zu lassen. Damit zahlt der Kunde immer nur genau das, was er auch benötigt.

Technischer Aspekt #1: Auf Basis der Pervasive Encryption wird eine umfängliche Verschlüsselung aller Daten gewährleistet, und das, ohne Anwendungen resp. Service Levels zu beeinträchtigen.

Technischer Aspekt #2: Mit der Fähigkeit, Machine Learning-Funktionen auf dem Mainframe-Rechner einzusetzen, können künftig Daten analysiert werden, ohne dass dafür vorher ein bekannter Algorithmus implementiert werden muss.

Technischer Aspekt #3: Mithilfe von offenen Schnittstellen (APIs) lassen sich externe Systeme nahezu beliebig mit der Mainframe verbinden. Damit können beispielsweise mit relativ geringem Aufwand hybride Cloud-Infrastrukturen eingerichtet werden, womit sich der Mainframe noch besser in die moderne Welt integrierten lässt, wie Herr Herrmann das nennt.

Neues Event-Konzept kommt gut bei Kunden an

Und wie sah es mit Kunden-Feedback auf dem Z-Event aus? Nun, auch damit war er sehr zufrieden, was wohl auch dem neuen Konzept geschuldet war. So hatte man sich dafür entschieden, mit den bereits angesprochen vier Kurzvorträgen zu beginnen, um das Event anschließend nahtlos in einen Showcase zu überführen, in dem IBM-Experten sämtliche Fragen zu Mainframe-relevanten Anwendungsszenarien beantworteten.

Videointerview mit Lars Herrmann: Infos aus erster Hand

Sämtliche Infos aus erster Hand präsentiert Lars Herrmann im folgenden Videointerview. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Bernd Bohne von der SDV-IT zu IBM-Mainframes

Bernd Bohne von der SDV-IT zu IBM-Mainframes und der IBM z14

Im IBM Watson IoT Center zu München durfte ich mit Bernd Bohne von der Sparda-Datenverarbeitung (SDV-IT) während es großen IBM Z-Events dieses Interview zum Thema IBM-Mainframes führen. Darin nennt er zahlreiche Gründe, warum Sparda-DV IBM-Großrechner einsetzt und warum er das z14-Feature „Pervasive Encryption“ so spannend findet.

IBM-Mainframes kommen bei der SDV-IT seit 1983 zum Einsatz

Die SDV-IT blickt auf eine lange IBM-Mainframe-Historie zurück. So werden die Rechner seit Gründung des Unternehmens im Jahr 1983 eingesetzt. Die Großrechner kommen vor allem im Bereich Transaktionsverarbeitung zum Einsatz, und das sowohl im Zahlungsverkehr als auch bei den Bankgeschäften. Zudem werden die Rechner massiv bei der Stapelverarbeitung verwendet.

Derzeit stehen unter anderem zwei Mainframes vom Typ IBM z13 in den Rechenzentren der SDV-IT, auf denen z/OS und z/VM sowie z/Linux installiert sind.

„Pervasive Encryption erlaubt die umfassende Verschlüsselung, vom Server bis zu den Platten“

Natürlich interessierte mich, wie Herr Bohne das neue Sicherheitsfeature der IBM z14 „Pervasive Encryption“ einschätzt. Er findet dieses neue Feature für einen Banken-IT-Dienstleister natürlich hochinteressant, da sich daraus eine vollständige Verschlüsselung vom Server über die Verbindungswege bis zu den Platten ergibt, wie er im Interview sagt.

„Vom IBM Watson IoT Center gehen wirklich eigene Impulse aus“

Neben den technischen Aspekten der Veranstaltung fand Bernd Bohne auch die Event-Location sehr bemerkenswert. Denn vom IBM Watson IoT Center gehen vollkommen neue Impulse aus und man komme dazu, mal wieder in neue Richtungen zu denken. Und klar, dass er auch wegen der IBM z14 den „weiten“ Weg von Nürnberg nach München auf sich genommen hat.

Bernd Bohne im Videointerview zu IBM Z und mehr

Alle Fans des Bewegtbilds können sich natürlich das Interview mit und von Bernd Bohne per Mausklick oder Fingertipp ansehen und -hören. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Dr. Axel Köster von IBM über Cognitive Storage

Dr. Axel Köster (IBM) über Cognitive Storage

Während des IBM Storage Strategy Day 2017 in Ehningen habe ich dieses Interview mit Dr. Axel Köster geführt. Darin spricht er über Cognitive Storage und was es damit auf sich hat. Er zeigt, welche Speichertechniken bereits „Cognitive-ready“ sind und was das IBM Watson IoT Center damit zu tun hat.

Zunächst einmal gilt festzuhalten, dass Herr Köster einen tollen Titel trägt, er ist nämlich Cheftechnologe des Europäischen Speicherkompetenzzentrums in Frankfurt/Main. Zudem ist er Chairman der IBM Technical Expert Council (TEC) im deutschsprachigen Raum.

Von „Cognitive Storage“ und IBM Watson

Meine erste Frage führte mich direkt zum Thema des Interviews, was denn „Cognitive Storage“ sei. Dabei handelt es sich laut Herrn Köster um eine zweigeteilte Technologie: Einerseits handele es sich um hochparalellen Speicher für die kognitiven Algorithmen, die dafür sorgen, dass kognitive Systeme wie IBM Watson  überhaupt arbeiten können.

Zum anderen stehen diese Algorithmen auch für Storage-Systeme zur Verfügung, womit intelligenter Speicher möglich wird, der also lernt, was zu tun ist. Die Speichereinheit weiß zum Beispiel nach einer gewissen Zeit, welche Daten wichtig (Hot Data) und welche weniger wichtig (Cold Data) sind.

Kognitive Speichersysteme sind in 10 Jahren Standard-IT

Aber gibt es überhaupt schon Speichersysteme, die mit dieser Form von Künstlicher Intelligenz zurecht kommen. Ja, diese Systeme gibt laut Herrn Köster schon, die extrem parallel arbeiten. Allerdings kommen diese Hochleistungssysteme vor allem bei größeren Unternehmen zum Einsatz, kleineren Firmen mangelt es an solchen Systemen noch.

Aber, und da ist er sich sicher, müssen sich mittel- bis langfristig alle IT-Verantwortlichen mit dieser neuen Form des Speichers befassen, denn in etwa zehn Jahren wird das zur Standard-IT gehören.

Sensoren & Co. generieren große Datenmengen

Natürlich hat auch das IBM Watson IoT Center mit großen Datenmengen zu tun, die beim Einsammeln derselben generiert werden. Denn überall dort, wo beispielsweise Sensoren große Datenmengen produzieren, lassen sich neue Erkenntnisse gewinnen, die dann an anderer Stelle eingesetzt werden können.

Diese Ergebnisse werden nicht mithilfe von Algorithmen erzielt, sondern auf Basis neuronaler Netze, die wie das menschliche Gehirn funktionieren. Damit können zum Beispiel Gebiete identifiziert werden, in denen möglicherweise Hagelschaden entsteht, um daraus die richtigen Maßnahmen abzuleiten.

x86 ist für neuronales Rechnen nicht parallel genug, IBM TrueNorth schon

Doch neben den hohen Anforderungen an Speicher kommen auch den Recheneinheiten von kognitiven Systemen eine große Bedeutung zu. So hat mich interessiert, ob General Purpose Prozessoren wie der Intel x86 für solche Aufgaben geeignet seien. Und nein, sind sie nicht, da diese CPUs laut Herrn Köster nicht parallel genug arbeiten. Hierfür taugen eher die grafischen Co-Prozessoren, wie man sie von NVIDIA kennt.

In dieser Kategorie tummelt sich auch der IBM-eigene Hochleistungschip TrueNorth, der bereits erste Rekorde aufgestellt hat und eben genau wie das menschliche Gehirn arbeitet. An dieser Stelle kommt Herr Köster geradezu ins Schwärmen, da die CPU gerade mal 70 Milliwatt im Betrieb verbraucht, weil sie ganz anders arbeitet als die Von-Neumann-Prozessoren.

Dr. Axel Köster im Videointerview

Wer die hier genannten Informationen lieber aus erster Hand bezieht, der klicke oder tippe auf den Startknopf des Videointerviews von und mit Axel Köster. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Dr. Robert Haas, IBM Schweiz, über neue und alte Speichertechnologien

Dr. Robert Haas (IBM Schweiz) über Storage-Trends

Während des IBM Storage Strategy Day 2017 habe ich dieses Interview mit Dr. Robert Haas vom IBM-Labor in Rüschlikon, Schweiz, geführt. Darin spricht er über aktuelle und neue Speichertechniken, verrät, warum Cloud Service Provider immer häufiger Bandlaufwerke einsetzen und warum Dockers die neuen Virtual Machines sind.

Robert Haas ist Chief Technology Officer (CTO) Storage für Europa, und das an einem der schöneren Orte dieser Erde, im schweizerischen Rüschlikon am Zürichsee. Sehr malerisch, davon durfte ich mich auch schon überzeugen.

Von Speichermedien zu Dockers – das ist die Haas’sche Storage-Reise

Während seines Vortrags auf dem IBM-Event in Ehningen nahm Herr Haas seine Zuhörer auf eine mehretappige Reise mit, dir er für mich kurz und knapp zusammengefasst hat. Dabei bezieht er sich auf die Vielschichtigkeit von Storage-Lösungen, die ein Unten und ein Oben haben.

Speichermedien verändern sich – aber nicht alle

Unten, das sind die Medien, auf denen Daten gespeichert werden, sowohl im klassischen Sinne, also auf Festplatte, als auch im neue Sinne, also beispielsweise auf NVMe-kompatiblen Flashkomponenten. Und in Zukunft werden weitere Medien hinzu kommen, wie das Speichern einzelner Bits auf Atomkernen eindrucksvoll bewiesen hat.

Davon profitieren heute und morgen die Storage-Applikationen, mit denen sich große Datenmengen speichern und nutzen lassen. Und ganz oben befindet sich schließlich die Container-Speichertechnik, die mithilfe der Docker-Technik benötigten Speicherplatz blitzschnell zur Verfügung stellen kann. Und klar, dass IBM diese Container-basierte Speichertechnik mit eigenen Lösungen wie speziellen Schnittstellen unterstützt.

Tape-Laufwerke bieten einen unschlagbaren TCO-Wert

Ein wenig überrascht war ich ob einer Aussage von Robert Haas, der während des Interviews die These aufstellt, dass sich Tape-Laufwerke aktuell bei den Cloud Service Providern als wichtiges Speichermedium etablieren. Und ja, diese Firmen haben laut Herrn Haas erkannt, dass Bandlaufwerke noch wie vor einen unschlagbaren TCO (Total Cost of Ownership) aufweisen. Daher sind  sie vor allem für Cold Data-Anwendungen (Datenarchive, Langzeit-Backup) immer noch ein konkurrenzloses Medium.

Das weiß natürlich auch IBM, und so wundert es nicht, dass man in den Laboren daran arbeitet, die Speicherdichte von Magnetbändern weiter zu erhöhen, und das wird wohl auch die nächsten Jahre gelingen.

Die Container-Technik als Alternative zu Virtual Machines

Eine weitere These, die Herr Haas während seines Vortrags aufgestellt hat, betrifft die Container-Technik, die laut seiner Aussage gerade eine Konkurrenz zu Virtual Machines wird.

Das hat vor allem mit der Tatsache zu tun, dass agile Services immer mehr in den Vordergrund drängen, mit denen beispielsweise sehr schnell auf unerwartete Datenbankabfragen reagiert werden kann. Dafür eignen sich Docker-basierte Container sehr gut, weil sie sehr schlank sind und sehr schnell bereitgestellt werden können. Und das ohne die Notwendigkeit, ein komplettes OS-Image starten zu müssen.

Alles Infos aus erster Hand von Dr. Robert Haas

Wie immer kann man sich die Infos auch direkt aus erster Hand beim Interviewpartner abholen. Na dann: Film ab!

[Video] Ed Walsh, IBM, über Storage-Trends aus IBM-Sicht

Ed Walsh, IBM, über Storage-Trends

Während des IBM Storage Strategy Day 2017 hatte ich die Gelegenheit, mit Ed Walsh zu sprechen. Er verantwortet das weltweite Storage- und Storage-Defined-Infrastructure-Geschäft bei IBM und hat mir verraten, was die Kernaussagen seines Keynote-Talks waren und wie sich IBM derzeit im weltweiten Speichermarkt positioniert. Außerdem spricht Ed darüber, worauf sich Storage-Verantwortliche künftig einstellen sollten.

Da Ed Walsh seit gerade mal einem guten Jahr seine aktuelle Position bekleidet, kam es ihm während seiner Keynote-Session vor allem darauf an, die weltweite Storage-Strategie von IBM aufzuzeigen und einen aktuellen Zustandsbericht abzuliefern.

IBM rangiert im weltweiten Storage-Markt auf #2, in Spezialdisziplinen wie Object Storage auf #1

Da wollte ich natürlich gleich wissen, wie es bei IBM in Sachen Storage derzeit aussieht. Hier zeigte sich Ed sehr zufrieden, da die komplette Storage-Sparte profitabel arbeitet und ein Wachstum von 7% (Q1-16 vs. Q1-17) und 8% in Q2-17 aufweist. Damit steht IBM derzeit auf dem zweiten Platz, wenn man den weltweiten Storage-Gesamtmarkt betrachtet. Sieht man sich hingegen bestimmte Marktsegment wie Storage-Software oder Object Storage an, rangiert IBM dort auf Platz 1.

Neue Worksloads erfordern neue Speicherlösungen

Während seines Vortrags sprach Ed über neue Worksloads und was hierfür in Sachen Storage zu tun sei. Was denn das sei, wollte ich wissen. Hier verwies er vor allem auf das Thema Software-defined Storage, mit dem sich heterogene Speicherlandschaften effizienter nutzen lassen, und das über Netzwerkgrenzen hinweg.

Gerade in diesem Kontext spielt IBM Spectrum Software laut Ed Walsh eine immer größere Rolle. Damit lassen sich hoch-skalierbare Workloads administrieren und verwalten, die in Zeiten von Künstlicher Intelligenz und Co. immer mehr in den Vordergrund rücken.

Ed Walsh im Videointerview

Wer das ganze Interview von und mit Ed Walsh sehen und hören möchte, starte am besten jetzt das Video. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.