Cyber-Security

Data Residency: eperi-Techniken helfen bei der Umsetzung

Am 1. Juni 2017 hat die Regierung der Volksrepublik China das sogenannte Cybersecurity-Gesetz (CSG) aktiviert, das immer noch viele Datenschutzbeauftragte verunsichert.  Für ein besseres Verständnis, wie sich die darin verankerten Regelungen auf in China operierenden Firmen auswirken können, habe ich es mir ein wenig genauer angesehen.

Das CSG wurde vor allem wegen möglichst hoher Datenschutz-Sicherheitsstandard  verabschiedet. Und es geht ein gutes Stück weiter als die Datenschutzgrundverordnung. Denn im Gegensatz zur DSGVO, die das Verarbeiten von Daten auch außerhalb des europäischen Hoheitsgebietes vorsieht, schreibt das Cybersecurity-Gesetz eindeutig vor, dass die in China erhobenen und verarbeiteten Daten um jeden Preis in der Volksrepublik bleiben müssen.

An das Cybersecurity-Gesetz sollte man sich penibel halten!

Mit dem CSG sollen Hackerangriffe und Cyber-Terrorismus bekämpft und unterbunden werden. Daher sieht das Gesetz bei Verstößen drakonischen Strafen wie den Entzug der sogenannten Bei’an-Lizenz vor, was faktisch einem unternehmerischen Aus in China gleichkommt, da ohne diese Lizenz in der Volksrepublik keinerlei Geschäftsaktivitäten möglich sind.

Daraus ergeben zahlreiche Fragen wie zum Beispiel: Wer ist vom CSG tatsächlich betroffen? Auch an dieser Stelle hilft eine Blick in den Gesetzestext: Das Gesetz kommt für alle Firmen zur Anwendung, die im elektronischen Geschäftsverkehr in China aktiv sind. Die Rede ist also von Onlineshop-Betreibern und Anbietern von Netzwerk- und Critical Information-Infrastrukturen. Das sind zum Beispiel das Rechenzentrum einer Bank, eine medizinische Einrichtung, etc. Es geht also stets um sensible und unternehmenskritische Daten und deren Erfassung, Verarbeitung und Speicherung. 

Cloud-Services in China unterliegen höchsten Anforderungen

Ein weitere Rolle in diesem Szenario spielt die große Entfernung Chinas zu Europa und den damit verbundenen hohen Latenzzeiten. Außerdem sorgt die „Große Firewall“ der chinesischen Regierung oft dafür, dass Daten die Volksrepublik gar nicht verlassen oder erreichen können. In beiden Fällen behelfen sich viele Firmen mit „gespiegelten“ Inhalten, die sich innerhalb der chinesischen Grenzen befinden. Oft handelt es sich dabei um cloud-basierte Datenserver, die akzeptable Ladezeiten und das Umgehen der chinesischen Firewall ermöglichen.

Und genau daraus ergibt sich ein nicht zu unterschätzendes Dilemma: Wie kombiniert man in geeigneter Art und Weise die technischen und datenschutzrelevanten Herausforderungen, die sich aus dem CSG ergeben? 

Das „Schweizer Bundesgesetz über den Datenschutz“ im CSG-Kontext

Neben der Volksrepublik China verschärft auch die Schweiz seinen Datenschutz in erheblichem Maße. So wird gerade das „Bundesgesetz über den Datenschutz“ (DSG) an die aktuellen Veränderungen angepasst. Dies ist unter anderem der europäischen Datenschutzgrundverordnung geschuldet, an welche die Schweiz ja nicht gebunden ist. So wird der Schweizer Gesetzgeber das DSG an die DSGVO anpassen, ohne die speziellen Anforderungen der Schweiz zu vernachlässigen. Namentlich sind das die Forderungen nach einem Datenschutzverantwortlichen mit Hauptsitz in der Schweiz und eine bevorzugte Datenerhebung und -verarbeitung in der Schweiz.

Verschlüsseln von Cloud-Daten = CSG- und DSG-konform

Will man also als Unternehmer sicher stellen, die Daten CSG- und DSG-konform zu verarbeiten und zu speichern, kommt man um das Verschlüsseln seiner Cloud-Daten nicht herum. Denn die VR China und die Schweiz fordern einen sachgemäßen Umgang mit personenbezogenen und unternehmenskritischen Daten, die sich vor allem auf Cloud-Infrastrukturen befinden.

Damit ist eine Verschlüsselung vonnöten, die Cloud-Daten auf spezielle Art und Weise unleserlich macht. Dazu gehört ein Verschlüsselungsverfahren, das die Daten VOR dem Speichern auf dem Cloud-Server bestmöglich verschlüsselt. Und das außerdem sicherstellt, dass ausschließlich der Eigentümer der Daten über die notwendigen Schlüssel verfügt, da nur er dann Zugriff auf personenbezogene oder geschäftskritische Daten hat.

Cyber-Security 2

Das eperi Gateway erfüllt Data Residency-Auflagen

Damit sollte man als Sicherheitsbeauftragter auf ein Verschlüsselungsverfahren setzen, das die Daten verschlüsselt, bevor sie auf dem Cloud-Server landen. Und das obendrein sicherstellt, dass die originären Daten die IT-Landschaft nicht verlassen, um geltendes Recht einzuhalten, wie es das Cybersecurity-Gesetz der chinesischen Regierung vorsieht.

Das eperi Gateway und die damit in Verbindungen stehenden eperi Cloud Data Protection Lösungen stellen genau diese Forderungen sicher. Damit lassen sich Data Residency-Anforderungen  erfüllen, da sensible Daten verschlüsselt werden, sodass diese nachweislich innerhalb eines vorgesehenen Rechtsraumes verbleiben und nur als verschlüsselte, unlesbare Daten diesen Raum verlassen.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

office365-verschluesselung-cloud-eperi

Office 365-Umgebungen mithilfe von eperi DSGVO-konform absichern

Es soll ja Leute geben, die können sich gar nicht mehr vorstellen, ohne Cloud-Services wie Microsoft Office 365 zurecht zu kommen. Dafür ist der Komfort und der schnelle Zugriff auf sämtliche Applikationen und Daten einfach zu gut, als dass sie jemals wieder darauf verzichten möchten.

Dabei bleibt allerdings leider viel zu oft die Sicherheit auf der Strecke. Denn mit jeder E-Mail, jedem vertraulichen Termin und mit jedem personenbezogenen Datum steigt das Risiko, dass sensible Daten in die falschen Hände geraten. Dabei ist es doch im Grunde so einfach, seine wertvollen Daten gegen den Zugriff von Unbefugten zu schützen.

Wussten Sie eigentlich, dass spätestens mit dem Inkrafttreten der DSGVO am 25. Mai 2018 nicht nur die Datenverantwortlichen eines Unternehmens in der Verantwortung stehen, sondern auch die sogenannten Auftragsverarbeiter? Das sind neben den klassischen Rechenzentrumsbetreibern auch die Anbieter von Cloud-Plattformen und Cloud-Diensten. Dazu zählt also auch Microsoft mit seinem Cloud-Service Office 365. Doch können Sie sicher sein, dass die Cloud Service Provider (CSP) sämtliche Auflagen rund um die DSGVO (und andere gesetzliche Regularien) auch wirklich vollständig einhalten? Sehen Sie, und genau das ist der Knackpunkt an der Geschichte. Und genau an der Stelle kommt das Thema Verschlüsselung ins Spiel.

Denn nur wenn Daten verschlüsselt in der Cloud gespeichert werden, kann man sich sicher sein, dass damit auch kein Unfug angestellt werden kann. Darüber hinaus will man keinen Aufwand generieren, der mit einer möglichen Anpassung der Verschlüsselungstechnik an den Cloud-Service wie Office 365 erforderlich macht. Eine Lösung, die beide Aspekt berücksichtigt, nennt sich eperi Cloud Data Protection (CDP). In diesem Fall geht die Sicherheit der Office-365-Daten noch ein erhebliches Stück weiter: Die Daten liegen faktisch gar nicht innerhalb der Office-365-Cloud-Umgebung, sondern auf einem geografisch und damit physikalisch getrennten Server, dem eperi Gateway.

eperi CDP = sichere Office 365-Cloud-Umgebungen

Damit stellt eperi Cloud Data Protection for Office 365 die ideale Ergänzung zu den Sicherheits- und Datenschutz-Funktionen dar, die Office 365 von Haus aus anbietet, indem es die Microsoft’sche Cloud-Umgebung um zentrale Datenschutz- und Compliance-Funktionen ergänzt. Damit werden sensible Informationen sicher verschlüsselt, bevor sie an die Office 365 Cloud übermittelt werden.

Ein weiterer Vorteil an dieser Lösung: Nur ein kleiner Kreis berechtigter Personen hat Zugang zu den kryptografischen Schlüsseln, die zum Ver- und Entschlüsseln sensibler Informationen in der Office 365-Cloud benötigt werden. Außerdem finden sämtliche Verschlüsselungs- und Entschlüsselungsprozesse ausschließlich unter der Kontrolle des Unternehmens außerhalb der Office 365-Cloud statt. So können nicht einmal Microsoft-Administratoren oder Mitarbeiter in externen Datenzentren auf die Daten im Klartext zugreifen.

Stellt sich nur die Frage, wie wichtige Anwendungsfunktionen, z. B. die Volltextsuche in E-Mails auf Exchange weiterhin funktionieren können, wenn die Daten in der Office 365-Cloud zu jedem Zeitpunkt verschlüsselt sind und die Microsoft Cloud-Services keinerlei Zugriff auf die Schlüssel haben? Die Antwort darauf liefert das eperi Gateway, das die Grundlage aller Cloud Data Protection-Lösungen darstellt, und die Art und Weise, wie es mit der Office 365-Cloud zusammenarbeitet und die Protokolle, die es unterstützt.

Office 365: Protokolle, Schnittstellen, Funktionen

HTTP(S): Mit dem Hypertext Transfer Protocol greifen die Anwender auf die Office-365-Anwendungen über einen Standard-Webbrowser zu. Dabei verschlüsselt HTTPS (Hypertext Transfer Protocol Secure) die Verbindungen zwischen Browser und Server. Hierbei kommt das Übertragungsprotokoll TCP/IP zum Einsatz, die Verschlüsselungstechnik dahinter wird mit SSL (Secure Socken Layer) bzw. TLS (Transport Layer Security) bezeichnet. Auf dem Server muss ein anerkanntes Zertifikat installiert sein, das eine Authentifizierung des Webbrowsers gegenüber des Webservers erlaubt.

SMTP: Mit dem Simple Mail Transfer Protocol werden innerhalb einer Office-365-Umgebung E-Mails versendet. Die Schnittstelle basiert ebenfalls auf dem Übertragungsprotokoll TCP/IP und nutzt SSL/TLS für den verschlüsselten Versand von E-Mails. Im Falle des SSL/TLS-basierten Versands spricht man auch von SMTPS (Simple Mail Transfer Protocol Secure).

Exchange Web Services (EWS): Mit den EWS greifen Anwender sicher und komfortabel auf Office 365-Postfachdaten zu. Dazu gehören E-Mails genauso wie Kalendertermine und Kontakte. Hier kommt auch HTTPS als Zugriffsprotokoll zum Einsatz.

Exchange ActiveSync (EAS): Analog zu den Exchange Web Services greift man mit EAS auf E-Mails, Kalender und Termine zu, allerdings mittels seiner Mobilgeräte wie iPhone und Tablet. Erwähnenswert ist in diesem Kontext die EAS-Funktion „Direct Push“, mit dessen Hilfe E-Mails, Terminen, etc. zwischen Office 365 und dem mobilen Endgerät synchronisiert werden. Die Daten zwischen Server und Mobilgerät werden auch über HTTPS übertragen.

MAPI over HTTP(S): Mit dem Messaging Application Programming Interface lassen sich E-Mail-Nachrichten direkt aus anderen Anwendungen als dem Mail-Programm verschicken. So lassen sich Textdokumente aus Word versendet werden, ohne dass man diese zuvor in den E-Mail-Client von Office 365 kopieren muss. MAPI over HTTPS wurde mit Microsoft Exchange 2013 eingeführt und hat seinerzeit das Vorgängerprotokoll RPC over HTTP abgelöst. Vor allem die deutlich schnellere Verbindung eines tragbaren Rechners mit dem Office 365-Mailserver via MAPI over HTTPS bietet erhebliche Vorteile gegenüber RPC over HTTP.

Müßig zu erwähnen, dass das eperi Gateway diese Protokolle, Funktionen und Schnittstellen von Office 365 unterstützt. Denn nur dann ist eine durchgängige Verschlüsselung innerhalb der Office 365 Cloud-Umgebung möglich.

eperi Gateway & Office 365: ein erprobtes E-Mail-Team

Eine Besonderheit des eperi Gateway ist seine unkomplizierte Verschlüsselungstechnik. Damit muss sich der Anwender nicht um passende Schlüssel oder ähnliche Dinge kümmern. So verfasst er einfach eine unverschlüsselte E-Mail-Nachricht und versendet diese. Diese landet auf dem E-Mail-Server des Empfängers, wo sie unmittelbar nach Erhalt vom eperi Gateway verschlüsselt und dann automatisch an Office 365 weitergeleitet wird. Da nur das Unternehmen des Empfängers über den Schlüssel zum Dekodieren der Nachricht verfügt, können ausschließlich berechtige Anwender des Unternehmens und sonst niemand die Nachricht lesen.

Interessant ist obendrein die Option, über die Outlook Web Apps auf die Office 365-Umgebung zuzugreifen. Da sich zwischen Browser und Office 365 Cloud-Umgebung ebenfalls das eperi Gateway um die Ver- und Entschlüsselung der Nachrichten kümmert, können E-Mails ganz bequem von jedem Ort der Welt via Webbrowser abgerufen werden – und das vollkommen geschützt.

Trotz Verschlüsselung nach E-Mails und Dateien suchen

Mit einem speziellen Trick können Anwender innerhalb einer Office 365 Cloud-Umgebung verschlüsselte E-Mails und Dateien suchen und finden. Hierzu legt das eperi Gateway einen vollständigen Index aller E-Mails und Dateien an, der nicht in der Office 365-Cloud, sondern in der sicheren Kundenumgebung, z.B. auf dem eperi Gateway-Server gespeichert wird. Das entkoppelt die Office-Umgebung vom eperi Gateway, was zusätzlich die Sicherheit erhöht.

Sucht dann ein Benutzer nach einem Datum oder Begriff, wird dieses/r zunächst an das eperi Gateway weitergeleitet. Dort wird die modifizierte Suchanfrage mithilfe der richtigen Datenset-ID an die Office 365-Cloud-Umgebung gesendet, die anhand dieser eindeutigen Nummer das richtige, verschlüsselte Suchergebnis aus der Office 365-Umgebung an das eperi Gateway zurückgibt. Dort wird die E-Mail oder Datei entschlüsselt und dem Anwender als Klartext zur Verfügung gestellt. Damit wird zu jeder Zeit sichergestellt, dass Suchergebnisse wie E-Mails oder Dateien niemals öffentlich vorliegen und damit Office 365-Inhalte auch nicht kompromittiert werden können.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

Plamen Kiradjiev über Smart Factory und IBM

[Videochat] Plamen Kiradjiev (IBM) über Smart Factories am Beispiel von Mettler Toledo

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Plamen Kiradjiev von IBM über das Thema Smart Factories am Beispiel von Mettler Toledo geführt. Darin zeigt er, wieso IBM ein wichtiger Teil der SmartFactory-Szene ist, welche Rolle IBM darin einnimmt und wie IBM mit seinen KI- und Cloud-Tools Industriekunden wie Mettler Toledo hilft.

„Was zeigen Sie hier [auf dem Smart Factory-KL-Stand] auf der Hannover-Messe 2018“?

Laut Herrn Kiradjiev zeigten auf dem Smart Factory-KL-Stand in Halle 8 wie seit vielen Jahren zahlreiche Aussteller ihre Lösungen rund um das Thema „Schlaue Fabriken“ und Industrie 4.0. Und auch dieses Jahr war IBM wieder von der Partie. Das Hauptinteresse seitens IBM auf diesem großen Messestand bestand im Sammeln, Analysieren und Bewerten der Daten, die hier zu Demonstrationszwecken benötigt wurden.

Einen dieser Messepartner, der gleichzeitig auch Kunde von IBM ist, versorgte IBM mit Daten für die Qualitätssicherung seiner Produkte. Die Rede ist von Mettler Toledo, dem Hersteller von Präzisionswaagen, für den das Thema Qualitätssicherung in der Fertigung von allerhöchster Wichtigkeit ist.

„Welche Rolle nimmt IBM in der Smart Factory ein?“

Die primäre Rolle von IBM innerhalb des Smart Factory-Kontexts war die vorausschauende Fertigung und Wartung, was auch als Predictive Manufacturing und Predictive Maintenance bezeichnet wird. Dabei hatte es sich IBM unter anderem zum Ziel gesetzt, diese beiden auf Machine Learning basierenden Ansätze auf der Hannover-Messe (und darüber hinaus) zu Lern-un Demonstrationszwecken bestmöglich einzusetzen.

Ein wichtiger Prozess dabei ist das Extrahieren und Analysieren der Daten, die IBM mithilfe geeigneter Tools aus den Industrieanlagen der Partner holt. Hierfür kommt ein einheitliches Protokoll zum Einsatz, mit dessen Hilfe sämtliche Daten in einem einheitlichen Format in den zur Verfügung stehenden Datenpools gespeichert werden. Von dort aus gelangen sie in den unterschiedlichsten Cloud-Plattformen, die je nach Anwendung und Kunde genutzt werden. Hierbei kommen auch Multi-Cloud-Szenarien zur Anwendung.

„Wie hilft IBM in diesem Kontext [dem Hersteller von Präzisionswaagen] Mettler Toledo?“

Bei dem gemeinsamen Projekt mit Mettler Toledo steht für den Anbieter und Hersteller von Präzisionswaagen die Qualität seiner Messgeräte an allererster Stelle. Denn die Waagen werden primär selbst zur Qualitätssicherung eingesetzt, indem gefertigte Produkte zur Überprüfung von möglichen Abweichungen von der gewünschten Qualität vermessen werden. Da die Mettler-Toledo-Waagen bis in das Milligramm genau wiegen können, lassen sich mithilfe dieser Hightech-Messgeräte kleinste Produktionsabweichungen exakt feststellen, ohne jedes einzelne Bauteil oder ein komplettes Produkt aufwändig nachmessen oder gar zerlegen zu müssen.

Aus diesem Grund ist es für Mettler Toledo immanent wichtig, sich auf die hundertprozentige Messgenauigkeit seiner Waagen verlassen zu können. Und genau hier kommt IBM mit seinen Softwarelösungen ins Spiel. So stellt „Big Blue“ eine Schnittstelle in seine IoT Cloud zur Verfügung, mit dessen Hilfe Mettler Toledo Zugriff auf geeignete Machine-Learning-Algorithmen erhält. Damit kann der Hersteller ziemlich exakt voraussagen, wann und bei welchen Waagen eine Ungenauigkeit von Messergebnissen zu erwarten ist, da sich bei der Produktion der Messgeräte mit hoher Wahrscheinlichkeit Unregelmäßigkeiten einstellen werden.

IBM IoT Cloud und Watson Studio für das Überprüfen von Qualität von Präzisionswaagen

Hierfür werden die von Mettler Toledo zur Verfügung gestellten Daten innerhalb der IBM IoT Cloud in das Softwaretool Watson Studio importiert. Daraus erstellt die Anwendung ein Produktionsprozessmodell, das anschließend installiert und konfiguriert wird. Sobald die vorhandenen Daten durch dieses Modell geleitet werden, lässt sich ziemlich genau vorhersagen, welche Waage mit relativ hoher Wahrscheinlichkeit Abweichungen bei der gewünschten Qualität aufweisen wird. In solch einem Fall erhält der Smart-Factory-Administrator von der Software einen Warnhinweis, der auf die mögliche Abweichung der Messgenauigkeit hinweist. Damit kann er unmittelbar und ohne größeren Messaufwand die Qualität der Waage überprüfen lassen.

Das Interview mit Plamen Kiradjiev in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Tobias Leicher über IBM-Mainframes als Cloud-Plattform

[Videochat] Tobias Leicher (IBM) über Mainframes als Cloud-Maschinen

Während der IBM Z-Roadshow habe ich dieses Interview mit Tobias Leicher von IBM geführt. Darin spricht er über seinen Vortrag, über die Mainframe auf dem Weg ins 21. Jahrhundert und was IBM alles dazu beiträgt.

„Wovon handelte Ihr Vortrag?“

Tobias Leichers Vortrag  beschäftigte sich vor allem mit der Frage, wie sich die aktuellen Themen „Cloud Computing“ und „Microservices“ auf den Mainframe-Computer übertragen lassen. Verknüpft ist damit gleichzeitig die Frage, wie IBM-Kunden den Mainframe-Rechner künftig noch effizienter nutzen können und wie die Mainframe-Maschine im Cloud-Zeitalter ankommen kann.

„Wie kann die Mainframe im 21. Jahrhundert ankommen?“

Für die Beantwortung dieser Frage zog Tobias Leicher ein Zitat zurate, das dem großen Albert Einstein zugeordnet wird:

„Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.“

Übertragen auf die Mainframe-Plattform bedeutet das: Im Grunde gibt es keine Einschränkungen hinsichtlich ihrer Anwendungsmöglichkeiten, allerdings haben sich bestehende Prozesse und Herangehensweisen auf dem Mainframe in den letzten 30 Jahren stark auf den transaktionalen Bereich fokussiert, was es nicht unbedingt einfacher macht, den Mainframe-Rechner im 21. Jahrhundert ankommen zu lassen.

Um das zu erreichen, ist es primär wichtig, das Bereitstellen von Cloud-Apps und -Services auf Mainframe-Maschinen so einfach wie möglich zu gestalten. Damit neue Anwendungen und Services quasi auf Knopfdruck verfügbar gemacht werden können, so wie man das aus der Cloud-Landschaft kennt. Aber auch moderne Techniken und Programmiersprachen wie Go und Node.js müssen auf dem Mainframe zu Cloud-Zwecken bereit stehen, um eine Modernisierung dieser Plattform zu ermöglichen.

„Wie unterstützt IBM den Wechsel von der reinen Transaktionsmaschine zu einer modernen Cloud-Architektur?“

Nun, IBM nimmt sich dieses Themas schon seit einer geraumen Zeit an. So wurden die gerade erwähnten neuen Programmiersprachen auf den Mainframe portiert, neue Paradigmen wurden erschaffen, das Mainframe-Betriebssystem wurde auf den neuesten Stand gebracht, etc.

Zudem wurden viele, viele Gespräche mit IBM-Kunden geführt um herauszufinden, an welchen Stellen es noch knarzt und wo Mainframe-Anwender Verbesserungsbedarf sehen. Herausgekommen ist eine Rechnerarchitektur, die für viele Kunden eine perfekte Kombination aus transaktionaler und cloud-basierter Plattform darstellt.

Das Interview mit Tobias Leicher in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

Andreas Thomasch über IBM z14 ZR1 und ihre Roadshow

[Videochat] Andreas Thomasch (IBM) über IBM z14 ZR1 und ihre Roadshow

Anlässlich der Markteinführung der IBM-Mainframe z14 ZR1 veranstaltete IBM Deutschland eine Z-Roadshow, die an drei Orten stattfand. Und zwar in Köln, Frankfurt und München. Für die beiden letztgenannten hat mich IBM als Videoblogger engagiert. Nachdem ich beide Rückblicksbeiträge aus Frankfurt und München veröffentlicht habe, folgt an dieser Stelle das erste Interview, und zwar mit Andreas Thomasch, der für das Gesamtgeschäft der Z-Plattform in DACH (Deutschland, Österreich und Schweiz) zuständig ist.

Während unseres Videogesprächs wollte ich drei Dinge von ihm wissen:

  1. Warum hat IBM die z14 geschrumpft?

  2. Warum bietet die IBM z14 ZR1 „Luft nach oben“?

  3. Wie kam das Z-Event bei den Kunden an?

Die Antwort der ersten Frage hat viel damit zu tun, dass IBM mit ihren Kunden spricht und das Gehörte dann auch in neue Produkte einfließen lässt, so wie das mit der IBM z14 ZR1 der Fall ist. Denn bestehende Z-Kunden sprachen sich für einen neuen Formfaktor aus, der besser in ihr Rechenzentrum passt. Und hat IBM die IBM z14 mit ihrer 24-Zoll-Stellfläche „einfach“ mal „geschrumpft“ und sie in ein Standard-19-Zoll-Format überführt.

httpss://twitter.com/mhuelskoetter/status/986967368327888896

Damit nimmt die ZR1 deutlich weniger Platz in Anspruch und passt besser in aktuelle Rechenzentren, in denen 19-Zoll-Racks gang und gäbe sind. Hierfür mussten allerdings ein paar Dinge wie die Kühltechnik, etc. angepasst werden, damit ein Hochleistungsrechner wie die IBM Z in einem reduzierten Serverschrank Platz hat. So wurde beispielsweise die z14 einmal komplett „gespiegelt“: Soll heißen, dass sich die Lüfter, etc. jetzt an der Vorderseite der Mainframe befinden und sämtliche IO-Shields und andere Komponenten auf der Rückseite, was eine veränderte Luftzirkulation zur Folge hat.

„Warum bietet die IBM z14 ZR1 ‚viel Luft nach oben‘?“

 

Mit der zweiten Frage spielte ich auf den freien Platz an, den die IBM z14 ZR1 oberhalb der verbauten Standardkomponenten bietet. Genauer gesagt handelt es sich um zweimal 8 Höheneinheiten, die sich relativ beliebig vom Z-Kunden nutzen lassen. Doch was ist das im einzelnen? Nun, laut Andreas Thomasch findet dort Erweiterungshardware seinen Platz, was ebenfalls dem Wunsch vieler Kunden nach einer höheren Packungsdichte entspricht. In den 16U-Erweiterungsplätze finden Komponenten für den Anschluss an ein Storage Area Network (SAN) genauso Platz wie Speichereinheiten vom Typ Flash oder Standard-Festplatten.

httpss://twitter.com/mhuelskoetter/status/986972018041065472

Auch diese Verbesserung der IBM z14 ZR1 sorgt für eine weitere Platzersparnis, da die zusätzlichen Komponenten im selben Rack untergebracht werden können. Also spielt auch an dieser Stelle das Thema Packungsdichte und die damit verbundene Kostenersparnis eine wesentliche Rolle, was gerade in Zeiten schrumpfender IT-Budgets ein wesentlicher Faktor ist.

„Wie kam das Z-Event-Format bei Ihren Kunden an?“

Die Entscheidung seitens IBM, die Roadshow an drei verschiedenen Locations durchzuführen und damit näher an die Kunden heranzurücken, kam laut Andreas Thomasch sehr gut an. Denn so bestand die Möglichkeit, in einem kleinen, überschaubaren Kreis erste Themen direkt zu besprechen und sich mit den IBM-Experten vor Ort intensiv auszutauschen.

Aber auch das Halbtagesformat mit kurzen Vorträgen war aus Kundensicht die richtige Entscheidung. Zumal das Ende der Veranstaltung auf den Abend fiel und man das Ganze bei einem schönen Kaltgetränk und leckeren Häppchen entspannt ausklingen lassen konnte. Und das ist ja schließlich auch wichtig.

Das Interview mit Andreas Thomasch in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

Funktionsweise des eperi Gateway

DSGVO mithilfe von eperi-Tools effektiv umsetzen

Stellen Sie sich vor, Sie haben Ihre IT-Infrastruktur in eine Cloud-Umgebung transferiert. Weil Sie einfach keine teuren Rechenmaschinen mehr kaufen und verwalten wollten, weil der Zugriff auf Anwendungen und Daten seitens externer Mitarbeiter und Geschäftspartner einfacher werden sollte, und vielem mehr.

Spätestens an dieser Stelle könnte Ihnen auffallen, dass es trotz der vielen schönen Vorzüge von Cloud-basierten IT-Infrastrukturen eine erhebliche Schwachstelle gibt: die Datensicherheit. Damit ist vor allem die Datensicherheit und der Datenschutz im Sinne der DSGVO gemeint, die am 25. Mai 2018 endgültig in Kraft tritt. Ab diesem Tag wird auf die elektronische Datenverarbeitung personenbezogener Daten ganz besondere Herausforderungen zukommen. Dazu zählt unter anderem die sogenannte Datenschutz-Folgenabschätzung sowie weitere Prüf- und Dokumentationspflichten. Das ist vor allem dann der Fall, wenn Unternehmen Auftragsdatenverarbeiter und Cloud-Dienste in Anspruch nehmen.

Das hat auch damit zu tun, dass die DSGVO eine explizite Datenverarbeitung personenbezogener Daten auch außerhalb der EU vorsieht, unabhängig davon, ob der Auftragsverarbeiter (also ein Cloud Service Provider zum Beispiel) innerhalb oder außerhalb der EU sitzt. Daraus lassen sich diverse Konsequenzen ableiten: So können Cloud-Anbieter beispielsweise selbst zu Datenverantwortlichen werden, wenn sie den Zweck der Datenverarbeitung selbstständig bestimmen.

Liegt die Datenverantwortung beim Unternehmen oder Cloud-Provider?

Laut DSGVO wird künftig nicht mehr der Auftraggeber der externen Datenverarbeitung allein bei möglichen Verstößen haftbar gemacht, sondern auch der externe Auftragsverarbeiter, da Datenverarbeiter und Auftragsverarbeiter künftig gemeinsam haften.

DSGVO = besondere Pflichten für Datenverantwortliche

Ab 25. Mai 2018 müssen die Datenschutzverantwortlichen der Unternehmen sicherstellen und nachweisen können, dass die Verarbeitung von personenbezogenen Daten jederzeit im besten Sinne der DSGVO erfolgt. Dazu gehören diverse Prinzipien wie Pseudonymisierung und Verschlüsselung von Daten, die Datenminimierung, die Einhaltung des Verarbeitungszwecks, etc. Daraus ergibt sich unter anderem, welche Daten in welchem Umfang und wie lange verarbeitet und gespeichert werden dürfen.

DSGVO = großer Aufwand für größere Unternehmen

Gerade in größeren Unternehmen werden teils äußerst sensible Daten verarbeitete und gespeichert. Ob das Personaldaten sind oder die E-Mail-Adresse und Anschrift eines Kunden – über all diese Daten muss akribisch Buch im Sinne der DSGVO geführt werden. Dieser Aufwand verschärft sich zusätzlich, wenn personenbezogen Daten innerhalb einer Cloud-Umgebung gespeichert und verarbeitet werden.

Um dieses große Dilemma elegant zu umgehen, sollten sensible Daten am besten vor der Speicherung beim Cloud-Anbieter verschlüsselt werden. Denn damit werden sie automatisch pseudonymisiert, so wie es die DSGVO explizit fordert. Damit sind Datenschutzrechtsverletzung auf Seiten des Cloud-Anbieters gar nicht möglich, was sich auf die Umsetzung der DSGVO enorm positiv auswirkt.

Mit eperi Cloud Data Protection (CDP) entspannt ins DSGVO-Zeitalter

Damit wären wir beim eigentlichen Kern dieses Beitrags. Denn mithilfe des eperi-Gateways lassen sich die Forderungen der DSGVO zum Schutz personenbezogener Daten relativ unaufwendig umsetzen. So können Unternehmen auf Basis der eperi-Lösung ihre Datenschutz-Prozesse kontrollieren. Damit garantieren sie auch, die DSGVO-Vorgaben peinlich genau einzuhalten, wenn Cloud-Services im Unternehmen genutzt werden. Damit reduzieren sich der Prüfaufwand und die damit verbundene Nachweispflicht auf die Vorkehrungen und Datenschutzmaßnahmen, die im eigenen Unternehmen umgesetzt werden müssen.

Funktionsweise des eperi Gateway

„Erst verschlüsseln, dann speichern“ – so lautet die eperi-Devise

Die eperi-Devise in Sachen DSGVO-konforme Cloud-Daten lautet: „Erst verschlüsseln, dann speichern!“. Damit lassen sich nämlich sämtliche sensible Daten für Unbefugte unleserlich machen, bevor personenbezogene Daten überhaupt in der Cloud landen. Folge: Die Unternehmen behalten die volle Kontrolle über ihre personenbezogene Daten und erfüllen damit die strengen Auflagen in Sachen Datenschutz-Konformität „on the fly“.

Doch dieser eperi-Ansatz bietet einen weiteren Vorzug: Dank der transparenten Verschlüsselung der Cloud-Daten können sehr elegant zahlreiche Risiken „ad acta“ gelegt werden, die bei der Auswahl des geeigneten Cloud-Konzepts respektive des dazu passenden Cloud Service Providers entstehen können. Denn wer kann schon genau sagen, ob der infrage kommende Cloud-Anbieter die strengen Auflagen der DSGVO so ernst nimmt, wie er das eigentlich tun sollte.

Office 365, Salesforce & Co: eperi Gateway als zentraler Kontrollpunkt

Mithilfe des eperi Gateway für Cloud-Anwendungen wie Office 365 oder Salesforce stellen Unternehmen ebenfalls sicher, dass besonders sensible personenbezogene Daten jederzeit und vollumfänglich vor fremden Zugriffen geschützt sind. Denn weder der Cloud-Provider noch ein externer Auftragsverarbeiter erhält Zugriff auf die Daten, da die Schlüssel im alleinigen Besitz des Cloud-Anwenders, also des Unternehmens bleiben. Damit wird ein zentraler Kontrollpunkt für das Datenschutz- und Verschlüsselungsmanagement festgelegt, das dem Datenverantwortlichen die alleinige Kontrolle über die Verschlüsselungs- und Tokenisierungsprozesse garantiert.

eperi Cloud Data Protection bedeutet darüber hinaus, dass sich die Verschlüsselung der Daten in keiner Weise auf die Cloud-Plattform und deren Techniken auswirkt und darüber hinaus alle wichtigen Anwendungsfunktionalitäten bei komfortabler Bedienerfreundlichkeit erhalten werden.

Fazit: eperi sorgt für DSGVO-konforme Cloud-Daten

Zusammenfassend kann man also sagen: Unternehmen, die sich für eine Verschlüsselung auf Basis der eperi Cloud Data Protection-Lösung entscheiden, gehen einen großen Schritt in Sachen DSGVO-Konformität. Denn ihr Datenschutz wird ohne größeren Aufwand auf einen Level gehievt, um den sie so mancher Datenschutzbeauftragte beneidet.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

IBM z14 vom Typ ZR1 und IBM LinuxOne Rockhopper II

IBM Z-Roadshow: Neue Mainframe-Maschinen im Fokus [Video-Update]

So sitze ich wieder einmal im Zug in Richtung Frankfurt, wieder einmal für IBM, wieder einmal der Berichterstattung wegen. Dieses Mal hat mich Big Blue für eine Roadshow gebucht, die sich speziell dem Thema Mainframe widmet. Genauer gesagt: In Köln, Frankfurt und München wird IBM an drei Orten und drei Tagen einem ausgewählten Auditorium zwei neue IBM Z-Rechner vorstellen. Es handelt sich dabei um die IBM z14 mit der Modellbezeichnung ZR1 und um eine neue Linux-Maschine, die sich IBM LinuxOne Rockhopper II nennt.

Zahlreiche Konfigurationsmöglichkeiten für zahlreiche Workloads

Die IBM z14 ZR1 weist ein breites Spektrum an möglichen Konfigurationen auf, sodass sich diese Maschine an eine ebensolche breitgefächerte Zielgruppe richtet. Das betrifft zum einen die Zahl an verbaubaren Prozessoren (4, 12, 24 oder 30), die möglichen Speicher-Ausbaustufen (von 64 GB bis 8 TB), die theoretische Zahl an LPARs (bis zu 40), etc. Dies führt insgesamt zu einer maximalen Rechenleistung von 8.000 MIPS unter z/OS.

Damit bietet die IBM z14 ZR1 ausreichend Potential für aktuelle und künftige Anwendungen. Dazu gehören unter anderem: Multi-Cloud-Umgebungen, Big Data-Analysen, KI-Applikationen inkl. Maschine Learning, und so fort.

Neue Techniken und eine kompakte Bauweise kennzeichnen IBM Z

Bei der Entwicklung der beiden Z-Maschine flossen zahlreiche Patente und Technologien ein, die entweder von IBM selbst oder anderen Herstellern stammen. Dazu gehört beispielsweise die IBM Virtual Flash Memory (die Flash Express ablöst), aber auch IBM zHyperLink und eine brandneue ICA Verbindungstechnik zählen zu den Neuerungen der IBM z14 ZR1 und LinuxOne Rockhopper II.

Das Besondere an den neuen Mainframes ist deren kompakte Bauweise. Damit passt eine komplette Konfiguration in einen Standard-19-Zoll-Serverschrank, der damit deutlich weniger Platz und Strom benötigt als die erste Z14-Modellreihe. Interessant an dem Konzept sind auch die „Leerräume“ im 16U-Format, die jederzeit die Möglichkeit bieten, die Speicher- und/oder Rechenkapazität weiter auszubauen.

IBM-Experten on tour: Das erwartet die Roadshow-Teilnehmer

Auf der IBM-Roadshow wird es ausführliche Information rund um IBM z14 ZR1 und LinuxOne Rockhopper II geben. So sprechen die anwesenden Experten über folgende Themen:

  • IBM Z und die digitale Transformation
  • Modernisierung mit z/VSE, Linu und z/VM
  • Sichere Unternehmensdaten
  • Hybride Cloud-Umgebungen mit IBM Z und passenden Schnittstellen
  • Kundenzufriedenheit mithilfe von Analysetechniken

Tweets, Videointerviews und mehr

Klar, dass ich in den Vorträgen sitzen und die wichtigsten Erkenntnisse und Statements via Twitter in die Welt pusten werde. Und im Anschluss an das Event bzw. währenddessen werde ich die Gelegenheit haben, mit den anwesenden Sprechern Videointerviews zu führen und die Ergebnisse dann hier zu veröffentlichen. Freut euch drauf! Ich tue es auf jeden Fall…

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Patrick Palacin, TeleClinic GmbH, über IBM Cloud-Services und Sicherheit

[Video] Patrick Palacin, TeleClinic, über digitale Ärzte und die IBM-Cloud

Wie bereits berichtet, war ich vergangenen Mittwoch im IBM Watson IoT Tower, eines Pressegesprächs zum Thema IBM-Cloud wegen. Neben dem IBM-Vertreter, Herrn Yasser Eissa, war auch Patrick Palacin zugegen, CTO und Co-Founder des Münchner Start-up-Unternehmens TeleClinic.

httpss://twitter.com/mhuelskoetter/status/956109974891057152

Auch mit ihm habe ich ein Videointerview geführt, das aus drei Fragen bestand. Diese lauteten wie folgt – nebst der passenden Antworten von Herrn Palacin:

Was genau steckt hinter der Idee „TeleClinic“?

Die grundsätzliche Idee der TeleClinic ist die digitale Vernetzung zwischen Arzt und Patient, und das mithilfe einer Vielzahl unterschiedlicher Geräte wie Smartphones oder Tablets. Darüber lassen sich zahlreiche Gesundheitswerte wie das Gewicht an den Arzt übertragen (auch über eine Apple Watch). Darüber hinaus können Bilder übertragen werden, wie die Fotografie eines Impfausweises oder Arztbriefs.

Diese Form der medizinischen Beratungsdienstleistung ist hierzulande erst seit letztem Jahr vollumfänglich möglich, und das bisher auch erst einmal nur in ausgewählten Projekten. Grundlage dieses Geschäftsmodells ist eine gelockerte Berufsordnung der Ärzte für Pilotprojekte, was die Erstbehandlung von Patienten mithilfe digitaler Medien erlaubt.

Warum hat sich die TeleClinic GmbH für die IBM-Cloud entschieden?

Hierfür sprechen aus Sicht von Herrn Palacin mehrere Gründe: Dazu gehört primär der Sicherheitsaspekt, der speziell bei einer medizinischen Dienstleistung wie die der TeleClinic an oberster Stelle stehen muss. Das gilt sowohl für das Vertrauen, das solch einer Cloud-Lösung seitens der Patienten entgegengebracht wird wie auch seitens der Versicherungsunternehmen, mit denen die TeleClinic GmbH eng zusammenarbeitet.

Aber auch der Einsatz offener Standards und Technologien wie Cloud Foundry sprach und spricht aus Sicht der TeleClinic GmbH für den Einsatz der IBM-Cloud. Schließlich haben sich Herr Palacin und seine Mitstreiter mit diesen und anderen Tools während der Unizeit intensiv auseinandergesetzt. Damit konnten sie auf Basis der IBM-Cloud sofort loslegen.

Welche IBM Cloud-Services setzt die Firma TeleClinic ein?

Neben dem bereits erwähnten Cloud Foundry für das Hosten der Webseiten und den Apps sind das des Weiteren: IBM Cloudant als nicht-strukturierte Datenbank, diverse IaaS-Tools, Teile der Watson-Services wie Text-to-Speech und Speech-to-Text sowie die IBM IoT-Schnittstelle, mit der sich beispielsweise medizinische Daten aus Smartwatch und Co. extrahieren und an die TeleClinic-Plattform übertragen lassen.

Und wer lieber hört als liest: Bitteschön, das Interview ist seiner voller Länge. Na dann: Film ab!

Yasser Eissa, IBM, über IBM-Cloud, Datenschutz und DSGVO

[Videochat] Yasser Eissa über IBM-Cloud, DSGVO und Datensicherheit

Ich durfte wieder einmal in den heiligen Hallen des von mir hoch geschätzten IBM Watson IoT Tower sein. Gefolgt bin ich dabei dem Ruf der Presseabteilung von IBM München, die eingeladen hatte zu einem Pressegespräch. Thema desselben: „Sicher und flexibel – die IBM-Cloud ist fit für 2018“.

Anwesend waren neben einigen Kollegen von der Presse Yasser Eissa von IBM und Patrick Palacin vom Startup-Unternehmen TeleClinic auf München. Mit beiden durfte ich im Anschluss an die sehr lebendige Diskussionsrunde ein Videointerview führen, das mir die Gelegenheit bot, jeweils drei Fragen zu stellen.

httpss://twitter.com/mhuelskoetter/status/956104942611202049

Das Gespräch mit Yasser Eissa war geprägt vom Thema „Sicherheit & Cloud“. Genauer gesagt drehte sich unser Videochat um die Fragen, …

… was der EU Cloud Code of Conduct für Europa bedeutet- und damit auch für IBM

Da gerade in Europa das Thema Datenschutz und Datensicherheit personenbezogener Daten von enormer Wichtigkeit ist, hat es sich die IBM nicht nehmen lassen, den EU Cloud Code of Conduct (EU-CCoC) über einen Zeitraum von etwa vier Jahren aktiv mitzugestalten. Seit Februar 2017 ist diese vornehmlich für Cloud Service Provider gültige Vereinbarung in Kraft getreten. Sie regelt vor allem, wie Datensicherheit und Datenschutz innerhalb der Cloud-Umgebung des jeweiligen Anbieters sichergestellt werden soll – speziell im Hinblick auf die ab 25. Mai 2018 geltenden DSGVO.

Da mit dem EU-CCoC eine Zertifizierung einher geht (die IBM bereits vorweisen kann), können Cloud-Kunden künftig sicherstellen, dass der von ihnen infrage kommende bzw. gewählte Anbieter sämtliche Maßnahmen ergreift, die die notwendigen Sicherheitsstandards im Sinne der EU-Richtlinien gewährleisten kann.

… wie IBM die Cloud-Daten ihrer Kunden vor Zugriffen von außen schützt

Hierbei stellte Herr Eissa erst einmal klar: Die Daten der IBM-Kunden gehören den Kunden selbst, und sonst niemandem! Darüber hinaus gewährleistet IBM, dass die Daten ihrer Kunden IBM Cloud-Rechenzentren in Europa ohne deren Zustimmung nicht verlassen. Zudem hat IBM im Dezember 2017 angekündigt, dass auf das IBM Cloud-Rechenzentren in Frankfurt künftig von außerhalb der EU nicht mehr zugegriffen werden kann. Damit ist der Datenzugriff auf IBM-Mitarbeiter beschränkt, die Daten sind außerdem komplett verschlüsselt.

… wie IBM seine Kunden bei der Umsetzung der zahlreichen DSGVO-Aufgaben unterstützt

Selbstverständlich wird die IBM-Cloud „DSGVO-ready“ sein – alleine schon wegen der Zertifizierung gemäß des EU Cloud Code of Conduct. Darüber hinaus können sich IBM-Kunden in Sachen DSGVO von IBM und den zuständigen Beratungsteams komplett unterstützen lassen. Aber auch erweiternde Sicherheitsmaßnahmen können mithilfe von IBM beim Kunden implementiert und installiert werden. Und diese Angebote werden laut Herrn Eissa bereits von zahlreichen Kunden in Anspruch genommen.

Die Antworten dieser drei Fragen befinden sich auch im nachfolgenden Video. Na dann: Film ab!

CAST Highlight Workflow

CAST Highlight ermittelt, wie Cloud-tauglich Applikationen sind

Mit einer Frage beschäftigen sich immer mehr Unternehmen:

Wie kann ich eigentlich herausfinden, wie Cloud-tauglich meine Applikationen sind?

Dass die Antwort darauf nicht ganz trivial ist, lässt sich wohl recht einfach annehmen. Dass eine praktikable Lösung mit recht geringem Aufwand trotzdem möglich ist, zeigt die Software-Analyse-Lösung Highlight der Firma CAST, für die ich diesen Beitrag schreibe. Das besondere an diesem Tool: Die Cloud-Tauglichkeit richtet sich vor allem an Entscheider. Also an solche Anwender, die mit der Technik dahinter nicht besonders viel am Hut haben.

Exkurs: So funktioniert CAST Highlight

CAST Highlight analysiert im Wesentlichen vier Bereiche von Software-Applikationen: Robustheit & Zuverlässigkeit (Software Resiliency), Verständlichkeit und Wartbarkeit (Software Agility), Komplexität (Software Elegance) und Cloud-Tauglichkeit (CloudReady). Dabei gilt: Je höher der ermittelte Index ist, desto weniger Probleme hat Highlight innerhalb der betreffenden Kategorie ermittelt. Dabei stellt der Indexwert 100 die höchste Punktzahl dar, die eine Software erreichen kann.

Im Falle von „CloudReady“ bedeuten die ermittelten Werte im Einzelnen:

  • 100 bis 80: Die Anwendungen lässt sich ohne größeren Aufwand in die Cloud migrieren (falls keine Roadblocker ermittelt wurden).
  • 79 bis 60: Üblicherweise gute Kandidaten für eine Migration in die Cloud.
  • 30 bis 0: Migration kommt erst infrage, wenn grundlegende Verbesserungen erreicht werden können.  

CAST Highlight - Übersicht

Was man für das Ermitteln seines Cloud-Index benötigt

Im ersten Schritt für das Ermitteln des eigenen Cloud-Index‘ bekommen alle Cloud-Portierung-Projektmitglieder (intern und extern) eine E-Mail zugesandt, in der sich ein Hyperlink befindet. Damit verzweigen die Anwender auf das CAST Highlight-Portal, auf dem ein kleines Software-Tool zum Download bereit steht. Dieses wird auf dem Rechner des betreffenden Anwenders installiert, womit sich eine genaue Analyse der zu sortierenden Anwendungssoftware durchgeführt wird. Zusätzlich beantworten alle Beteiligten ein paar Fragen, die Auskunft über die Wichtigkeit der künftigen Cloud-Anwendungen geben, etc. Das ist so simpel, dass es keine wirkliche Hürde beim Ermitteln der Cloud-Tauglichkeit der eigenen Applikationen darstellt.

CAST Highlight Workflow

Was CAST Highlight an Daten ermittelt

Auf Basis der Software-Analyse, die das installierte Stück Software vorgenommen hat, wird eine verschlüsselte Datei generiert, die jeder Anwender per Upload auf einen geschützten Bereich des CAST Highlight-Portals kopiert. Hierbei werden sämtliche regulatorische Maßnahmen berücksichtigt, die speziell bei größeren Unternehmen beachtet werden müssen. Damit wird sicher gestellt, dass es keine Compliance-Verstöße auftreten. Hierzu gehört beispielsweise, dass Quellcode nicht von CAST Highlight kopiert und auf das Portal übermittelt wird.

Wie man die ermittelten Daten interpretiert

Innerhalb des CAST Highlight-Portals werden die so ermittelten Daten sehr übersichtlich und anhand von Indexwerten exakt aufgelistet und bewertet. Außerdem schlägt die Analyse eine mögliche Strategie vor, anhand der die eigenen Anwendungen in die Cloud migriert werden können. Hierfür erstellt das CAST-Tool eine Prioritätenliste, die ziemlich exakt den Aufwand pro Applikation darstellt, die für den Umzug in die Cloud erforderlich ist. Damit bekommt man brauchbare Werte an die Hand, mit welchem zeitlichen Aufwand pro Anwendung zu rechnen ist.

Doch nicht nur der Migrationsaufwand ist wichtig. So sollte die Konzentration auch den möglichen Sicherheitslücken der zu migrierenden Anwendungen gelten. Denn nichts ist fataler als eine Applikation, die aufgrund ihrer Schwachstellen im Cloud-Einsatz eine echte Gefahrenquelle für die komplette Infrastruktur darstellt – und damit für das ganze Unternehmen. Hierfür nutzt CAST Highlight eine große Bibliothek, die mehr als 100.000 bekannte Schwachstellen und Gefahrenherde in Software-Applikationen kennt. Interessant an der Highlight-Analyse sind aber auch „demografische“ Erkenntnisse, also wie viele Anwendungen in Java, .NET, etc. geschrieben wurden. Denn auch hieraus lassen sich bestimmte Dinge ableiten.

CAST Hight Portfolio Demographics

 

Wie man die Highlight-Analyse richtig liest

Anhand des folgenden Dashboard-Ausschnitts der Highlight-Software bekommt man einen sehr guten ersten Eindruck von der Cloud-Tauglichkeit der eigenen Anwendungen. So lassen sich folgende Parameter beurteilen (von links nach rechts):

  • Cloud-Readiness insgesamt
  • Cloud-Readiness anhand der Anwenderumfrage
  • Cloud-Readiness anhand der Analyse
  • Anwendungen, die mit geringem Aufwand „Cloud-ready“ sind (Boosters)
  • Anwendungen, die mit mittlerem Aufwand „Cloud-ready“ sind (Blockers)
  • Anwendungen, die mit hohem Aufwand „Cloud-ready“ sind (Roadblocks)

CAST Highlight Cloud-ready

Das sagen Anwender über den Einsatz von CAST Highlight

Im folgenden Interview mit Pascale Bernal der französischen Firma GRDF spricht die CIO über den Einsatz von CAST Highlight und wie sie und ihr Team das Software-Tool einsetzen.

Disclaimer: Dieser Blogbeitrag ist im Auftrag der Firma CAST entstanden, die mir bei der Ausgestaltung und Formulierung nahezu freie Hand lässt.