Cloud-Verschlüsselung ist vor allem in Zeiten der DSGVO enorm wichtig

So lassen sich Cloud-Daten sicher verschlüsseln

Die Datenschutzgrundverordnung (DSGVO) zwingt Anbieter von Cloud-Services zu einem verantwortungsvollen Umgang mit den Daten ihrer Kunden. Dazu gehören diverse Grundsätze, von denen in diesem Beitrag die wichtigsten drei vorgestellt werden sollen.

Grundsatz #1: Open-Source-Software steht für transparente Transaktionen

Von Cloud-Anbietern wie luckycloud wird von deren Anwendern und Kunden eine erhöhte Transparenz erwartet, gerade wegen DSGVO und Co. Das bedingt unter anderem den Einsatz von transparenter Software, was nicht in jedem Fall gegeben ist. Daher setzt zum Beispiel luckycloud auf die Open-Source-Software Seafile. Damit lassen sich innerhalb einer Private Cloud-Umgebung Daten speichern, teilen und synchronisieren.

Der wesentliche Vorteil dieses Ansatzes liegt im Öffentlichmachen der Software: Da der Quellcode für jedermann zugänglich und einsehbar ist, lassen sich darin keine geheimen Software-Funktionen verstecken, wie beispielsweise einen Staatatrojaner oder ähnliche Backdoor-Möglichkeiten. Denn damit wäre unerwünschten Gästen Tor und Tür geöffnet, was das Aus für solch einen Cloud-Anbieter bedeuten würde. Das Einzige, was dank Seafile und Co. geheim bleibt, sind die Schlüssel, mit denen die Cloud-Daten ver- und entschlüsselt werden (siehe Grundsatz #3).

Grundsatz #2: Robuste und erprobte Techniken helfen bei der Abwehr von Angriffen 

Selbst unerfahrene Anwender mögen schon einmal vom Begriff „Man-in-the-Middle-Angriff“ gehört haben. Dabei handelt es sich um eine Hackerattacke von außen (oder innen) eines Unternehmens, der mit bestimmten illegalen Hilfsmitteln die Kommunikation zwischen zwei Rechnern belauscht, um so an Informationen zu gelangen, um diese beispielsweise zu manipulieren.

Die Verbindung zwischen einem Anwender und einem Cloud-Server gehört zu einem dieser beliebten Angriffsziele. Vor allem dann, wenn der gewählte Kommunikationskanal nicht ausreichend gegen das „Mithören“ abgesichert wird. Daher setzen verantwortungsbewusste Cloud-Anbieter wie luckycloud auf das robuste TLS-Protokoll (Transport Layer Security) ein, was die Verschlüsselungstechnik des HTTPS-Webprotokolls ist. Diese Technik verschlüsselt die Kommunikation zwischen Anwender und Server vollständig, allerdings auch nicht mehr. Wichtig ist hierbei nicht unbedingt der Einsatz von teuer gekauften  Zertifikaten, die  von entsprechenden Stellen vergeben werden. 

Denn teuer ist nicht gleichbedeutend mit sicher. So stellt ein kostenlos erhältliches Zertifikat von Let’s Encrypt vollkommen sicher, dass die Verbindung zwischen Browser und Server verschlüsselt ist. Zudem existieren sogenannte EV-Zertifikate (Extended Validation), mit deren Hilfe die zugehörige Zertifizierungsstelle die reale Existenz einer Firma überprüfen und bestätigen kann.

Grundsatz #3: Durchgängige Verschlüsselung sorgt für höchstmögliche Sicherheit

Für eine höchstmögliche Sicherheit kommt es neben der transparenten Software und der richtigen Verschlüsselung der Datentransportwege auf das Verschlüsseln der Daten selbst an. Wie im Falle der luckycloud, bei der dank des Einsatzes von Seafile die kostbaren Daten auf zweierlei Wegen gegen den Diebstahl von außen (oder innen) geschützt werden: durch Verschlüsselung auf Client- als auch auf Serverseite.

Das bedeutet konkret, dass zum einen die Daten bereits dann verschlüsselt werden, bevor sie überhaupt auf dem Cloud-Server landen. Und dort werden sie nicht wieder entschlüsselt, sondern bleiben in verschlüsselter Form dort liegen. Damit haben nur die Anwender mit den passenden Zugangsdaten und Schlüsseln Zugriff auf die Daten, also nicht einmal der Cloud-Anbieter.

Zum Ver- und Entschlüsseln kommt übrigens der symmetrische, blockbasierte AES256-Verschlüsselungsalgorithmus zum Einsatz, der als sehr sicher gilt. Hierbei wird oft die sogenannte CBC-Methode (Cipher Block Chaining) eingesetzt, die das Verschlüsseln der Daten noch ein gutes Stück zuverlässiger macht. Mehr Sicherheit kann man seinen Cloud-Daten kaum angedeihen lassen. 

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Zuverlässgier Datenschutz mit eperi Gateway

Wenn Cloud-Anwendungsdaten zentral verschlüsselt werden sollen

Die DSGVO und anderen gesetzlichen Regularien bringen Anwender von Salesforce, Office 365 und anderen SaaS-Cloud-Anwendungen immer öfter dazu, sich diverse Fragens stellen:

„Wie kann ich mir sicher sein, dass meine Daten ohne Einfluss auf meine Cloud-Anwendung verschlüsselt werden?“

„Wie stelle ich sicher, dass meine Daten nicht in die falschen Hände geraten, weil zum Beispiel der Cloud-Anbieter darauf zugreifen kann?“.

„Gibt es eine probate Verschlüsselungslösung für meine Multi-Cloud-Strategie?

Unumgänglich: datenschutzkonforme Verschlüsselung

Die DSGVO und andere gesetzliche Bestimmungen führen immer öfter dazu, dass Anwender so vorsichtig wie möglich mit sensiblen und personenbezogenen Daten umgehen müssen. Dies bezieht sich auch auf Cloud-Datenspeicher und ihre Applikationen à la Salesforce, Office 365 und Co.

Denn auch hier müssen Firmen sicherstellen und nachweisen können, dass sie vor allem personenbezogene und unternehmenskritische Daten permanent und nachweisbar kontrollieren können. Ein wichtiger Aspekt hierbei ist eine Verschlüsselungstechnik, bei der ausschließlich der Cloud-Anwender auf sämtliche Schlüssel zugreifen kann, also nicht einmal der Cloud-Anbieter selbst.

Darüber hinaus sollte die Verschlüsselung der Daten keinerlei Einfluss auf die Arbeitsweise der Benutzer mit der Cloud-Anwendung haben. Doch genau das ist in einigen Fällen ein Hindernis, das viele Unternehmen und Cloud-Anbieter nur schwer überwinden können.

Zusätzliche Aufgabe: Multi-Cloud-Umgebungen

Daneben sehen sich Anbieter wie SAP, Salesforce, Microsoft und andere Cloud-Service-Provider in letzter Zeit immer häufiger mit einer großen Herausforderung konfrontiert: die Zentralisierung von IT-Sicherheitslösungen in Hybrid- und Multi-Cloud-Umgebungen. Denn mehr und mehr Firmen wollen bestehende IT-Security-Silos abbauen und eine zentrale Plattform schaffen, um auf diesem Weg den aktuellen Cyber-Risiken besser Herr werden zu können.

Dabei entpuppen sich die unterschiedlichen Verschlüsselungstechniken der Cloud-Anbieter zu einem echten Dilemma, denn wenn jeder seine Daten mithilfe seiner eigenen Technik unleserlich macht, wie soll dann ein zentraler Cloud-Datenschutz für eine Multi-Cloud-Umgebung zuverlässig funktionieren?

An dieser Stelle kommt die eperi Gateway-Plattform ins Spiel, die genau das besonders gut kann: Daten verschlüsseln und pseudonymisieren, und das über mehrere Cloud-Anwendungen hinweg, auf Basis einer zentralen Verschlüsselungsplattform.

Stopp: Verschlüsseln Salesforce & Co. ihre Daten nicht selbst?

Ja, das stimmt natürlich. Einerseits. Andererseits weisen die Verschlüsselungslösungen der jeweiligen Cloud-Anbieter oft eine kleine, aber feine Schwachstelle auf, zumindest dann, wenn man Datenschutzbeauftragter ist. Denn die Verschlüsselungslösung selbst und die notwendigen Schlüssel befinden sich nicht exklusiv unter der Kontrolle des Cloud-Anwenders. Und das ist unter dem Aspekt bestimmter Compliance-Anforderungen ein absolutes No-Go!

Der Ausweg: Daten plattformübergreifend mit eperi verschlüsseln

Fakt ist also, dass die Verschlüsselungslösungen von Salesforce oder Microsoft in einigen Fällen den Datenschutz ernst nehmen und die Usability der Cloud-Anwendung(en) nicht beeinträchtigen. Und doch hält die Verschlüsselungslösung der Cloud-Anbieter den zahlreichen internen und externen Compliance-Anforderungen nicht stand.

Das ist zum Beispiel dann der Fall, wenn global operierende Unternehmen die Datenschutzprozesse vollständig autark kontrollieren müssen und der Cloud-Anbieter unter keinen Umständen auf unverschlüsselte Daten zugreifen darf. Aber auch das Thema Data Residency stellt eine mögliche Herausforderung dar, wenn sensible Daten ein bestimmtes Hoheitsgebiet nicht verlassen dürfen.

Darüber hinaus spricht auch das Etablieren einer zentralen IT-Sicherheitsarchitektur für eine zentrale Verschlüsselungslösung wie das eperi Gateway. Denn auch hier können sämtliche Datenschutzprozesse über einen zentralen Kontrollpunkt gesteuert werden.

Umgesetzt: Cloud-Anwendungen mittels Templates eperi Gateway-tauglich machen

Wie man anhand des Beitrags eperi Gateway: So geht wirksamer Cloud-Datenschutz gut erkennen kann, weisen die eperi Cloud-Verschlüsselungslösungen ein Template-Konzept auf, das die komfortable Anbindung des eperi Gateways an nahezu beliebige Cloud-Anwendungen erlaubt. Dank dieses Konstrukts lässt sich beispielsweise festlegen, welche Verschlüsselungsmethode zum Einsatz kommt, ob bestimmte Datentypen bei der Eingabe erwartet werden, und so fort.

Bei den Templates handelt es sich herkömmliche XML-Dateien, die ausführbaren Java-Code enthalten können. Für die häufig zum Einsatz kommenden Cloud- und SaaS-Anwendungen wie Salesforce, Office 365, etc. existieren vorgefertigte Templates von eperi. Diese lassen sich mühelos anpassen bzw. neu erstellen.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

Peter Lyhne Uhrenholt, TRIAX, about TRIAX A:S

[Videoblog] CEO Peter Lyhne Uhrenholt über TRIAX A/S: Schwerpunkte, Partner, Ziele

Während der ANGA COM 2018 habe ich mit TRIAX Geschäftsführer Peter Lyhne Uhrenholt über TRIAX-Produkte und -Lösungen gesprochen, über die Zusammenarbeit mit Kabelanbietern und darüber, wo er TRIAX in den nächsten fünf bis zehn Jahren sieht.

TRIAX-Produkte und -Lösungen sorgen für zufriedene Kunden

Selbstverständlich genügen TRIAX-Produkte und -Lösungen höchsten Qualitätsansprüchen und sind darüber hinaus robust und zuverlässig im täglichen Umgang und Einsatz. Denn das ist die oberste Maxime, die Kunden von TRIAX fordern: Produkte, die funktionieren und ihren Zweck erfüllen. Und genau diesen Werten hat sich TRIAX verschrieben: Maximale Kundenzufriedenheit durch maximale Produktqualität.

Dies wird unter anderem mithilfe kontinuierlicher Forschungs- und Entwicklungsaktivitäten erreicht, in die TRIAX viel Zeit und Geld investiert. Denn um stets am Puls der Technik zu sein und mit den Anforderungen des Marktes Schritt halten zu können, will TRIAX regelmäßig neue Ansätze schaffen, die in neuen Produkten münden. Denn auch das trägt zu einer Kundenzufriedenheit im Sinne von Peter Lyhne Uhrenholt bei.

TRIAX A/S wird die Zusammenarbeit mit Kabelbetreibern weiter verstärken

TRIAX-Kunden und Kabeloperatoren pflegen seit jeher eine enge Partnerschaft. Daher ist die Zusammenarbeit seitens TRIAX mit Kabelnetzbetreibern schon seit langem von essentieller Wichtigkeit. Eine der drängesten Herausforderungen dabei ist das Verbessern und Erhöhen der Kabelbandbreite, da diese für Hotels und andere Einrichten mit umfangreichen Kabelnetzen enorm wichtig ist. Schließlich sollen Gäste und Kunden auch auf dieser Ebene zufriedengestellt werden.

Daher steigen mehr und mehr Kabeloperatoren auf die neueste Kabeltechnik DOCSIS 3.1 um, um künftig höhere Bandbreiten mit Gigabit-Tempo anbieten zu können. Und natürlich braucht es hierfür die richtigen Produkte und Lösungen, die immer die neuesten Technologien unterstützen. Aus diesem und anderen Gründen ist nicht nur für TRIAX die Zusammenarbeit mit Kabeloperatoren wichtig, sondern auch umgekehrt.

Exkurs: DOCSIS (Data Over Cable Service Interface Specification) beschreibt Schnittstellen von Kabelmodems in einem Breitbandnetz. DOCSIS 3.1 unterstützt Datenraten von bis zu 10 GBit/s im Downstream und soll Latenzen verringern.

TRIAX in 5 bis 10 Jahren: Cloud-Services und mehr Distributoren

Für Peter steht vor allem das Entwicklen einer vollständigen Lösungsplattform im Vordergrund, wenn er an die nächsten 5 bis 10 Jahre von TRIAX denkt. Schon heute bietet der aktuelle Lösungsansatz alle wichtigen Komponenten wie Kopfstellensysteme, Ethernet over Coax sowie die passende Software-Plattform, die jedoch mehr und mehr als Cloud-Service angeboten werden und verfügbar sein soll. Darüber hinaus gibt es bei TRIAX weitreichende Pläne, das bereits existierende Distributionsnetzwerk weiter auszubauen, um damit noch näher an ihre Kunden heranzukommen.

Das Interview mit Peter Lyhne Uhrenholt in voller Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

luckycloud bietet eine sichere und komfortable Cloud-Umgebung

Nützliche Tipps für die richtige Auswahl von sicheren Cloud-Speichern

Bei der Wahl des richtigen Cloud-Service-Providers sind vor allem die Bereiche Sicherheit und Funktionalität zu beachten. Mit diesem Beitrag sollen die wichtigsten Merkmale vorgestellt und gezeigt werden, worin sich die aktuellen Cloud-Angebote unterscheiden.

Zunächst einmal sei darauf hingewiesen, dass sich Begriffe wie „sicherer Cloud-Speicher“ und „kostenloses Cloud-Angebot“ quasi gegenseitig ausschließen. Denn auch die Anbieter von vermeintlich kostenfreien Cloud-Plattformen wollen Geld verdienen. Und das tun sie beispielsweise mit dem Verkauf von Kundendaten oder dem Schalten von Werbung.

Diese und weitere Maßnahmen sind wenig vertrauensbildend, speziell im professionellen Geschäftsumfeld, und sind daher für den sicheren Umgang mit sensiblen Daten ungeeignet. Zudem verstößt das ein oder andere Geschäftsgebaren dieser Cloud-Anbieter gegen geltendes Recht wie der DSGVO.

Sicherheit first: Verschlüsselung, Zwei-Faktor-Authentifizierung und mehr

Das Thema Sicherheit von Cloud-Daten ist ein äußerst umfassendes, was dieser Blogbeitrag nicht umfassend abbilden kann. Allerdings hilft es vor allem weniger erfahrenen Cloud-Anwendern, die wichtigsten Begriffe zu kennen, um diese besser einordnen zu können.

Ende-zu-Ende-Verschlüsselung: Damit ist eine „echte“ Verschlüsselung gemeint, also während des kompletten Datenaustauschs bzw. Speichervorgangs. Es werden also sowohl die Daten auf dem Cloud-Speicher als auch der Transportweg via Internet gegen unliebsame Zugriffe von außen gesichert. Hierbei kommt meist der AES-Algorithmus zum Einsatz. Für dessen Sicherheitsstufe gilt: Je größer die zugehörige Bit-Zahl ist, desto sicherer wird verschlüsselt.

Zwei-Faktor-Authentifizierung: Das Einwählen auf dem Cloud-Speicher wird immer per Kennwort abgesichert, was aber passiert, wenn dieses in die falschen Hände gerät?! Aus diesem Grund sollte am besten eine sogenannte Zwei-Faktor-Authentifizierung eingesetzt werden, bei der neben dem Kennwort eine zweite Sicherheitsstufe eingebaut ist. Das kann das Bestätigen des Login-Versuchs per E-Mail sein, oder am Smartphone wird ein Sicherheitscode darstellt, der in ein entsprechendes Feld eingetragen werden muss.

IT-Infrastruktur in Deutschland: Alleine schon wegen der Einhaltung gesetzlicher Vorschriften sollte der Cloud-Anbieter sein Rechenzentrum entweder in Deutschland oder in einem anderen europäischen Land betreiben.

Open-Source-Software: Was für Experten selbstverständlich ist, löst bei weniger versierten Anwendern möglicherweise ein Stirnrunzeln aus: Der Einsatz von Open-Source-Software, deren Quellcode also öffentlich zugänglich ist. Die Idee dahinter ist jedoch ganz simpel: Nur, wenn ich weiß, wie ein Software-Programm funktioniert, kann ich mir auch sicher sein, dass dort alles mit rechten Dingen zugeht. Daher bauen seriöse Cloud-Anbieter auf Open-Source-Programme wie zum Beispiel Seafile, das Daten auf dem lokalen Computer mit der Cloud-Umgebung synchronisiert.

Datenschutzkonforme Datenverarbeitung: In Zeiten von DSGVO und Co. ist sie fast schon eine Selbstverständlichkeit, die datenschutzkonforme Datenverarbeitung. Denn nur dann kann man sich auch sicher sein, dass die eigenen personenbezogenen Daten und die seiner Kunden auf dem Cloud-Speicher wirklich geschützt sind.

Funktionale Aspekte wie Backups und Snapshots sind ebenfalls wichtig

Neben diesen primären, sicherheitsrelevanten Merkmalen sollte der Cloud-Anbieter der Wahl auch funktionale Aspekte wie regelmäßige Backups, Blockversionierung und Snapshots berücksichtigen. Auf Basis dieser Sicherheitsvorkehrungen kann gewährleistet werden, dass die eigenen Daten in den allerbesten Händen sind und selbst eine technische Störung auf Anwenderseite nicht sämtliche Daten im Nirvana verschwinden lässt.

luckycloud History- und Snapshot-Funktionen

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Dominic Gaspary, Volkswagen AG, über VW We Experience

[Videoblog] Dominic Gaspary von der Volkswagen AG über VW We Experience

Auf der diesjährigen, komplett renovierten CEBIT habe ich dieses Interview mit Dominic Gaspary von der Volkswagen AG geführt. Thema war VW We Experience, das auf der IT-Messe in Hannover am IBM-Stand vorgestellt wurde. Und das geschah – räumlich betrachtet – aus gutem Grund.

Das verbirgt sich hinter „VW We Experience“

Grundsätzlich ist zu sagen, dass es sich bei Volkswagen We um ein digitales Ökosystem handelt. Konkret gesagt ist VW We der digitale Versuch, VW-Fahrer an jedem digitalen Touchpoint zu begegnen und ihm bestimmte Mehrwerte während der Autofahrt zu ermöglichen. Dazu gehören unter anderem so Dinge wie der Kofferraum als Lieferadresse für Amazon-Pakete, das Smartphone als digitale Parkuhr – und eben VW We Experience.

We Experience ist ein Bestandteil der VW-App „We Park“ und erlaubt beispielsweise das Einlösen von Gutscheinen entweder aus der App oder direkt aus dem Auto heraus.

Das können Autofahrer von We Experience erwarten

We Experience kann aber noch mehr. So bekommt der Fahrer beispielsweise im Falle eines niedrigen Wischwasserstands die nächste Tankstelle angezeigt, bei der sich der Wassertank wieder füllen lässt und erhält dafür in vielen Fällen sogar einen kleinen Rabatt eingeräumt. Hierfür werden Daten des Fahrzeugs genutzt, sodass VW-Besitzer nach und nach in den Genuss von Mehrwertdiensten kommen, die ihnen helfen, besser von A nach B zu gelangen.

Die We-Kooperation von IBM und Volkswagen im Detail

Volkswagen hat IBM ganz bewusst als Technologiepartner gewählt, um sich von „Big Blue“ in den Bereichen Machine Learning und Datenverarbeitung unterstützen zu lassen. IBM wiederum erlebt die Zusammenarbeit mit VW als enge Partnerschaft, aus der zukünftig weitere Dienste hervorgehen sollen. Diese neuen – aber auch aktuellen – Services entwickeln IBM und VW gemeinsam in Berlin, wo Mitarbeiter beider Firmen an neuen Konzepten und Ideen feilen.

Im Hintergrund kommt übrigens IBM Watson zum Einsatz, der die entscheidenden Impulse in Sachen Machine Learning und Co. liefert. Hierfür werden unter anderem Fahrzeug- und Bewegungsdaten benötigt, die VW an IBM Watson liefert, der daraus bestimmte Empfehlungen und Angebote ableitet. Das geschieht sehr individuell, also an die Bedürfnisse und Vorzüge des Autofahrers angepasst.

Das ist von VW We Experience noch zu erwarten

Volkswagen will und wird mit We Experience künftig weitere Bereiche erschließen und damit neue Teilnehmer in das Programm integrieren. Das können Tankstellenbesitzer bzw. -ketten sein, aber auch Einkaufszentren oder Ladengeschäfte. Das reicht vom Wechseln der Winterreifen bis hin zu speziellen Angeboten seitens der VW-Händler, die natürlich auch Teil des Ökosystems werden sollen. Aber letztlich sollen VW-Fahrer besser an die Marke Volkswagen gebunden werden. Hierzu bietet der Konzern mit VW We ein Fahrerlebnis, mit dem man Zeit und Geld spart.

Das komplette Interview in voller Länge

 

Gero Dieckmann über die SVA GmbH auf der CEBIT 2018

Gero Dieckmann über die SVA GmbH auf der CEBIT 2018

Dieses Videointerview mit Gero Dieckmann habe ich im Auftrag der SVA GmbH geführt. Darin spricht er über den Gesamtauftritt der SVA auf der CEBIT 2018, über den Slogan „IT back on Track“ und wie die „neue“ CEBIT bei der SVA ankommt.

Das verbirgt sich hinter dem Slogan „IT back on Track“

Diesen Slogan bewertet die SVA als eine Art Provokation, denn wenn „IT wieder auf Spur“ läuft, muss sie ja erst einmal davon abgekommen sein. So interpretiert die SVA den Einsatz von traditionellen IT-Umgebungen, auf die viele ihrer Kunden gesetzt haben bzw. immer noch setzen. So werden nämlich die zunehmenden Forderungen seitens der Fachabteilungen nach neuen Diensten wie S3-Services via Amazon Web Services, Google oder SoftLayer ignoriert. Und genau das können sich viele Unternehmen einfach nicht mehr leisten.

Das führt zu einer Art Schatten-IT, die zur Konsequenz haben kann, dass Daten via Dropbox und anderen nicht-autorisierten Cloud-Diensten Unternehmen verlassen, was vor allem in Zeiten von DSGVO und Co. äußerst unangenehme Folgen nach sich ziehen kann. Daher hat die SVA für seine Kunden (und andere Unternehmen) einen Weg gesucht und gefunden, wie das IT-Management benötigte und gewünschte Cloud-Services künftig mit geringem Aufwand bereitstellen kann.

Die Lösung hierfür ist ein umfassendes Multi-Cloud-Management, was das Speicher und Bereitstellen von Daten sowohl on-premise (direkt auf dem Server des Kunden) als auch off-premise (in der eigenen Cloud-Umgebung) ermöglicht. Und das so sicher und zuverlässig wie eben nur möglich. Realisiert wird dieser Ansatz mithilfe aktueller Techniken wie Docker, Container, Kubernetes und Helm, und das alles auf Basis der IBM Private Cloud-Plattform.

Diese CEBIT-Highlights hatte die SVA im Gepäck

Klar, dass als erstes die Anki Overdrive-Rennbahn am SVA-Stand im IBM-Pavillon ins Auge stach, die eine Vielzahl von Besuchern genau dorthin lockte. Interessanterweise haben diesen Jungentraum technisch versierte SVA-Mitbarbeiter selbst in tagelanger Arbeit selbst konzipiert, aufgebaut und zum Laufen gebracht. Eine echte Meisterleistung, wie ich finde.

Doch die die Spielzeugrennbahn war nicht nur Eye-Catcher, sondern sollte auch den gerade vorgestellten Slogan „IT back on Track“ visualisieren. So stellte jedes der kleinen Rennwagen einen bestimmten IT-/Cloud-Service dar,  die sich dank der verbauten Leitplanken an Geschäftsprozessen orientieren können und so in der Spur gehalten werden. Die Leitplanken selbst werden von der IT-Abteilung vorgegeben.

Das Ziel, das damit erreicht werden soll, ist das Umgehen so genannter Phantomstaus, die dazu führen können, dass die IT-Abteilung technische Engpässe zulässt, da diese nicht rechtzeitig erkannt werden und so Innovationstaus innerhalb der Firmen-IT entstehen.

Die SVA nimmt die Veränderungen der „neuen“ CEBIT durchaus positiv wahr

Laut Gero Dieckmann sind die Veränderungen der neuen CEBIT viel mehr als nur deren neue Schreibweise. Das macht sich unter anderem in einem neuen, angepassten Standkonzept der IBM bemerkbar, von dem die SVA als einer der größten IBM-Partner maßgeblich profitiert hat. Das hat unter anderem mit dem Umzug von der „alten“ Halle 2 in die großen, modernen Pavillons zu tun (ein Relikt der Weltausstellung EXPO 2000), in denen sich neue Konzepte und neue Ideen besser darstellen ließen als bisher.

Aber auch neue Fachbesucher schien die neue CEBIT anzulocken, wie man Gero Dieckmanns Worten entnehmen kann. So kamen nämlich nicht nur die bekannten IT-Entscheider und Geschäftsführer im dunklen Zweireiher auf diese Messe, sondern auch Software-Entwickler, Projektmanager sowie Marketing- und PR-Experten wollten sich bei der SVA über das Thema Multi-Cloud-Umgebungen und Co. informieren. Zudem waren die zahlreichen Gespräche mit potenziellen Kandidaten für die SVA sehr wertvoll auf der CEBIT 2018, da das Systemhaus aus Wiesbaden kontinuierlich wächst und immer wieder neues Personal braucht.

Damit stand für Herrn Dieckmann relativ schnell fest: Die SVA GmbH ist wohl auch 2019 wieder auf der CEBIT vertreten. Und dann vielleicht wieder mit solch einem schönen Gespräch wie diesem hier!

Zuverlässgier Datenschutz mit eperi Gateway

Cloud-Daten mit eperi Gateway vollumfänglich und wirksam schützen

Sensible Daten lassen sich innerhalb einer Cloud schützen, indem man sie verschlüsselt und pseudonymisiert. Hierfür gibt es verschiedene Ansätze: Cloud Access Security Broker (CASB), Bring Your Own Key-Dienste oder andere vergleichbare Dienste. Doch worin unterschieden sich deren Arbeitsweisen und schützen sie Cloud-Daten vollumfänglich?

Nun, CASB-Services bzw. -Anwendungen befinden sich zwischen Anwender und Cloud-Plattform und steuern, überwachen und protokollieren den gesamten Datenstrom. Im Gegensatz dazu verschlüsseln BYOK-Anbieter die Daten mithilfe von kryptografischen Schlüsseln, die sie ihren Cloud-Kunden zur Verfügung stellen.

Die Zuverlässigkeit und Machbarkeit dieser Ansätze lassen sich mithilfe dreier Aspekte und ihrer wesentlichen Fragen bewerten: Datenkontrolle, Benutzbarkeit (Usability) und Datenschutz.

Datenkontrolle: Wer kann auf die für die Verschlüsselung erforderlichen Schlüssel zugreifen und hat damit Zugriff auf die verschlüsselten Daten?

Benutzbarkeit: Können die Cloud-Anwendungen trotz der Verschlüsselung wie gewohnt genutzt werden?

Datenschutz: Sind Datensicherheit und -schutz eingeschränkt, um somit die Benutzbarkeit der Cloud-Anwendung oder einzelner Funktionen weiterhin gewährleisten zu können?

Nun muss man sich als Datenschutz-Verantwortlicher gut überlegen, welche dieser drei Merkmale von besonderer Bedeutung sind. Denn leider decken die am Markt existierenden Ansätze und Lösungen nicht alle Anforderungen gleichermaßen gut ab.

CASB-Services ermöglichen grundsätzlich einen hohen Datenschutz und die volle Datenkontrolle, dafür ist die Usability meist nicht optimal, da der Service an die verschiedenen Cloud-Applikationen  angepasst werden muss. Im schlimmsten Fall wird die Nutzung von Cloud-Services komplett verhindert, wenn sensible Daten im Spiel sind.

BYOK-Dienste: Hier stehen die Themen  „Benutzbarkeit“ und „Datenschutz“ im Vordergrund, allerdings rückt die Datenkontrolle ein wenig in den Hintergrund, da die erforderlichen kryptografischen Schlüssel zwar vom Anwender zur Verfügung gestellt werden, der Cloud-Anbieter kann allerdings auf die Schlüssel zugreifen.

eperi hilft aus dem CASB-/BYOK-Dilemma!

Jetzt kommen wir zu der Stelle, an der Sie sich vielleicht fragen: Gibt es denn eine Cloud-Verschlüsselungslösung, die alle drei Disziplinen gleichermaßen gut beherrscht? Ja, doch, die gibt es, und sie nennt sich eperi Cloud Data Protection (CDP). Damit können Sie sicher sein, bei allen drei Aspekten keine Abstriche machen zu müssen.

So erlangt keiner der Cloud-Anbieter und Datenverarbeiter Zugriff auf die Schlüssel, die Cloud-Anwendung wird durch die Verschlüsselung nicht wesentlich beeinträchtigt, und beim Datenschutz werden ebenfalls keine Kompromisse eingegangen.

Die Funktionsweise des eperi-Gateway

Die wesentliche Eigenschaft des eperi-Gateway ist seine „Vermittlerrolle“. Hierzu befindet es sich außerhalb der Cloud-Umgebung, deren Daten verschlüsselt werden sollen, entkoppelt also Cloud-Anwendungen von den Cloud-Daten. Zum anderen fungiert es als Reverse-, Forward- und API-Proxy, je nach Anwendung und Zugriffsszenario.

Außerdem ist das eperi-Gateway „Hüter“ sämtlicher Schlüssel, die für das Pseudonymisieren und Verschlüsseln der Daten erforderlich sind. Das erlaubt allen Anwendern einen transparenten, sicheren Zugriff auf die Cloud-Daten. Transparent heißt, dass die Verschlüsselung im Hintergrund für die Anwender keine spürbaren Auswirkungen hat und dass keine Installationen an Benutzer- oder Zielsystemen notwendig sind.

So funktioniert das eperi-Gateway

So fungiert das eperi-Gateway als Proxy

Ein Proxy-Server ist ganz allgemein gesprochen ein Vermittler, der die Netzwerkkommunikation zwischen zwei Endpunkten übernimmt und dabei unterschiedliche Aufgaben übernimmt. Im Falle des eperi-Gateway ist dies beispielsweise das Verschlüsseln und Entschlüsseln der Daten, die zwischen den Endpunkten ausgetauscht werden sollen.

Das eperi-Gateway fungiert im Wesentlichen als Forward- und Reverse-Proxy. Im Foward-Fall nimmt der Anwender aus seinem Netzwerk zuerst Kontakt mit dem eperi-Gateway auf, übergibt diesem seine Daten, die es verschlüsselt, und anschließend an die zugehörige Cloud-Anwendung übergibt.

In entgegengesetzter, also Reverse-Richtung, nimmt das eperi-Gateway als Proxy stellvertretend den Datenstrom entgegen, der von einer Cloud-Anwendung zurückkommt und entschlüsselt die darin verschlüsselten Daten, bevor diese an die Anwender in Klartext weitergeleitet werden.

Darüber hinaus kann das eperi-Gateway über verschiedene API-Schnittstellen in bestehende Anwendungen eingebunden werden. Das ist beispielsweise dann erforderlich, wenn die Ver- und Entschlüsselung lediglich vor- oder nachgeschaltet zum Einsatz kommt oder proprietäre Protokolle unterstützt werden müssen.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

Cyber-Security

Data Residency: eperi-Techniken helfen bei der Umsetzung

Am 1. Juni 2017 hat die Regierung der Volksrepublik China das sogenannte Cybersecurity-Gesetz (CSG) aktiviert, das immer noch viele Datenschutzbeauftragte verunsichert.  Für ein besseres Verständnis, wie sich die darin verankerten Regelungen auf in China operierenden Firmen auswirken können, habe ich es mir ein wenig genauer angesehen.

Das CSG wurde vor allem wegen möglichst hoher Datenschutz-Sicherheitsstandard  verabschiedet. Und es geht ein gutes Stück weiter als die Datenschutzgrundverordnung. Denn im Gegensatz zur DSGVO, die das Verarbeiten von Daten auch außerhalb des europäischen Hoheitsgebietes vorsieht, schreibt das Cybersecurity-Gesetz eindeutig vor, dass die in China erhobenen und verarbeiteten Daten um jeden Preis in der Volksrepublik bleiben müssen.

An das Cybersecurity-Gesetz sollte man sich penibel halten!

Mit dem CSG sollen Hackerangriffe und Cyber-Terrorismus bekämpft und unterbunden werden. Daher sieht das Gesetz bei Verstößen drakonischen Strafen wie den Entzug der sogenannten Bei’an-Lizenz vor, was faktisch einem unternehmerischen Aus in China gleichkommt, da ohne diese Lizenz in der Volksrepublik keinerlei Geschäftsaktivitäten möglich sind.

Daraus ergeben zahlreiche Fragen wie zum Beispiel: Wer ist vom CSG tatsächlich betroffen? Auch an dieser Stelle hilft eine Blick in den Gesetzestext: Das Gesetz kommt für alle Firmen zur Anwendung, die im elektronischen Geschäftsverkehr in China aktiv sind. Die Rede ist also von Onlineshop-Betreibern und Anbietern von Netzwerk- und Critical Information-Infrastrukturen. Das sind zum Beispiel das Rechenzentrum einer Bank, eine medizinische Einrichtung, etc. Es geht also stets um sensible und unternehmenskritische Daten und deren Erfassung, Verarbeitung und Speicherung. 

Cloud-Services in China unterliegen höchsten Anforderungen

Ein weitere Rolle in diesem Szenario spielt die große Entfernung Chinas zu Europa und den damit verbundenen hohen Latenzzeiten. Außerdem sorgt die „Große Firewall“ der chinesischen Regierung oft dafür, dass Daten die Volksrepublik gar nicht verlassen oder erreichen können. In beiden Fällen behelfen sich viele Firmen mit „gespiegelten“ Inhalten, die sich innerhalb der chinesischen Grenzen befinden. Oft handelt es sich dabei um cloud-basierte Datenserver, die akzeptable Ladezeiten und das Umgehen der chinesischen Firewall ermöglichen.

Und genau daraus ergibt sich ein nicht zu unterschätzendes Dilemma: Wie kombiniert man in geeigneter Art und Weise die technischen und datenschutzrelevanten Herausforderungen, die sich aus dem CSG ergeben? 

Das „Schweizer Bundesgesetz über den Datenschutz“ im CSG-Kontext

Neben der Volksrepublik China verschärft auch die Schweiz seinen Datenschutz in erheblichem Maße. So wird gerade das „Bundesgesetz über den Datenschutz“ (DSG) an die aktuellen Veränderungen angepasst. Dies ist unter anderem der europäischen Datenschutzgrundverordnung geschuldet, an welche die Schweiz ja nicht gebunden ist. So wird der Schweizer Gesetzgeber das DSG an die DSGVO anpassen, ohne die speziellen Anforderungen der Schweiz zu vernachlässigen. Namentlich sind das die Forderungen nach einem Datenschutzverantwortlichen mit Hauptsitz in der Schweiz und eine bevorzugte Datenerhebung und -verarbeitung in der Schweiz.

Verschlüsseln von Cloud-Daten = CSG- und DSG-konform

Will man also als Unternehmer sicher stellen, die Daten CSG- und DSG-konform zu verarbeiten und zu speichern, kommt man um das Verschlüsseln seiner Cloud-Daten nicht herum. Denn die VR China und die Schweiz fordern einen sachgemäßen Umgang mit personenbezogenen und unternehmenskritischen Daten, die sich vor allem auf Cloud-Infrastrukturen befinden.

Damit ist eine Verschlüsselung vonnöten, die Cloud-Daten auf spezielle Art und Weise unleserlich macht. Dazu gehört ein Verschlüsselungsverfahren, das die Daten VOR dem Speichern auf dem Cloud-Server bestmöglich verschlüsselt. Und das außerdem sicherstellt, dass ausschließlich der Eigentümer der Daten über die notwendigen Schlüssel verfügt, da nur er dann Zugriff auf personenbezogene oder geschäftskritische Daten hat.

Cyber-Security 2

Das eperi Gateway erfüllt Data Residency-Auflagen

Damit sollte man als Sicherheitsbeauftragter auf ein Verschlüsselungsverfahren setzen, das die Daten verschlüsselt, bevor sie auf dem Cloud-Server landen. Und das obendrein sicherstellt, dass die originären Daten die IT-Landschaft nicht verlassen, um geltendes Recht einzuhalten, wie es das Cybersecurity-Gesetz der chinesischen Regierung vorsieht.

Das eperi Gateway und die damit in Verbindungen stehenden eperi Cloud Data Protection Lösungen stellen genau diese Forderungen sicher. Damit lassen sich Data Residency-Anforderungen  erfüllen, da sensible Daten verschlüsselt werden, sodass diese nachweislich innerhalb eines vorgesehenen Rechtsraumes verbleiben und nur als verschlüsselte, unlesbare Daten diesen Raum verlassen.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

office365-verschluesselung-cloud-eperi

Office 365-Umgebungen mithilfe von eperi DSGVO-konform absichern

Es soll ja Leute geben, die können sich gar nicht mehr vorstellen, ohne Cloud-Services wie Microsoft Office 365 zurecht zu kommen. Dafür ist der Komfort und der schnelle Zugriff auf sämtliche Applikationen und Daten einfach zu gut, als dass sie jemals wieder darauf verzichten möchten.

Dabei bleibt allerdings leider viel zu oft die Sicherheit auf der Strecke. Denn mit jeder E-Mail, jedem vertraulichen Termin und mit jedem personenbezogenen Datum steigt das Risiko, dass sensible Daten in die falschen Hände geraten. Dabei ist es doch im Grunde so einfach, seine wertvollen Daten gegen den Zugriff von Unbefugten zu schützen.

Wussten Sie eigentlich, dass spätestens mit dem Inkrafttreten der DSGVO am 25. Mai 2018 nicht nur die Datenverantwortlichen eines Unternehmens in der Verantwortung stehen, sondern auch die sogenannten Auftragsverarbeiter? Das sind neben den klassischen Rechenzentrumsbetreibern auch die Anbieter von Cloud-Plattformen und Cloud-Diensten. Dazu zählt also auch Microsoft mit seinem Cloud-Service Office 365. Doch können Sie sicher sein, dass die Cloud Service Provider (CSP) sämtliche Auflagen rund um die DSGVO (und andere gesetzliche Regularien) auch wirklich vollständig einhalten? Sehen Sie, und genau das ist der Knackpunkt an der Geschichte. Und genau an der Stelle kommt das Thema Verschlüsselung ins Spiel.

Denn nur wenn Daten verschlüsselt in der Cloud gespeichert werden, kann man sich sicher sein, dass damit auch kein Unfug angestellt werden kann. Darüber hinaus will man keinen Aufwand generieren, der mit einer möglichen Anpassung der Verschlüsselungstechnik an den Cloud-Service wie Office 365 erforderlich macht. Eine Lösung, die beide Aspekt berücksichtigt, nennt sich eperi Cloud Data Protection (CDP). In diesem Fall geht die Sicherheit der Office-365-Daten noch ein erhebliches Stück weiter: Die Daten liegen faktisch gar nicht innerhalb der Office-365-Cloud-Umgebung, sondern auf einem geografisch und damit physikalisch getrennten Server, dem eperi Gateway.

eperi CDP = sichere Office 365-Cloud-Umgebungen

Damit stellt eperi Cloud Data Protection for Office 365 die ideale Ergänzung zu den Sicherheits- und Datenschutz-Funktionen dar, die Office 365 von Haus aus anbietet, indem es die Microsoft’sche Cloud-Umgebung um zentrale Datenschutz- und Compliance-Funktionen ergänzt. Damit werden sensible Informationen sicher verschlüsselt, bevor sie an die Office 365 Cloud übermittelt werden.

Ein weiterer Vorteil an dieser Lösung: Nur ein kleiner Kreis berechtigter Personen hat Zugang zu den kryptografischen Schlüsseln, die zum Ver- und Entschlüsseln sensibler Informationen in der Office 365-Cloud benötigt werden. Außerdem finden sämtliche Verschlüsselungs- und Entschlüsselungsprozesse ausschließlich unter der Kontrolle des Unternehmens außerhalb der Office 365-Cloud statt. So können nicht einmal Microsoft-Administratoren oder Mitarbeiter in externen Datenzentren auf die Daten im Klartext zugreifen.

Stellt sich nur die Frage, wie wichtige Anwendungsfunktionen, z. B. die Volltextsuche in E-Mails auf Exchange weiterhin funktionieren können, wenn die Daten in der Office 365-Cloud zu jedem Zeitpunkt verschlüsselt sind und die Microsoft Cloud-Services keinerlei Zugriff auf die Schlüssel haben? Die Antwort darauf liefert das eperi Gateway, das die Grundlage aller Cloud Data Protection-Lösungen darstellt, und die Art und Weise, wie es mit der Office 365-Cloud zusammenarbeitet und die Protokolle, die es unterstützt.

Office 365: Protokolle, Schnittstellen, Funktionen

HTTP(S): Mit dem Hypertext Transfer Protocol greifen die Anwender auf die Office-365-Anwendungen über einen Standard-Webbrowser zu. Dabei verschlüsselt HTTPS (Hypertext Transfer Protocol Secure) die Verbindungen zwischen Browser und Server. Hierbei kommt das Übertragungsprotokoll TCP/IP zum Einsatz, die Verschlüsselungstechnik dahinter wird mit SSL (Secure Socken Layer) bzw. TLS (Transport Layer Security) bezeichnet. Auf dem Server muss ein anerkanntes Zertifikat installiert sein, das eine Authentifizierung des Webbrowsers gegenüber des Webservers erlaubt.

SMTP: Mit dem Simple Mail Transfer Protocol werden innerhalb einer Office-365-Umgebung E-Mails versendet. Die Schnittstelle basiert ebenfalls auf dem Übertragungsprotokoll TCP/IP und nutzt SSL/TLS für den verschlüsselten Versand von E-Mails. Im Falle des SSL/TLS-basierten Versands spricht man auch von SMTPS (Simple Mail Transfer Protocol Secure).

Exchange Web Services (EWS): Mit den EWS greifen Anwender sicher und komfortabel auf Office 365-Postfachdaten zu. Dazu gehören E-Mails genauso wie Kalendertermine und Kontakte. Hier kommt auch HTTPS als Zugriffsprotokoll zum Einsatz.

Exchange ActiveSync (EAS): Analog zu den Exchange Web Services greift man mit EAS auf E-Mails, Kalender und Termine zu, allerdings mittels seiner Mobilgeräte wie iPhone und Tablet. Erwähnenswert ist in diesem Kontext die EAS-Funktion „Direct Push“, mit dessen Hilfe E-Mails, Terminen, etc. zwischen Office 365 und dem mobilen Endgerät synchronisiert werden. Die Daten zwischen Server und Mobilgerät werden auch über HTTPS übertragen.

MAPI over HTTP(S): Mit dem Messaging Application Programming Interface lassen sich E-Mail-Nachrichten direkt aus anderen Anwendungen als dem Mail-Programm verschicken. So lassen sich Textdokumente aus Word versendet werden, ohne dass man diese zuvor in den E-Mail-Client von Office 365 kopieren muss. MAPI over HTTPS wurde mit Microsoft Exchange 2013 eingeführt und hat seinerzeit das Vorgängerprotokoll RPC over HTTP abgelöst. Vor allem die deutlich schnellere Verbindung eines tragbaren Rechners mit dem Office 365-Mailserver via MAPI over HTTPS bietet erhebliche Vorteile gegenüber RPC over HTTP.

Müßig zu erwähnen, dass das eperi Gateway diese Protokolle, Funktionen und Schnittstellen von Office 365 unterstützt. Denn nur dann ist eine durchgängige Verschlüsselung innerhalb der Office 365 Cloud-Umgebung möglich.

eperi Gateway & Office 365: ein erprobtes E-Mail-Team

Eine Besonderheit des eperi Gateway ist seine unkomplizierte Verschlüsselungstechnik. Damit muss sich der Anwender nicht um passende Schlüssel oder ähnliche Dinge kümmern. So verfasst er einfach eine unverschlüsselte E-Mail-Nachricht und versendet diese. Diese landet auf dem E-Mail-Server des Empfängers, wo sie unmittelbar nach Erhalt vom eperi Gateway verschlüsselt und dann automatisch an Office 365 weitergeleitet wird. Da nur das Unternehmen des Empfängers über den Schlüssel zum Dekodieren der Nachricht verfügt, können ausschließlich berechtige Anwender des Unternehmens und sonst niemand die Nachricht lesen.

Interessant ist obendrein die Option, über die Outlook Web Apps auf die Office 365-Umgebung zuzugreifen. Da sich zwischen Browser und Office 365 Cloud-Umgebung ebenfalls das eperi Gateway um die Ver- und Entschlüsselung der Nachrichten kümmert, können E-Mails ganz bequem von jedem Ort der Welt via Webbrowser abgerufen werden – und das vollkommen geschützt.

Trotz Verschlüsselung nach E-Mails und Dateien suchen

Mit einem speziellen Trick können Anwender innerhalb einer Office 365 Cloud-Umgebung verschlüsselte E-Mails und Dateien suchen und finden. Hierzu legt das eperi Gateway einen vollständigen Index aller E-Mails und Dateien an, der nicht in der Office 365-Cloud, sondern in der sicheren Kundenumgebung, z.B. auf dem eperi Gateway-Server gespeichert wird. Das entkoppelt die Office-Umgebung vom eperi Gateway, was zusätzlich die Sicherheit erhöht.

Sucht dann ein Benutzer nach einem Datum oder Begriff, wird dieses/r zunächst an das eperi Gateway weitergeleitet. Dort wird die modifizierte Suchanfrage mithilfe der richtigen Datenset-ID an die Office 365-Cloud-Umgebung gesendet, die anhand dieser eindeutigen Nummer das richtige, verschlüsselte Suchergebnis aus der Office 365-Umgebung an das eperi Gateway zurückgibt. Dort wird die E-Mail oder Datei entschlüsselt und dem Anwender als Klartext zur Verfügung gestellt. Damit wird zu jeder Zeit sichergestellt, dass Suchergebnisse wie E-Mails oder Dateien niemals öffentlich vorliegen und damit Office 365-Inhalte auch nicht kompromittiert werden können.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

Plamen Kiradjiev über Smart Factory und IBM

[Videochat] Plamen Kiradjiev (IBM) über Smart Factories am Beispiel von Mettler Toledo

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Plamen Kiradjiev von IBM über das Thema Smart Factories am Beispiel von Mettler Toledo geführt. Darin zeigt er, wieso IBM ein wichtiger Teil der SmartFactory-Szene ist, welche Rolle IBM darin einnimmt und wie IBM mit seinen KI- und Cloud-Tools Industriekunden wie Mettler Toledo hilft.

„Was zeigen Sie hier [auf dem Smart Factory-KL-Stand] auf der Hannover-Messe 2018“?

Laut Herrn Kiradjiev zeigten auf dem Smart Factory-KL-Stand in Halle 8 wie seit vielen Jahren zahlreiche Aussteller ihre Lösungen rund um das Thema „Schlaue Fabriken“ und Industrie 4.0. Und auch dieses Jahr war IBM wieder von der Partie. Das Hauptinteresse seitens IBM auf diesem großen Messestand bestand im Sammeln, Analysieren und Bewerten der Daten, die hier zu Demonstrationszwecken benötigt wurden.

Einen dieser Messepartner, der gleichzeitig auch Kunde von IBM ist, versorgte IBM mit Daten für die Qualitätssicherung seiner Produkte. Die Rede ist von Mettler Toledo, dem Hersteller von Präzisionswaagen, für den das Thema Qualitätssicherung in der Fertigung von allerhöchster Wichtigkeit ist.

„Welche Rolle nimmt IBM in der Smart Factory ein?“

Die primäre Rolle von IBM innerhalb des Smart Factory-Kontexts war die vorausschauende Fertigung und Wartung, was auch als Predictive Manufacturing und Predictive Maintenance bezeichnet wird. Dabei hatte es sich IBM unter anderem zum Ziel gesetzt, diese beiden auf Machine Learning basierenden Ansätze auf der Hannover-Messe (und darüber hinaus) zu Lern-un Demonstrationszwecken bestmöglich einzusetzen.

Ein wichtiger Prozess dabei ist das Extrahieren und Analysieren der Daten, die IBM mithilfe geeigneter Tools aus den Industrieanlagen der Partner holt. Hierfür kommt ein einheitliches Protokoll zum Einsatz, mit dessen Hilfe sämtliche Daten in einem einheitlichen Format in den zur Verfügung stehenden Datenpools gespeichert werden. Von dort aus gelangen sie in den unterschiedlichsten Cloud-Plattformen, die je nach Anwendung und Kunde genutzt werden. Hierbei kommen auch Multi-Cloud-Szenarien zur Anwendung.

„Wie hilft IBM in diesem Kontext [dem Hersteller von Präzisionswaagen] Mettler Toledo?“

Bei dem gemeinsamen Projekt mit Mettler Toledo steht für den Anbieter und Hersteller von Präzisionswaagen die Qualität seiner Messgeräte an allererster Stelle. Denn die Waagen werden primär selbst zur Qualitätssicherung eingesetzt, indem gefertigte Produkte zur Überprüfung von möglichen Abweichungen von der gewünschten Qualität vermessen werden. Da die Mettler-Toledo-Waagen bis in das Milligramm genau wiegen können, lassen sich mithilfe dieser Hightech-Messgeräte kleinste Produktionsabweichungen exakt feststellen, ohne jedes einzelne Bauteil oder ein komplettes Produkt aufwändig nachmessen oder gar zerlegen zu müssen.

Aus diesem Grund ist es für Mettler Toledo immanent wichtig, sich auf die hundertprozentige Messgenauigkeit seiner Waagen verlassen zu können. Und genau hier kommt IBM mit seinen Softwarelösungen ins Spiel. So stellt „Big Blue“ eine Schnittstelle in seine IoT Cloud zur Verfügung, mit dessen Hilfe Mettler Toledo Zugriff auf geeignete Machine-Learning-Algorithmen erhält. Damit kann der Hersteller ziemlich exakt voraussagen, wann und bei welchen Waagen eine Ungenauigkeit von Messergebnissen zu erwarten ist, da sich bei der Produktion der Messgeräte mit hoher Wahrscheinlichkeit Unregelmäßigkeiten einstellen werden.

IBM IoT Cloud und Watson Studio für das Überprüfen von Qualität von Präzisionswaagen

Hierfür werden die von Mettler Toledo zur Verfügung gestellten Daten innerhalb der IBM IoT Cloud in das Softwaretool Watson Studio importiert. Daraus erstellt die Anwendung ein Produktionsprozessmodell, das anschließend installiert und konfiguriert wird. Sobald die vorhandenen Daten durch dieses Modell geleitet werden, lässt sich ziemlich genau vorhersagen, welche Waage mit relativ hoher Wahrscheinlichkeit Abweichungen bei der gewünschten Qualität aufweisen wird. In solch einem Fall erhält der Smart-Factory-Administrator von der Software einen Warnhinweis, der auf die mögliche Abweichung der Messgenauigkeit hinweist. Damit kann er unmittelbar und ohne größeren Messaufwand die Qualität der Waage überprüfen lassen.

Das Interview mit Plamen Kiradjiev in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.