Thomas Ehrlich, Varonis Systems

Videopost: „Mit uns machen Sie Ihre IT-Umgebung ein gutes Stück sicherer“

Dieses Videointerview habe ich mit Thomas Ehrlich von Varonis Systems auf der it-sa 2018 geführt. Darin spricht er über den notwendigen Schutz hybrider Cloud-Infrastrukturen, über den Einsatz von IBM QRadar und wie Varonis seinen Kunden bei der Umsetzung der DSGVO hilft.

Identische Rechtevergabe On-Prem und On-Cloud

Heterogene IT-Infrastrukturen sind vor allem eins: Über die Zeit gewachsen und weisen damit in vielen Fällen eine „chaotische“ Grundordnung auf. Das wirkt sich auf verschiedene Bereiche wie zum Beispiel die vergebenen Rechte aus, was sich mittel- oder unmittelbar auf die Sicherheit der IT-Umgebung auswirken kann. Soll diese „gewachsene“ Infrastruktur in eine Hybrid-Cloud migriert werden, ist es immanent wichtig, die gesamte Rechtestruktur und die dazu gehörigen Berechtigungen vor dem geplanten Umzug in die Cloud vollständig zu überprüfen und gegebenenfalls anzupassen – für eine höchstmögliche Sicherheit von Anfang an.

Falls man dies nicht selber erledigen will, kann man sich an Firmen wie Varonis Systems wenden, die sich mit der Rechtevergabe On-Premise und On-Cloud bestens auskennt.

IBM QRadar und Varonis: ein ergänzendes Gespann

Varonis-Kunden, die SIEM-Systeme wie IBM QRadar einsetzen,  importieren die Alerts und Benachrichtigungen, die Varonis im Kontext der strukturierten und unstrukturierten Kundendaten erstellt, in das QRadar-System und können damit ihr gesamtes Nachrichtensystem im großen Zusammenhang betrachten und auswerten.

Interessant an dieser Stelle ist auch die Möglichkeit, mithilfe des Varonis-Systems Alarmsignale in Echtzeit abzurufen, da diese auch in Echzeit erstellt und verschickt werden. Damit lassen sich jedwede Bedrohungen wie Ransomware & Co. schneller lokalisieren und dagegen vorgehen.

Varonis hilft seinen Kunden in Sachen DSGVO

Varonis hilft ihren Kunden, bestimmte DSGVO-Forderungen bestmöglich umzusetzen. Dazu gehört beispielsweise das obligatorische Erstellen eines Verarbeitungsverzeichnisses, das in Artikel 30 geregelt wird. Das soll sämtliche Aufgaben auflisten, die während der elektronischen Verarbeitung personenbezogener Daten anfallen. Dieser nicht ganz triviale Aufwand erfolgt am ehesten über die sogenannten Log-Dateien, die speziell im Windows-Server-Umfeld anfallen. Diese Dateien sind sehr umfangreich und müssen daher mit geeigneten Mitteln und möglichst geringem Aufwand analysiert und nach personenbezogenen Daten durchforstet werden können.

Auch hier wird Varonis für ihre Kunden aktiv, indem sie genau diese Logging-Dateien permanent analysiert und überwacht. Auf dieser Basis sind zahlreiche Erkenntnisse und Aktionen möglich, wie das Ableiten von Benutzerverhalten oder unternehmensweite Suchabfragen. Und das stets vor dem Hintergrund DSGVO-relevanter Daten und Dateien.

Das Interview mit Thomas Ehrlich auf der it-sa 2018

Disclaimer: Diesen Videoblogpost habe ich im Auftrag von Varonis Systems erstellt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

 

Dr. Hubert Jäger von Uniscon über BYOK-Irrtümer

Videoblog: „BYOK ist leider kein Cloud-Daten-Allheilmittel“

Dieses Videogespräch habe ich mit Dr. Hubert Jäger von der Firma Uniscon geführt. Dabei geht es um vorherrschende BYOK-Irrtümer (Bring Your Own Key) und wie die Sealed Plattform seiner Firma helfen kann, Cloud Computing ein gutes Stück sicherer zu machen.

Life-Hacking auf der it-sa: So unsicher sind Cloud-Daten

Die Cloud kämpft nach wie vor mit einer Reihe von Vorurteilen, darunter auch mit der Annahme, dass Daten innerhalb einer Cloud-Umgebung nur dann sicher seien, wenn man die eigenen Schlüssel mitbringt. Dieser Grundsatz (der auch unter dem Akronym BYOK (Bring Your Own Key) bekannt ist) weist allerdings eine erhebliche Schwachstelle auf: Man kann mit relativ geringem Aufwand an die für das Entschlüsseln der Daten notwendigen Schlüssel herankommen. Hierfür muss lediglich ein sogenannter „Memory Dump“ erstellt werden, der es erlaubt, mit etwas technischem Verständnis und den richtigen Tools die Schlüssel zu extrahieren und zu missbrauchen.

Die Uniscon Sealed Plattform schützt Cloud-Daten vor fremden Zugriffen

Sieht man sich die DSGVO genauer an, so fällt unter anderem Artikel 5 auf, der unter dem Punkt 1c das Prinzip der Datenminimierung genauer beschreibt. Die Forderung hierbei lautet, dass die Erhebung und Verarbeitung personenbezogener Daten stets zweckgebunden sein muss. Gewährt man einem IT-Admin von Cloud-Servern allerdings weitergehende Rechte, als diese für das Erfüllen seiner Aufgaben notwendig sind (wie zum Beispiel das Erstellen eines Memory Dump), verstößt man nicht nur gegen die DSGVO, sondern ermöglicht auch ein unsicheres Einfallstor in die Cloud-Umgebung.

Genau an dieser Stelle kommt die Sealed Plattform ins Spiel. Auf Basis dieser Uniscon-Lösung kann man den IT-Administrator einer Cloud-Infrastruktur in seinen Rechten so weit einschränken, dass das Prinzip der Datenminimierung eingehalten werden kann.

So funktioniert die Sealed Plattform im Falle eines versuchten Datenklaus

Sollte trotz eingeschränkter Adminrechte und sonstiger Sicherheitsmaßnahmen ein Angriffsversuch auf die Cloud-Daten initiiert werden, sucht die Uniscon Sealed Plattform mit vier geeigneten Maßnahmen, diesen unliebsamen Hacking-Versuch zu unterbinden und die Daten zu schützen:

Mit dem Data Clean-Up werden im Falle eines Angriffs die Daten innerhalb einer sogenanten Data Clean-Up Area präventiv gelöscht. Dort befinden sich auch die Schlüssel, womit auch diese im Angriffsfall gelöscht werden, sodass die Daten erst gar nicht entschlüsselt werden können. Mit der Filterung wird der IT-Admin von diesem Bereich ferngehalten, da dies seine Kompetenzen übersteigen würde. Und schließlich findet ein Audit statt, der sicherstellt, dass der gesamte Data Cleanup-Prozess genau den Vereinbarungen entsprochen hat und damit die Daten weiterhin als sicher gelten.

Das vollständige Interview mit Dr. Hubert Jäger auf der it-sa 2018

Disclaimer: Für diesen Videoblogeintrag hat mich die Firma Uniscon beauftragt. Bei der Ausgestaltung der Inhalte hatte ich völlig freie Hand.

Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Das ist die pCloud: Funktionen, Preise, Besonderheiten

Mit pCloud gibt es einen weiteren Cloud-Anbietern am Markt, der bewusst bestimmte Dinge anders machen will als Dropbox und Co. Dazu gehören vor allem die eingebauten Sicherheitsmaßnahmen, aber auch Funktionen wie das Sichern und Wiederherstellen von (Online-)Daten unterscheiden sich von den bekannteren Diensten.

Das bekommen Sie alles mit pCloud

Die Anmeldung beim Cloud-Service pCloud ist denkbar einfach, zumindest für Facebook-Nutzer. Damit gelingt der Zugang zur Cloud-Umgebung mit wenigen Mausklicks.

Der nächste Schritt ist die Wahl des passenden Clients, aber auch hier hat pCloud alles zu bieten, was man von solch einem Service erwartet. Ob Windows, macOS, Linux, iOS oder Android – für jede Plattform steht die richtige Client-Software bereit. Selbst Windows Mobile und Browser-Erweiterungen für Google Chrome, Firefox und Opera gibt es. Schade nur, dass Apple Safari und der Internet Explorer außen vor bleiben.

pCloud Drive zum Verwalten sämtlicher Daten

Ebenfalls erwartbar, aber trotzdem sehr praktisch, ist der pCloud-eigene Explorer, genannt pCloud Drive. Damit lassen sich sämtliche Dateien wie gewohnt verwalten. Dies geschieht mithilfe des Client-Programms, das sich nahtlos in die Dateiumgebung des jeweiligen Betriebssystems integriert. Damit steht die gesamte pCloud-Umgebung wie gewohnt als virtuelles Laufwerk zur Verfügung. Per Rechtsklick können einzelne Ordner oder komplette Speichermedien in die pCloud eingebunden werden.

pCloud Drive integriert sich nahtlos ins OS des Rechners

Auch klar: Einzelne Dateien können per Link freigegeben werden genauso wie komplette Ordnerinhalte. Diese lassen sich zudem für die Offline-Nutzung markieren.

In Sachen Preismodell bietet pCloud drei Varianten: monatlich, jährlich oder Lifetime, und das entweder als Premium- oder Premium Plus-Variante. Der wesentliche Unterschied beider Varianten besteht in der Größe des verfügbaren Cloud-Speichers (500 GigaByte vs. 2 TeraByte) sowie des Download-Traffic (ebenfalls 500 GB vs. 2 TB). Alle anderen Funktionen sind in sämtlichen Preismodellen enthalten. Bemerkenswert ist vor allem das Lifetime-, also Lebenslang-Modell, bei dem man tatsächlich nur einmalig zahlt und sich dann nie wieder Gedanken um weitere mögliche Kosten machen muss.

Das unterscheidet pCloud von Dropbox und Co.

Auf den ersten Blick handelt es sich bei pCloud um einen weiteren Cloud-Anbieter, beim zweiten Hinsehen fallen allerdings diverse Unterschiede auf. So lassen sich sämtliche Daten bereits auf Client-Seite verschlüsseln. Dieser Dienst nennt sich pCloud Crypto und erlaubt das selektive Verschlüsseln einzelner Dateien oder kompletter Ordner. Damit muss nicht jedes einzelne Bild oder unkritische Dokumente verschlüsselt werden, sondern nur das, was wirklich vertraulich ist. Für dieses Mehr an Sicherheit wird ein Obolus fällig, auch hier wird unterschieden zwischen einem monatlichen, jährlichen und einem Lifetime-Plan.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Sehr fortschrittlich ist auch der Umgang mit Daten. So werden Funktionen wie die Versionierung und Wiederherstellung von Daten angeboten, genauso wie das Hochladen von Daten per URL. Praktisch ist obendrein die Möglichkeit, Daten von anderen Cloud-Diensten (Dropbox, OneDrive und Google Drive) sowie die Bilder von Facebook und Instagram in der pCloud-Umgebung zu sichern. Dieser Vorgang wird einmalig aktiviert und geschieht fortan automatisch.

Schick ist ebenfalls die Option, Videos und Musikstücke direkt aus der pCloud-Weboberfläche abspielen zu können. Dies erspart den Aufruf eines externen Programms und erlaubt sogar das Erstellen von Playlisten und anderen Dingen.

Mit pCloud lassen sich automatisiert Backups der Onlinedaten generieren

So wird aus pCloud eine sichere Cloud-Umgebung

Natürlich wird bei einem Cloud-Dienst wie pCloud die Sicherheit groß geschrieben. Dazu gehört neben dem bereits erwähnten Verschlüsselungsdienst pCloud Crypto auch eine Zwei-Wege-Authentifizierung. Dies geschieht ganz traditionell mithilfe eines Codes, der auf Anforderung via SMS zugestellt wird. Ein weiteres Sicherheitsfeature betrifft die mobilen Anwendungen: Hier kann ein persönlicher Zugangscode eingerichtet werden, der jedesmal beim Zugriff auf die pCloud-App angefordert wird. Für eine bestmögliche Sicherheit.

pCloud erhöht dank Zwei-Faktor-Authentifizierung deutlich

Disclaimer: Für das Verfassen und Veröffentlichen dieses Beitrags hat mich die pCloud AG beauftragt. Bei der Auswahl der Inhalte hatte ich völlig frei Hand.

Peter Ganten von Univention über Künstliche Intelligenz und Transparenz

Videoblog: „Die KI hält für uns Menschen großes Potential bereit“

Peter Ganten ist Gründer und Geschäftsführer der Univention GmbH aus Bremen, einem Software-Hersteller für Server- und Identitätsmanagement. Er ist bekennender Open-Source- und KI-Begeisteter, worüber ich mit ihm im folgenden Skype-Interview ausführlich gesprochen habe. Exklusive Einblicke in einen für Univention interessanten und aufstrebenden Bereich.

Herausforderung oder Risiko – das ist hier die KI-Frage

Über eines ist sich Herr Ganten völlig im Klaren: Die Künstliche Intelligenz mit all ihren Möglichkeiten und technischen Disziplinen hält ein unglaubliches Potential für uns Menschen und die Menschheit an sich bereit. Hier steht zum Beispiel die Medizin im Fokus, wo mithilfe der KI auf Patienten individuell zugeschnittene Medikamente möglich sind, aber auch die Früherkennung von Krankheiten verbessert werden kann. Zudem wird der Energiesektor von der KI maßgeblich profitieren genauso wie das Bildungswesen, das SchülerInnen und StudentInnen ganz neue Möglichkeiten an die Hand geben wird.

Gleichzeit können und werden neue KI-basierte Ansätze dafür sorgen, dass uns tendenziell monotone Aufgaben abgenommen werden. Die Rede ist vom Autonomen Fahren, das uns vom lästigen Steuern eines PKW befreit und wir stattdessen die Fahrt mit dem Auto für andere, sinnvollere Dinge nutzen können.

Aber, und auch da ist Herr Ganten ganz klar, dürfen wir nicht so naiv sein und glauben, dass die KI ausschließlich zum Wohle der Anwender genutzt werden kann. Daher sind wir alle dazu aufgefordert, richtig hinzusehen und die richtigen Fragen zu stellen, die sich rund um das Thema Künstliche Intelligenz ranken.

Ethik und Künstliche Intelligenz bedingen einander

So lautet eine der drängenden Fragen zum Thema KI aus Sicht von Herrn Ganten: Wie schützen wir uns bestmöglich vor Manipulationen? Dies kann zum Beispiel mithilfe von größtmöglicher Transparenz vermieden werden. Denn immer dann, wenn Algorithmen, Daten und andere Faktoren nicht öffentlich zugänglich sind, sind der Manipulation Tür und Tor geöffnet. So muss man sich ohne genaue Einblicke in KI-Anwendungen stets darauf verlassen, dass damit auch das gemacht wird, wozu die KI-Applikation eigentlich konzipiert wurde – und nicht etwa das Gegenteil davon.

Daher lautet eine der ethischen Forderungen: Die KI muss jederzeit öffentlich und nachprüfbar sein, und Unternehmen müssen sicher stellen, dass die vorhandenen Daten stets zum Wohle der Anwender und der Menschen eingesetzt werden.

Mit der Anwendung von KI nehmen die Risiken der „Erpressbarkeit“ zu

In einem seiner zahlreichen Vorträge spricht Herr Ganten von der „Erpressbarkeit der Anwender“, die im Kontext von KI eine ernstzunehmende Herausforderung darstellt. Gemeint sind damit Unternehmen und Organisationen, die auf die KI-Algorithmen von Cloud Service Providern zurückgreifen und dabei oft hochsensible Daten zu Verarbeitungszwecken bereitstellen.

So wird beispielsweise im Falle von Microsoft Office 365 jede Interaktion genauesten aufgezeichnet. Damit ist bekannt, welche Anwender mit welchen Applikationen arbeiten, welche Daten dabei mit anderen geteilt werden, und so fort. Das kann dazu führen, dass sich diese Daten mit anderen Daten in geeigneter Art und Weise verknüpfen lassen. So ließen sich beispielsweise die fachlichen Fertigkeiten bestimmter Anwender via LinkedIn an Recruiter oder andere Personen  transferieren, ohne dass der Arbeitgeber dieser Mitarbeiter Kenntnis davon erhält.

Und genau diese Möglichkeiten können letztlich dazu führen, dass Anbieter wie Microsoft neue Geschäftsmodelle entwickeln, die Unternehmen gegen Bezahlung garantieren, dass ihre in der Cloud bekannten Daten nicht für andere Zwecke missbraucht werden.

Open Source-Anwendungen stellen einen Ausweg aus dem Transparenzdilemma dar

Für ein Höchstmaß an Transparenz und Zuverlässigkeit entwickelt Univention sämtliche Lösungen als Open Source-Produkte, was den Nutzern diverse Vorteile bietet. So wissen die Kunden von Herrn Ganten jederzeit, was dort stattfindet, Programme lassen sich weiterentwickeln, und so fort. Das erhöht das Vertrauen in die Firma, was sich auf zahlreiche Bereiche positiv auswirkt. Dazu gehört das Thema Sicherheit, aber auch Innovationen werden damit gefördert, da quelloffene Systeme und Anwendungen relativ frei sind von vorgegebenen Update-Zyklen, proprietären Schnittstellen und vielem mehr.

Das Interview mit Peter Ganten in vollständiger Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma ChannelBuzz beauftragt.

Thomas Harrer von IBM über KI und Daten

Videoblog: „Die KI wird uns helfen, die Welt besser zu verstehen“

Dieses Interview habe ich auf den IBM Storage Strategy Days 2018 mit Thomas Harrer geführt. Darin spricht er über die Notwendigkeit guter und valider Daten für KI-Anwendungen und was das für aktuelle und künftige Storage-Systeme bedeutet.

Die Datenexplosion der nächsten Jahre und ihre Folgen

Eine der wesentlichen Grundvoraussetzungen für eine funktionierende Künstliche Intelligenz ist das Bereitstellen und Vorhalten der benötigten Daten, die meist in großer Zahl vorliegen. Daher ist die richtige Storage-Strategie unerlässlich, will man die KI bestmöglich einsetzen und nutzen.

Eine Besonderheit kommt hierbei den unstrukturierten Daten zu, die im Verhältnis zu den strukturierten Daten deutlich schneller wachsen. Diese erfordern sehr viel leistungsfähigere und größere Speichersysteme, da hier die Datenmengen exponentiell wachsen. Das lässt sich sehr gut anhand einiger markanter Zahlen verdeutlichen.

Bis zum Jahr 2000 wurden weltweit etwa 2 Exabyte an Daten gespeichert. Das betraf alles von Büchern über Filme und anderen Informationen. Umgerechnet entspricht das 2.000 Petabyte. Mittlerweile werden 14 Exabyte an Daten generiert – und zwar pro Tag, woraus sich eine weltweit gespeicherte Datenmenge am Jahresende ergibt, die sich auf unglaubliche 20 Zettabyte beläuft.  Das sind 1.000.000.000.000.000.000.000 Bytes, also eine Million mal 1 Million mal eine Million mal 1.000.

Und diese Entwicklung schreitet weiter voran. So schätzen Experten, dass bis zum Jahr 2025 die Menschheit in etwa 165 Zettabyte an Daten generieren wird. Und was das für die benötigten Speichersysteme bedeutet, kann man sich wohl in etwa ausmalen.

Bereiche wie die Medizin treiben große Datenmenge voran

Dank medizinischer Apparaturen wie Mikroskope, Röntgengeräte, etc. werden schon seit vielen Jahren kontinuierlich Daten gesammelt und gespeichert. Hinzu kommt jetzt die Möglichkeit, das menschliche Genom immer kostengünstiger und besser analysieren und speichern zu können, wofür „nur“ etwa 700 Megabyte Datenspeicher erforderlich sind.

Will man allerdings noch das Genom sämtlicher menschlicher Bakterien entschlüsseln und protokollieren, verhält sich das gleich völlig anders. Hier kommen ganz schnell Terabyte an Daten zusammen, und das pro Patient! Was aber gleichzeitig bedeutet, dass die Erkenntnisse daraus neue Therapieformen ermöglichen, mit denen sich Patienten immer individueller behandeln lassen.

Die Künstliche Intelligenz hilft, die Welt besser zu verstehen

Die KI soll und wird uns helfen, die Welt anhand von Daten besser zu verstehen. Als Beispiel seien hier Videobilder zu nennen, die Geschehnisse aufzeichnen, die Bilder liefern für bestimmte Lebenslagen, und so fort. Klar ist hierbei, dass so sehr schnell riesige Datenmengen entstehen, die obendrein mit den typischen prozeduralen Algorithmen gar nicht richtig erfasst und verstanden werden können.

Daher sind neue Konzepte und Ansätze erforderlich, die vor allem auf Basis unstrukturierter Daten die Informationen liefern, die wir brauchen. Dazu gehören beispielsweise neuronale Netze, die mit diesen Daten ganz anders umgehen können und auch deutlich lernfähiger sind als die herkömmlichen Rechenansätze. So hilft die KI selbstfahrenden Autos, Gegenstände auf der Fahrbahn besser und schneller zu erkennen, weil sie permanent dazu lernen. Damit können autonom betriebene Fahrzeuge in Echtzeit entscheiden, wann sie bremsen sollen oder einem Hindernis einfach nur ausweichen können.

Das und vieles mehr wird uns helfen, die Welt ein bisschen verständlicher zu machen und die Automatisierung vieler Abläufe voranzutreiben.

Das komplette Videointerview mit Thomas Harrer

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Ein weiteres Interview von den IBM Storage Strategy Days 2018

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

 

Cloud-Sync

So geht’s: das eigene virtuelle Home-Office

Wir alle werden jeden Tag ein Stückchen mobiler, nur unsere Arbeitsumgebung scheint sich dieser Veränderung nicht im selben Tempo anzupassen. Dabei lässt sich mit wenigen und einfachen Schritten das eigene virtuelle Home-Office verwirklichen. Dieser Beitrag zeigt, wie das funktioniert.

Die Vorteile des eigenen virtuellen Home-Office’ lassen sich mit einem Satz zusammenfassen: Man hat immer und von überall Zugriff auf seine Daten und Anwendungen, und das ganz sicher und zuverlässig. Vorausgesetzt, man berücksichtigt drei wichtige Aspekte, von denen im folgenden die Rede sein soll.

Aspekt #1: Der eigene zentrale, lokale Datenspeicher

Was im ersten Moment wie ein Widerspruch erscheint, entpuppt sich beim zweiten Hinsehen als die perfekte Mischung aus der herkömmlichen lokalen Datenspeicherung und einer cloud-basierten Datenumgebung. IT-Experten nennen das Private-Cloud-Strukturen und sehen darin die richtige Mixtur aus Datensicherheit und Datenkomfort.

Denn zum einen bleiben die schützenswerten Daten auf dem lokalen, meist in der Firma beheimateten Datenspeicher wie zum Beispiel einem NAS (Network Attached Storage; zu dt. Netzwerk-basierter Speicher). Damit behalten die Anwender und Eigentümer die volle Kontrolle über ihre Daten. Und zum anderen wird mithilfe geeigneter Tools und Techniken der Datenbestand in die Cloud „gespiegelt“, was den Zugriff auf die Daten von jedem Ort der Welt aus erlaubt.

Wichtig dabei ist vor allem, dass keine Paralellstrukturen aufgebaut werden, sondern die Basis des Ganzen eine lokale Ordnerstruktur darstellt, die dann in geeigneter Art und Weise in die Cloud migriert und synchronisiert werden. Damit müssen Daten nicht an zwei Orten (lokaler Speicher + Cloud) verwaltet werden, sondern es gibt nur einen Ursprung (das lokale Speichermedium), die in die Cloud gespiegelt werden.

Aspekt #2: Auf den richtigen Sync-Client kommt es an

Für die Migration und Synchronisation der lokalen Daten in und mit der Cloud-Umgebung ist selbstverständlich ein Software-Werkzeug vonnöten, dass die Anwender im besten Sinne bei der Datenspeicherung in die Cloud unterstützt. Dieser sogenannte Sync-Client sollte auf keinen Fall sämtliche Daten in die Cloud transferieren und damit allen zugänglich machen. Denn in einem Unternehmensverbund ist es von größter Wichtigkeit, dass einzelne Datensätze nur ganz bestimmten Anwendern zur Verfügung stehen.

Daher sollte das Tool individuell einstellbare Zugriffs- und Freigaberechte unterstützen, was die Sicherheit der Cloud-Kollaboration deutlich erhöht. Zudem sollte der Sync-Client über Admin-Kontroll-Funktionen und eine  Kalendersynchronisation verfügen. Solch ein Tool ist beispielsweise die Open-Source-Software Seafile, die Cloud-Anbieter wie luckycloud für die Synchronisation und Migration der Daten in die Cloud einsetzen.

Aspekt #3: Cloud-Backups richtig nutzen

Schon länger ist die Rede von der sogenannten 3-2-1-Backup-Regel, die auch in Zeiten von Cloud-Speichern zur Anwendung kommen sollte. Damit folgt man der Empfehlung zahlreicher IT-Experten, von seinen Daten regelmäßig drei Sicherheitskopien mithilfe zweier unterschiedlicher Speichertechniken anzufertigen, also zum Beispiel auf Festplatte und Magnetband. Davon wiederum wird eine Kopie mit dem eigenen Cloud-Speicher synchronisiert. Das hat den großen Vorteil, dass im Falle eines Daten- bzw. Datenspeicherverlustes stets eine Kopie unversehrt bleibt. Das macht einen Daten-GAU sehr, sehr unwahrscheinlich.

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Ralf Colbus über KI-taugliche Speichersysteme

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

Dieses Interview habe ich mit Ralf Colbus von IBM Deutschland anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über die Rolle von Strorage-Systemen im Kontext leistungshungriger KI-Anwendungen, wie sie immer häufiger zum Einsatz kommen. Und über ein Tool, das künftig Datenwissenschaftlern helfen soll, Daten zielgerichteter und schneller zu finden.

Storage-Lösungen für KI-Anwendungen müssen zahlreichen Anforderungen genügen

KI-Anwendungen durchlaufen verschiedene Phasen, und vor allem daran sollten sich die entsprechenden Storage-Systeme orientieren. So werden im ersten Schritt sämtliche Daten für die Lernphase gesammelt, und das aus ganz unterschiedlichen Quellen, was ein System erfordert, das sowohl mit strukturierten als auch unstrukturierten Datentypen klar kommt.

Darüber hinaus muss man sich die Frage stellen: Habe ich überhaupt genug Speicherplatz für all die Daten. Hierbei geht es also um Aspekte wie die passenden Schnittstellen und die richtigen  Speichersysteme wie NAS, die ich hierfür brauche.

Als Nächstes sind die Verarbeitung und die Präparation an der Reihe. Hierzu gehört vor allem das sogenannte Taggen, also das Versehen der Daten mit Metatags. Die helfen dem Data Scientist, Daten von Anfang besser zuordnen und kategorisieren zu können. Denn wie die Praxis zeigt, verschwenden Datenwissenschaftler Zweidrittel ihrer Arbeitszeit mit dem Suchen und Auffinden der richtigen Daten. Was angesichts ihrer Stundensätze ein kaum hinnehmbarer Zustand ist.

Sobald die Verschlagwortung der Daten abgeschlossen ist, wird dieser meist riesige Datensatz in den Rechner geladen, der sie verarbeiten soll, was zum einen enorme Rechenzeiten und zum anderen schnelle Datenverbindungen erfordert.

Aber auch das Thema Datenarchivierung spielt in diesem Kontext mitunter eine gewichtige Rolle, also muss das Speichersystem auch hierfür geeignet sein. Denkbar sind hier Fälle des Autonomen Fahrens, bei denen es beispielsweise zu einem Unfall kommt, dessen rechtliche Lage eindeutig geklärt werden muss. Hierbei dreht es sich zum Beispiel um Fragen nach den Algorithmen, mit deren Hilfe das KI-Modell erstellt wurde, etc.

 Mit „MetaOcean“ gibt IBM Datenwissenschaftlern das richtige Tool an die Hand

Hinter dem Projekt „MetaOcean“ verbirgt sich der Versuch seitens IBM, vor allem Data Scientists bei der Suche nach den richtigen Daten für ihr spezielles KI-Projekt bestmöglich zu unterstützen. Hiermit lassen sich Daten von vornherein mit den passenden Schlagwörter versehen, also taggen. Das Tool kann zudem Datendoubletten ausfindig machen, was den notwendigen Datenbestand von Anfang an auf ein Minimum reduziert. Darüber hinaus erfolgt das Verschlagworten von Daten teilweise automatisiert, sodass die KI-Wissenschaftler diese Arbeit nicht ausschließlich manuell erledigen müssen.

Das Gute daran: IBM wird das Projekt „MetaOcean“ im Laufe des Herbst in ein „richtiges“ Produkt überführen, das die Datenwissenschaftlern dieser Welt beim schnellen Auffinden der richtigen Daten unterstützen und so ihre kostbare Zeit schonen soll.

Das komplette Videointerview mit Ralf Colbus

Disclaimer: Für das Erstellen dieses Videoblogpost hat mit IBM Deutschland beauftragt. Bei der Ausgestaltung der Inhalte hatte ich freie Hand.

Poppy Szkiler von Quiet Mark im Interview

Videoblog: „Wir wollen für mehr Ruhe im Büro und Zuhause sorgen!“

Während der IFA 2018 durfte ich dieses Videointerview mit Poppy Szkiler führen. Sie ist die Gründerin und CEO der britischen Firma Quiet Mark, die es sich zum Ziel gesetzt hat, die Welt ein bisschen leiser und damit ein bisschen besser zu machen.

Mit dem Q-Logo die GeräuschverschmutzungQuiet Mark hat eine klare Vision: In mehr als 30 Produktkategorien sollen jeweils die geräuschärmsten und damit nervenschonendsten Geräte mit dem Q-Logo versehen werden. Dies signalisiert Kunden und Anwendern, dass es sich hierbei um Gerätschaften handelt, die man so gut wie gar nicht hört – zumindest im Vergleich mit Konkurrenzprodukten.

Diese Idee ist gar nicht so neu: Bereits Ende der 1960er gründete der Großvater von Poppy die Noise Abatement Society, die es sich damals wie heute zum Ziel gemacht hat, gesetzliche Regelungen rund um die Lärmbelästigung von Produkten einzuführen bzw. regelmäßig zu verbessern.

Mit der „Quiet Revolution“ gegen die Lärmbelästigung des Alltags

Mit all dem Lärm, der uns jeden Tag umgibt und der unsere Gesundheit, unseren Schlaf und andere Faktoren negativ beeinflusst, müssen sich Anwender nicht mehr zufrieden geben. Zumindest dann, wenn es nach Quiet Mark geht. Denn die permanente Lärmbelästigung lässt sich reduzieren, indem man beim Kauf des neuen Staubsaugers oder des Laubbläsers auf das Q-Logo achtet, dass signalisiert: „Hier hat der Hersteller bei der Konzeption des Produkts auf eine möglichst geringe Geräuschentwicklung geachtet“. Diesem Bestreben sieht sich Poppy Szkiler höchstpersönlich verpflichtet. Sie will damit für mehr Ruhe im Büro und Zuhause sorgen.

Mehr Stille für den Alltag, das ist die Vision von Quiet Mark

Die natürliche Stille, die uns eigentlich umgibt, verschwindet immer mehr. Dabei ist sie für uns und unser Wohlbefinden so immanent wichtig. Denn mehr Ruhe bedeutet mehr Regeneration unseres Biorhythmus. Und jeder kann seinen eigenen Teil dazu beitragen, und das nicht nur mithilfe der Produkte, die mit dem Q-Logo versehen sind.

Philips und andere Hersteller vertrauen Quiet Mark und dem Q-Logo

Mehr und mehr Hersteller setzen das Q-Logo gezielt als Verkaufsargument ihrer Produkte ein. So findet man den Aufkleber unter anderem auf Staubsaugern und Luftbefeuchtern des niederländischen Unternehmens Philips. Damit lassen sich mittlerweile die entsprechenden Gerätschaften besser verkaufen, da Anwender mehr und mehr nach lärmreduzierten Produkten Ausschau halten. Für alle also ein echter Mehrgewinn.

Das komplette Videointerview mit Poppy Szkiler und Philips

Disclaimer: Für diesen Videobeitrag hat mich die Firma Quiet Mark engagiert und bezahlt. Bei der Ausgestaltung der Fragen und des Videos hatte ich nahezu freie Hand.