Peter Wüst von NetApp Deutschland über Multi-Cloud und andere Trends

Videochat: „Multi-Cloud-fähige Container-Apps sind die Zukunft“

Während einer IDC-Veranstaltung zum Thema Cloud Computing habe ich dieses Interview mit Peter Wüst von NetApp Deutschland zum Thema Multi-Cloud und Container-Programmierung geführt. Darin spricht er über den kommenden Multi-Cloud-Trend und ob schon alle darauf vorbereitet sind.

NetApp-Kunden profitieren von Cloud Infrastructure und Cloud Data Services

Unter dem Betriff „Cloud Infrastructure“ subsumiert NetApp vor allem den Begriff „Konvergierte Infrastrukturen“, mit denen private Cloud-Umgebungen innerhalb des eigenen Rechenzentrums ermöglicht werden. Dort kommen zahlreiche Standards zum Einsatz, aber auch für den Einsatz von effizienten Workflows wird dort mithilfe von NetApp-Techniken gesorgt.

Auf der anderen Seite unterstützt NetApp mit seinen Cloud Data Services vor allem diejenigen Kunden, die auf Public-Cloud-Infrastrukturen nicht verzichten wollen. Hierfür werden Cloud-Techniken wie AWS (Amazon Web Services), Microsoft Azure und Google Cloud Plattform eingesetzt.

Nicht alle Unternehmen sind auf den Multi-Cloud-Boom vorbereitet

Wie die obige Grafik eindrucksvoll zeigt, werden Multi-Cloud-Installationen innerhalb der nächsten zwei Jahre drastisch zunehmen, und das aus gutem Grund. Schließlich stellen Multi-Cloud-Installationen das Beste der unterschiedlichen Cloud-Techniken zur Verfügung. Damit hat man mithilfe dedizierter Schnittstellen gleichzeitigen Zugriff auf mehrere Cloud-Services innerhalb des eigenen Rechenzentrums und der Public Cloud.

Doch leider sind noch nicht alle Beteiligten auf die Multi-Cloud-Transformation vorbereitet. Daher wird es als Nächstes die primäre Aufgabe sein, Prozesse und Workflows für die Multi-Cloud entsprechend vorzubereiten, und das sowohl technologisch als auch kaufmännisch.

Cloud-Anwendungen per Knopfdruck kann die richtige Lösung sein

Spricht man über das Thema Cloud-Know-how, gelangt man schnell zu der Erkenntnis, dass hier immer noch viel Aufklärungsarbeit vonnöten ist. Daher gehört zu den aktuellen Bestrebungen, mithilfe der richtigen Experten eine Art Service-Katalog aufzubauen, der per Mausklick die gewünschten Cloud-Dienste zur Verfügung stellt. Damit wird die Komplexität einer Cloud-Infrastruktur aufs Wesentliche reduziert, womit der Anwender mit einfachsten Mitteln genau die Funktionen installieren und nutzen kann, die er gerade benötigt.

Micro-Services, eines der zentralen Cloud-Trends

Mit Micro-Services beschäftigen sich derzeit eine Vielzahl an Cloud-Unternehmen und -Dienstleistern. Der Grund hierfür ist recht simpel: Immer da, wo neue Software entwickelt wird, sollte sie per Design Multi-Cloud-fähig sein. Aus diesem Grund sollten für die Entwicklung dieser neuen Anwendungen und Apps Container-relevante Techniken wie Kubernetes, Docker, etc. in Betracht gezogen werden. Damit lassen sich diese cloud-tauglichen Applikationen ganz einfach per Schnittstelle (API) innerhalb der Public oder Private Cloud einbinden..

Das Videointerview mit Peter Wüst von NetApp in voller Länge

Dr. Konstantin Greger (Tableau Software) über Künstliche Intelligenz

[Videochat] Konstantin Greger (Tableau Software) über Künstliche Intelligenz

Dieses Videointerview habe ich während eines IDC-KI-Events mit Dr. Konstantin Greger von Tableau Software geführt. Darin spricht er über den aktuellen Zustand der Künstlichen Intelligenz in Deutschland, welchen Beitrag Tableau dazu leistet und was noch nötig ist, um den Umstieg auf die „starke“ KI zu schaffen.

Was trägt die Firma Tableau zum Thema KI bei?

Für Konstantin Greger stehen dabei vor allem zwei Aspekte im Vordergrund: Der Einsatz von KI und Machine Learning in den Anwendungen von Tableau Software selbst und bei der Unterstützung von Unternehmen und wie diese Künstliche Intelligenz für ihre Zwecke nutzen können. Hierbei wird auch das Kerngeschäft von Tableau Software sichtbar: Wie bereite ich Daten so auf, damit ich sie besser verstehen und optimal einsetzen kann. Es geht also um die Abstrahierung komplexer Datensammlungen hin zu einem verständlichen Modell, das sich auf einfache Art und Weise nutzen lässt.

Wie ist es hierzulande um das Thema KI bestellt?

Laut Herrn Greger lässt sich das weite Feld der KI in Deutschland als sehr heterogen bezeichnen. So setzen es gerade kleinere Firmen schon recht agil ein, da sie den Nutzen der Künstlichen Intelligenz für sich erkannt haben und ihr Geschäftsmodell daran ausrichten.

Im Gegensatz dazu fällt es den größeren Firmen oftmals noch recht schwer, KI-Ansätze innerhalb der geplanten Projekte sinnvoll zu integrieren. Dort sind zwar innovative Ideen vorhanden, wie sich Künstliche Intelligenz und Machine Learning einsetzen ließen, aber gleichzeitig fehlt das Know-how, um diese Ideen sinnvoll umzusetzen. Denn oft folgen diese Firmen letztlich nur dem Drang, in Sachen KI etwas zu unternehmen, da der Mitbewerber in dieser Richtung auch etwas tut. Dabei wissen diese Unternehmen oft noch gar nicht, wie sich KI richtig einsetzen lässt.

An dieser Stelle kann Tableau Software ins Spiel kommen, da ein wesentliches Element der KI, nämlich die Daten, vollkommen außer acht gelassen werden. Und genau hierbei kann Tableau helfen, nämlich beim Identifizieren, Aufbereiten und Bewerten der vorhandenen Daten.

Was sind die größten Hürden beim Umstieg von der „schwachen“ zur „starken“ KI?

Die Hürden beim Umstieg von der „schwachen“ zur „starken“ KI lassen sich als äußert vielfältig beschreiben. Das betrifft zum einen das bereits erwähnte Thema Daten. Denn für eine starke KI sind viele „gute“ und vertrauenswürdige Daten erforderlich, da ansonsten die korrespondierenden KI-Dienste und -Lösungen nicht glaubwürdig sind. Darüber hinaus fehlt es an vielen Stellen am richtigen Know-how, also an KI-Experten, die das Vorantreiben der starken KI überhaupt erst ermöglichen können.

Das Interview mit Konstantin Greger in voller Länge

 

Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

[Videochat] Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

Während eines IDC-Events, auf dem eine Studie zum Thema KI in Deutschland vorgestellt wurde, habe ich dieses Interview mit Jürgen Wirtgen von Microsoft geführt. Darin spricht er über den Beitrag seitens Microsoft in Sachen KI, wie sich Daten für KI-Projekte bestmöglich nutzen lassen und was Microsoft unter der Demokratisierung der Künstlichen Intelligenz versteht.

Was leistet Microsoft im Kontext von KI?

Die Künstliche Intelligenz sieht Herr Wirtgen als eine Art übergeordneten Schirm, der sich bei Microsoft über alle Bereiche spannt. Dazu gehört beispielsweise der Bereich Produktivität (Office 365, etc.), aber auch ein eigens hierfür geschaffener Geschäftsbereich zu den Themen Cloud und KI existiert bei Microsoft. Hierfür stellt Redmond zahlreiche Entwicklungsressourcen zur Verfügung, mit deren Hilfe neue KI-Lösungen und -Dienste entstehen sollen. Das betrifft sowohl die Grundlagenforschung als auch den realen Nutzen von KI im Produktionsumfeld.

Darüber hinaus unterstützt Microsoft seine Kunden in Sachen Künstliche Intelligenz. Das reicht von der Entwicklung eines eigenen Bots bis hin zum Einsatz kognitiver Dienste oder der Entwicklung neuer Geschäftsmodelle, in denen die Künstliche Intelligenz eine entsprechende Rolle spielt.

Wie lassen sich Daten für die KI bestmöglich nutzen?

Hierzu muss erst einmal das Geschäftsmodell entwickelt und verstanden werden. Denn erst dann kann man herausfinden, welche Daten ich besitze und welche davon für mein spezielles KI-Projekt wichtig und erforderlich sind. In manchen Fällen sind zusätzliche Daten notwendig, sodass beispielswiese der Einsatz von Sensoren in Erwägung gezogen werden sollte. Diese Datengewinnung ist dann ebenfalls wichtiger Teil des Gesamtprojekts.

Müßig zu erwähnen, dass beim Sammeln und Speichern von Daten jederzeit die höchsten Sicherheitsstandards berücksichtigt werden sollten. Alleine schon aus Gründen des Datenschutzes und der Datensicherheit.

Was versteht Microsoft unter der Demokratisierung von KI?

Viele Menschen verbinden mit der Künstlichen Intelligenz vor allem wissenschaftliche Anwendungen, hinter denen sich komplexe und komplizierte Modelle befinden. Microsoft möchte erreichen, dass KI-Anwendungen von einer breiten Masse genutzt werden können. Hierfür sind Dienste erforderlich, die sich trivial nutzen und genauso einfach in bestehende Anwendungen einbinden lassen.

Hierbei kommen unter anderem die 30.000 Business Partner von Microsoft (Entwickler, Softwarehäuser, etc.) ins Spiel, die in die Lage versetzt werden sollen, ihre Software mit KI-Elementen anzureichern. Aber auch andere Bevölkerungsschichten sollen mithilfe von geeigneten Ausbildungsmaßnahmen fit gemacht werden für das Grundverständnis von KI. Denn nur so kann eine echte Demokratisierung der Künstlichen Intelligenz gelingen – und damit Ängste und Vorbehalte abgebaut werden.

Das Interview mit Jürgen Wirtgen in voller Länge

Weiterführende Informationen zum Thema Microsoft und KI

IDC-Event-Rückschau: Was man über DevOps wissen sollte

Es gibt so Zeiten, da springt man von Event zu Event, und genau so war es bei mir die letzten Tage. Freitag vor einer Woche bei IDC zum Thema DSGVO, dann am Mittwoch beim Fortinet-Pressefrühstück zum Thema Sicherheit, tja, und gestern war ich wieder bei IDC. Das Thema dort: DevOps, mit dem ich mich gerade ein wenig näher beschäftige. Eines neuen Kunden wegen.

httpss://twitter.com/mhuelskoetter/status/920913568438063104

So begab ich mich also ins schicke Rilano-Hotel zu München, um mich zum Thema DevOps auf den neuesten Stand zu bringen. Hierzu hatte IDC diverse Sprecher diverser Firmen eingeladen. Namentlich waren das IBM, Microsoft, Puppet, Redhat und T-Systems. Aber der Reihe nach.

Den Anfang machte der Gastgeber selbst, also die Firma IDC. In seinem Vortrag sprach das Marktforschungsunternehmen über den aktuellen DevOps-Zustand in großen Unternehmen wie Airbus, Google, Disney, Netflix & Co. Laut zugehöriger Studie ist diesen Unternehmen die Sinnhaftigkeit einer funktionierenden DevOps-Organisation durchaus bewusst.

httpss://twitter.com/mhuelskoetter/status/920915449231151104

Fragt man dieselben Unternehmen aber nach dem aktuellen Zustand in Sachen DevOps-Implementierung, so bleibt festzuhalten: Die allermeisten Firmen haben noch einen weiten Weg vor sich.

httpss://twitter.com/mhuelskoetter/status/920917129964195840

httpss://twitter.com/mhuelskoetter/status/920918036852498432

Das hat sicherlich viele Gründe, die auf der nächsten Folie schön zusammengefasst sind. Denn für eine funktionierende DevOps-Unternehmenskultur muss in vielen Teilen der Firmen komplett umgedacht werden. Sei es in den Führungsetagen, bei den IT-Verantwortlichen oder bei den Mitarbeitern selbst.

httpss://twitter.com/mhuelskoetter/status/920919471396663296

Doch was sind die maßgeblichen Gründe, die derzeit noch viele Unternehmen von der Installation einer DevOps-Orga abhalten? Nun, da sind sicherlich zwei zu nennen: Die Bereitschaft, Fehler zuzulassen und die Art und Weise, miteinander zu kommunizieren.

httpss://twitter.com/mhuelskoetter/status/920920758141976576

httpss://twitter.com/mhuelskoetter/status/920933911802281985

httpss://twitter.com/mhuelskoetter/status/920923140875833344

Aber auch in technischer Hinsicht gilt es Hürden zu überwinden. Dazu gehört beispielsweise das Einführen von automatisierten Prozessen, Infrastrukturen und dem automatisierten Bereitstellen von Prozessen.

httpss://twitter.com/mhuelskoetter/status/920924497712119809

Das zeigt sehr gut, welche Hindernisse zu überwinden sind bei der Implementierung einer funktionierenden DevOps-Organisation. Aber, bei allem Aufwand, die Ergebnisse können durchaus überzeugend sein.

httpss://twitter.com/mhuelskoetter/status/920926323652034560

httpss://twitter.com/mhuelskoetter/status/920928080180506624

httpss://twitter.com/mhuelskoetter/status/920931864113762305

Einen etwas technischeren Blick auf DevOps warf Michael Brokmann von IBM, der zeigte, wie „Big Blue“ das Thema betrachtet. Daraus ergeben sich durchaus interessante Aspekte.

httpss://twitter.com/mhuelskoetter/status/920944648285245440

Einer seiner Thesen: Die großen Applikationsinovationen finden derzeit vor allem im Bereich Frontend-Applikationen statt, weniger im transaktionalen Umfeld.

httpss://twitter.com/mhuelskoetter/status/920945531798609920

In der Hoffnung, dass keine Tierschützer anwesend sind, holte Kollege Brokmann die Folie zum Thema „Wer nicht performt, fliegt raus!“ auf die zwei Leinwände.

httpss://twitter.com/mhuelskoetter/status/920946884738469893

Und klar, dass ein kurze Werbeeinblendung, sprich das IBM-Portfolio zum Thema DevOps, nicht fehlen durfte.

httpss://twitter.com/mhuelskoetter/status/920948988265803776

Auf IBM folgte dann Microsoft, und dieser Vortrag begann mit einem Zitat, das aus der Feder des Microsoft`schen DevOps-Guru Donovan Brown stammt.

httpss://twitter.com/mhuelskoetter/status/920951639959375874

Die wensentliche Aussage der Microsoft-DevOps-Session lässt sich gut in zwei Tweets zusammenfassen: Der Weg zu einer funktionierenden DevOps-Strategie ist lang und steinig, aber am Ende lohnt es dann doch, wie genügend Beispiele zeigen.

httpss://twitter.com/mhuelskoetter/status/920952462504284161

httpss://twitter.com/mhuelskoetter/status/920954417477750784

Und natürlich hat Redmond das passende Offering, sprich die passenden Tools in Sachen DevOps im Portfolio.

httpss://twitter.com/mhuelskoetter/status/920956215810764800

DSGVO-Studie: Lehrreiches IDC-Event zum Thema Datenschutz

Eigentlich wollte ich Freitag Morgen mit dem werten Karl Fröhlich von speicherguide.de via Skype ein Treffen vereinbaren. Am Ende des kurzen Chats stand die Einsicht, dass ich mich spontan ins Münchner Hotel „Le Meridien“ begeben sollte. Dort fand nämlich eine IDC-Veranstaltung zum Thema EU-DSGVO statt. Ein sehr spannendes Thema, in dessen Kontext IDC eine aktuelle Studie vorstellen wollte.

httpss://twitter.com/mhuelskoetter/status/918752209373925376

Und ich habe es nicht bereut, alleine schon wegen des sehr informativen und interaktiven Charakters der Veranstaltung. So wurden zunächst die Ergebnisse der Auguststudie von IDC zum Thema EU-DSGVO vorgestellt, anschließend nahmen drei Vertreter namhafter Firmen auf Hockern Platz, um sich den Fragen der IDC-Moderatorin und der anwesenden KollegInnen zu stellen.

Erkenntnis: Viele Firmen sind in Sachen DSGVO deutlich in Verzug

Das Gute an solch einer aktuellen Studie (Erhebungszeitraum: August 2017) ist deren Relevanz, denn man weiß sofort: Wenn im Rahmen der Umfrage 44 Prozent aller Probanden angaben, auf die EU-DSGVO noch nicht vorbereitet zu sein, dann wirft das ein eher erschütterndes Bild auf den aktuellen Status Quo der befragten Firmen. Und das waren genau 251 Unternehmen mit mehr als 20 Mitarbeitern, über alle Branchen hinweg.

httpss://twitter.com/mhuelskoetter/status/918753041150631936

Damit befinden sich 110 Unternehmen rund neun Monate im Verzug, was das Ergreifen der notwendigen Maßnahmen in Sachen Datenschutz betrifft. Dabei wird bereits seit Mai 2016 eine zweijährige Übergangsfrist gewährt, und trotzdem sind gerade einmal 15 Prozent (oder 38 von 251 der befragten Unternehmen) zu 100 Prozent auf die neue Datenschutzgrundverordnung vorbereitet.

Doch was ist für das hundertprozentige Erfüllen aller DSGVO-Kriterien überhaupt erforderlich? Nun, das betrifft vor allem vier Bereiche:

Organisation: Bestellung eines Datenschutzbeauftragten

Prozesse: Benachrichtigung bei Datenschutzverletzungen innerhalb von 72 Stunden

Technik: Berücksichtigung von „Privacy by Design“ und „Privacy by Default“

Recht: Gesonderte Einwilligung pro Verwendungszweck

Sieht man sich dazu die Ergebnisse der Studie an, fallen vor allem folgende Dinge auf:

„Datenschutzbeauftragter?! Damit warten wir noch ein bisschen…“

Gerade einmal 17 Prozent aller befragten Unternehmen beschäftigen (Stand heute) einen externen bzw. internen Datenschutzbeauftragten. Und das, obwohl sie allesamt zu der Bestellung eines Verantwortlichen verpflichtet wären, was sich aus der Größe der Studienteilnehmer ergibt.

httpss://twitter.com/mhuelskoetter/status/918755221865730048

„Stand der Technik?! Nun, wo sollen wir denn da anfangen?!“

Die Vielzahl an technischen Voraussetzungen in Sachen DSGVO ist derart unüberschaubar, dass wohl alleine wegen dieser enormen Komplexität zahlreiche Unternehmen wie das Kaninchen vor der Schlange stehen und mit weit geöffneten Augen starr vor Schreck ob dieser Herausforderungen im Nichtstun verharren.

httpss://twitter.com/mhuelskoetter/status/918760285170749440

„Wie sollen wir all diese notwendigen Maßnahmen umsetzen können?!“

Und sieht man sich die folgende Folie an, bekommt man eine leise Ahnung davon, warum so viele Unternehmen im DSGVO-Zeitplan ein Dreiviertel Jahr und mehr hinterher hinken. So gaben die Befragten an, vor allem hinsichtlich des Umbaus der IT-Systeme, hinsichtlich der Klassifizierung von Daten und bei der Schulung von Mitarbeitern an ihre Grenzen zu stoßen.

httpss://twitter.com/mhuelskoetter/status/918762493253750784

„Verschlüsselung?! Ja, da sind wir gerade dran…“

Doch die Studie offenbart noch weitere Schwächen in der aktuellen Umsetzung vieler Unternehmen in Sachen DSGVO. So sind zahlreiche Firmen beim Thema „Privacy by Design“ und „Privacy by Default“ deutlich hinter dem Zeitplan zurück. Es gaben mehr als 30 Prozent an, ihre Daten erst in den nächsten 12 Monaten DSGVO-konform verschlüsseln zu können, und das sowohl auf Datenbank- als auch auf Speicherebene. Zudem stellt die zweckgebundene Datenverarbeitung viele Unternehmen vor Probleme: Hier sind es fast die Hälfte, die noch keine entsprechenden Maßnahmen ergriffen haben.

Zahlreiche Rückstände in Sachen DSGVO

Exkurs: „Privacy by Design“ und „Privacy by Default“

Zwei Schlagworte, eine Forderung: Im Rahmen des europäischen Datenschutzes, der in der DSGVO geregelt ist, müssen alle betroffenen Firmen dafür sorgen, dass die zum Einsatz kommende Hard- und Software den hohen datenschutzrechtlichen Anforderungen genügt. Das bedeutet konkret, das die Unternehmenstechnik zum einen die Grundsätze der DSGVO vollständig unterstützen muss („by Design“) und zum anderen datenschutzkonforme Grundeinstellungen aufweist („by Default“).

Teil zwei der IDC-Veranstaltung: Fragen und Antworten

Im Anschluss an die Vorstellung der Studie wurden fünf Hocker aufgestellt, auf denen drei Vertreter namhafter Unternehmen Platz nahmen, die allesamt eine Menge zum Thema (Daten)Sicherheit zu sagen haben. Namentlich waren das Hans-Peter Bauer von McAfee, Tommy Grosche von Fortinet und Milad Aslaner von Microsoft. Ergänzt wurde die Runde von Matthias Zacher als IDC-Vertreter und Lynn-Kristin Thorenz, ebenfalls IDC, die für die Moderation zuständig war.

httpss://twitter.com/mhuelskoetter/status/918765799317307392

httpss://twitter.com/mhuelskoetter/status/918773663494737920