Security-Trends 2019

Das sind die wichtigsten Sicherheitstrends für 2019

Der Datenklau von zahlreichen Prominenten und Politikern durch einen 20-jährigen Hacker zeigt zweierlei: Dass es erstens mit dem Datenschutz und der Datensicherheit hierzulande immer noch recht trübe aussieht. Und dass zweitens viele Anwender für das Thema IT-Security nach wie vor nicht ausreichend sensibilisiert scheinen.

Daher folgt an dieser Stelle meine bescheidene Einschätzung, welche Sicherheitsthemen in diesem Jahr ganz weit oben stehen werden auf den Agenden der CSO und Security-Experten dieser Welt. Diese Liste erhebt keinen Anspruch auf Vollständigkeit.

Trend #1: Neue und bekannte Kennwort-Alternativen

Wie das eingangs erwähnte Beispiel des 20-jährigen Hackers zeigt, gehen vor allem Online-Anwender immer noch viel zu sorglos mit dem Schutz ihrer Webkonten um. Für viele ist es offenkundig einfach zu lästig, sich zumindest ein sicheres Kennwort auszudenken und anzuwenden. Dabei gibt es doch schon heute recht einfache Mittel, wie zum Beispiel die Zwei-Faktor-Authentifizierung. Daher wird ein wichtiger Trend das Implementieren neuer Mechanismen sein, mit denen sich Facebook, Twitter und Co. einfacher und zuverlässiger als bisher gegen Hacker absichern lassen.

Trend #2: Mit IoT-Botnetzen nach Cybergold schürfen

Kryptowährungen sind nicht nur für Erpressungsversuche à la Locky und Co. von großem Interesse für Hacker. Und was macht man, um an dieses virtuelle Geld mit geringem Aufwand heranzukommen? Genau, man lässt es sich von anderen für sich scheffeln, also ganz wie im richtigen Leben. Da gleichzeitig unsichere IoT-Geräte wie Pilze aus dem Boden schießen, werden sich findige Hacker genau diesen Umstand zu nutze machen. Und so werden IoT-Botnetze wie die Schwammerl (bayerisch für: Pilze) sprießen, um auf diesem illegalen Weg die Rechenleistung vieler Onlinerechner für das Schürfen von Cybergold zu missbrauchen. Daher wird der Absicherung von IoT-Gerätschaften und -Netzwerken eine wichtige Rolle zukommen. Was sich als echte Herkulesaufgabe herausstellen wird.

Trend #3: Online-Käufer geraten zunehmend in das Visier von Hackern

Dass das Onlineshoppen bei Amazon und Co. schon lange kein Trend mehr ist, hat sich ja herumgesprochen. Auch bei Hackern, die diesen Umstand für sich zunutze machen, indem sie das Internet nach unsicheren Onlineshops durchforsten, die beispielsweise eine Schwäche beim Kaufprozess aufweisen. Wenn auf solchen Seiten kontinuierlich dutzende von Transaktionen abgewickelt werden, bei denen Anwender ihre Zahlungsdaten hinterlassen, können diese one den richtigen Schutz relativ leicht abgefangen und zu unrechtmäßigen Zwecken genutzt werden. Das Beispiel Ticketmaster vom letzten Jahr hat gezeigt, wie einfach das manchmal ist.

Trend #4: Soundlogger werden Keylogger ablösen

Keylogger kennt man ja. Das sind diese kleinen, fiesen Programme, die Hacker auf einem Rechner installieren, um dann sämtliche Tastasturaktivitäten aufzeichnen zu können. Auf diesem Weg lassen sich allerlei Daten wie Kennwörter, Kreditkartennummer und anderes recht einfach stehlen. Allerdings weist mittlerweile nahezu jedes Anti-Malware-Programm ein Anti-Keylogger-Tool auf, sodass Hacker immer häufiger mit einer Variante aufwarten, die sich Soundlogger nennt. Damit können die Tippgeräusche der Tastatur aufgezeichnet und somit die zugehörigen Daten mittels Anschlagsfrequenz und Lautstärke identifiziert werden. Und das abzuwehren, ist nicht mehr ganz so trivial.

Trend #5: KI modifiziert bestehende Malware selbstständig

Die Künstliche Intelligenz ermöglicht viele nützliche Anwendungen. Allerdings kennen auch Hacker das Potenzial der zugrundeliegenden Technologien und werden sich diese vermehrt zunutze machen. So ist es beispielsweise teilweise schon möglich, dass sich Malware unter Zuhilfenahme von KI-Algorithmen eigenständig und in Echtzeit verändert, was die Identifikation und Eliminierung von schadhafter Software enorm erschwert.

Denkbar sind aber auch andere Ansätze, wie dies IBM im letzten Jahr erfolgreich demonstrieren konnte. Unter dem Namen „Deeplocker“ hat „Big Blue“ eine Schadsoftware entwickelt, die mithilfe von Wannacry über ein Firmennetzwerk verbreitet werden konnte. Das Perfide dabei: Erst, wenn eine bestimmte Bedingung wie die Anwesenheit eines Anwenders erfüllt wurde, hat sich Deeplocker“ eigenständig aktiviert. Auch hier kam die KI zum Einsatz.

Trend #6: Verschlüsselte Cloud-Infrastrukturen

Die DSGVO macht auch vor Cloud-Infrastrukturen halt. Leider herrscht unter vielen IT-Entscheidern immer noch der Irrglaube vor, die Daten auf ihrer Cloud-Plattform – und sei es die eigene, also private Cloud-Umgebung – sind dort vollkommen sicher. Dass dem nicht so ist, liegt eigentlich auf der Hand. Eigentlich. Und so kommt der Absicherung von Cloud-Daten eine immer wichtigere Rolle bei. Unternehmen wie Uniscon, eperi und Delphix haben hierfür die passenden Lösungsansätze in petto, wenn es um das Verschlüsseln und Verschleiern von sensiblen Daten auf Cloud-Plattformen geht.

Trend #7: DSGVO verstärkt im Fokus der Datenschützer

Ein gutes halbes Jahr ist es gerade einmal her, dass die Datenschutzgrundverordnung (DSGVO) in Kraft getreten ist. Bisher wurden meines Wissens bis auf eine Ausnahme noch keine gravierenden Verstöße gemeldet und drastisch sanktioniert. Allerdings werden die Datenschützer dieser Republik die DSGVO weiterhin ernst nehmen, sodass damit zu rechnen ist, dass es nicht bei dem Fall „Knuddels“ bleiben wird. Daher sollten Unternehmen und Unternehmer das Thema Datenschutz weiterhin sehr ernst nehmen und ihre DSGVO-Hausaufgaben machen. Das Ganze zu ignorieren, wird kein probates Mittel sein.

Bilder des Jahres 2018

Das alles fand 2018 auf dem IT-techBlog statt

Der Jahreswechsel ist stets ein beliebter Anlass, Rückschau abzuhalten. Daher folgt an dieser Stelle ein Rückblick auf mein vergangenes Jahr aus IT-techBlog-Sicht. Viel Spaß beim Schmökern.

Januar 2018: IBM-Cloud und ein Intel-CPU-GAU

Vor ungefähr einem Jahr beherrschte ein ziemlicher Intel-Aufreger die Nachrichten und Gazetten, indem schlaue Menschen zwei CPU-Schwachstellen aufgetan haben. Unter den Bezeichnungen „Spectre“ und „Meltdown“ sollte es damit möglich sein, eine Besonderheit vieler Prozessoren zu kriminellen Zwecken auszunutzen.

Für alle, die auf der Suche nach Infos rund um die bekannten Dateisysteme FAT und NTFS sind, habe ich die wichtigsten Fakten in einem Blogbeitrag zusammengetragen.

Und gegen Ende des Monats war ich auf einer IBM-Presseveranstaltung, wo ich zwei Interviews führen durfte zum Thema IBM-Cloud. Yasser Eissa sprach unter anderem über die DSGVO und Datensicherheit, und Patrick Palacin von der Firma Teleclinic verriet mir, was die IBM-Cloud mit der Digitalisierung der Ärzte-Branche zu tun hat.

Februar 2018: Künstliche Intelligenz, mit TenAsys auf der Embedded World

Der zweite Monat des vergangenen Jahres brachte mich intensiv mit dem Thema Künstliche Intelligenz (KI) zusammen. So wollte ich wissen, was die KI mit uns Menschen zu tun hat, wieviel Rechenleistung für KI-Anwendungen erforderlich ist, in welcher Beziehung der Turing Test mit der KI steht und was meine Leser über Machine Learning wissen sollten.

Darüber hinaus warfen die IBM Spectrum Scale Strategy Days erste Schatten voraus, und für meinen Kunden TenAsys war ich in Nürnberg auf der Embedded World.

März 2018: IBM Spectrum Scale Strategy Days, IoT und Machine Learning

Wie im Februar angekündigt, war ich im März für IBM auf deren Spectrum Scale Strategy Days. Im weitesten Sinne drehte sich dort alles rund um das Thema virtualisierte Speicherlandschaften, und genau dazu habe ich Videointerviews samt Blogbeiträgen verfasst.

So habe ich mit Dirk Thometzek von Rohde & Schwarz über deren Spycer-Boxen gesprochen, die auf Basis der IBM Spectrum Scale-Technik Fernsehanstalten und andere Anbieter von Videoinhalten beim ruckel- und störungsfreien Ausstrahlen von Bewegtbildern unterstützen. Aber auch ein IBM-Kunde kam zu Wort, nämlich Alf Wachsmann vom Max Delbrück Centrum für molekulare Medizin, der sich ganz begeistert zeigte von der Veranstaltung – und von Spectrum Scale.

Neben dieser Highend-IBM-Technik hat mich auch das Thema Internet of Things (IoT) im März beschäftigt. So war ich auf einer IDC-Veranstaltung, auf der eine groß angelegte Studie zum Thema IoT veröffentlicht wurde. Dazu habe ich Mark Alexander Schulte, der sich für die Befragung der IT-Entscheider verantwortlich zeichnete, vor der Videokamera befragt. 

Doch nicht nur mit ihm, sondern auch mit Oliver Edinger von der Software AG habe ich über das Internet der Dinge im Allgemeinen und deren Cumulocity-Plattform im Speziellen gesprochen.

Natürlich durfte auch die Künstliche Intelligenz nicht fehlen, und so habe ich im März den zweiten Teil des Machine Learning-Specials verfasst und zudem darüber gebloggt, wie die Europäische Union unseren Kontinent fit für die KI machen will.

April 2018: IBM Spectrum Scale, Hannover-Messe-Vorschau und IBM Mainframe-Roadshow

Die im März stattgefundene IBM Spectrum Scale-Veranstaltung beschäftigte mich auch noch im April, und zwar in Form zweier weiterer Videointerviews. Das eine habe ich mit Peter Ratuschni von der Deutschen Nationalbibliothek geführt, der vor allem wegen der wichtigen Infos und der guten Gespräche auf dem IBM-Event zugegen war. Und im anderen sprach Piyush Chaudhary von IBM über die Kombination Spectrum Scale/Hadoop.

Im April fand auch die Hannover-Messe statt, und so kam ich nicht umhin, erste News darüber online zu stellen. So kündigte die Software AG diverse Themen an, die das Unternehmen auf der Industriemesse zeigen wollte. Aber auch Dassault Systèmes und ihre geplanten Neuheiten rund um das Thema Simulation war mir einen Blogbeitrag wert.

Für IBM war ich im April gleich zweimal unterwegs: Zunächst ging es nach Frankfurt, einer Mainframe-Roadshow wegen, und dann fuhr ich auf die Hannover-Messe (dazu gibt es im Mai-Rückblick mehr Infos). Das Mainframe-Event stellte neue Z-Maschinen in den Vordergrund, genauer gesagt die IBM z14 ZR1 sowie den Linux-Server IBM LinuxOne Rockhopper II. Auf der Veranstaltung habe ich vier Interviews geführt, allesamt mit IBM-Experten. Das waren konkret:

Wer noch mehr Infos dazu haben möchte, dem empfehle ich den ersten und den zweiten Teil meiner ausführlichen Z-Roadshow-Rückschau.

Mai 2018: IBM auf der Hannover-Messe 2018 und ein IDC-KI-Event

Wie bereits angekündigt, folgte im Mai meine Videoblogserie für IBM, die auf der Hannover-Messe mit einem großen eigenen Stand waren. Dort durfte ich zahlreiche Interviews führen. Im einzelnen waren das:

Daneben habe ich noch auf der Messe mit Florian Jurecka von Dassault Systèmes über das Thema Digital Twins zu Simulationszwecken gesprochen. Auch ein sehr spannendes Thema.

Im Mai fand dann wieder einer der zahlreichen IDC-Presseevents statt, dieses Mal zum Thema Künstliche Intelligenz. Dort durfte ich mit Jürgen Wirtgen über die KI aus Microsoft-Sicht sprechen und mit Konstantin Greger von Tableau Software ebenfalls ein Videogespräch führen.

Juni 2018: Software-AG IoT-Roadshow, Lenovo-Interviews und CEBIT 2018

Zwar begann die IoT-Roadshow der Software AG bereits im Mai, die Videointerviews samt der zugehörigen Blogbeiträge habe ich aber erst im Juni veröffentlicht. Im einzelnen waren das:

Zudem habe ich noch eine ganz persönliche Rückschau der IoT Innovation Tour 2018 veröffentlicht, mit zahlreichen Tweets und weiteren Interviews.

Zum ersten – und leider gleichzeitig letzten – Mal fand die renovierte und reformierte CEBIT im Juni statt, und klar, dass ich dabei war. Wenn ich gewusst hätte, dass es die letzte Veranstaltung ihrer Art war, wäre ich noch ein bisschen länger geblieben. So sind es genau drei Interviews geworden, die die „Ehre“ hatten, meine finalen CEBIT-Videogespräche auf dem IT-techBlog zu sein.

Das eine habe ich mit Matthias Hartmann, dem deutschen Geschäftsführer von IBM, über die digitale Transformation geführt. Das zweite brachte mich mit dem werten Gero Dieckmann von der SVA GmbH zusammen, der in gewohnt souveräner Art über den CEBIT-Auftritt seiner Firma referierte. Die SVA wäre sehr gerne ein weiteres Mal auf der runderneuerten IT-Messe gewesen. Tja, und das dritte folgt dann im Juni-Rückblick.

Juli 2018: CEBIT, TRIAX A/S und Lenovo auf der ISC 18

Im Juni veröffentlichte ich das letzte von insgesamt drei CEBIT-Interviews, und zwar das mit Dominic Gaspary von der Volkswagen AG über VW We Experience. Darin spricht er über Machine Learning-Algorithmen, die verstärkt in Autos zum Einsatz kommen sollen, und was das alles mit IBM zu tun hat.

Für die Firma TRIAX war ich Anfang Juni in Köln auf einer großen Messe rund um das Thema Videolösungen. Dort zeigte das dänische Unternehmen, was es in diesem Kontext alles in petto hat. Herausgekommen sind folgende Videogespräche:

Für Lenovo war ich ebenfalls wieder einmal unterwegs, und zwar auf der International Supercomputing Conference 2018. Dort habe ich insgesamt vier Interviews geführt:

Daneben war ich erneut auf einem IDC-Event, auf dem eine Studie zum Thema IT-Sicherheit vorgestellt wurde. Im Anschluss an die Präsentationen habe ich wie immer Interviews geführt, und zwar mit Udo Schneider von Trend Micro über die aktuelle IT-Sicherheitslage sowie mit Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen.

Und klar, dass das Thema Künstliche Intelligenz nicht außen vor blieb im Juli. So durfte ich mit Dagmar Schuller vom Startup-Unternehmen audEERING über deren Sprachsoftware sprechen, mit der Audio-Emotionen „sichtbar“ gemacht werden können.

August 2018: audEERING, Cloud-Daten verschlüsseln und Lenovo auf der IFA

Der August ist zwar traditionell mein Urlaubsmonat, trotzdem war ich ein wenig aktiv. So ging der zweite Teil des Videointerviews mit Dagmar Schuller von audEERING online, in dem sie über ihre Software-Lösungen openSMILE und sensAI spricht.

Darüber hinaus habe ich für luckycloud aus Berlin aufgeschrieben, wie man effizient seine Cloud-Daten verschlüsselt. Und finally war ich mit Lenovo auf der IFA in Berlin, wo ich all die neuen Notebooks begutachten durfte.

September 2018: IFA-Interviews, Android-Handy, SuperMUC-NG, IDC-Cloud-Event und IBM Storage Strategy Days

Der September war ziemlich voll, so rückblickend betrachtet. Er begann damit, dass ich zwei IFA-Interviews nachreichte, und zwar das mit Mirco Krebs von Lenovo über KI in Notebooks sowie mein Gespräch mit Poppy Szkiler von der britischen Firma Quiet Mark zum Thema geräuscharme Gerätschaften.

Apropos IFA: Dort hatte ich das erste Mal Kontakt mit einem Motorola-Android-Smartphone, das mich als langjährigen iPhone-Anwender derart überzeugt hat, dass ich es immer noch nutze – und darüber gebloggt habe.

Wenn ein Supercomputer wie der SuperMUC-NG quasi vor der Haustür eingeweiht wird, bin ich mit meiner Videokamera nicht weit. Und so durfte ich mit einem der Verantwortlichen des LRZ Garching ein Interview führen.

Was im September ebenfalls stattfand war ein IDC-Event, dieses Mal zum Thema Multi-Cloud. Herausgekommen sind drei Interviews:

Um den September so richtig voll zu machen, war ich dann noch für IBM in Ehningen, und zwar auf den Storage Strategy Days, wo ich wieder in typischer Manier meine Videoblogposts produziert habe.

Oktober 2018: it-sa, it-sa, it-sa

Falls ich angenommen haben sollte, dass der September voll war, wusste ich noch nicht, was im Oktober auf mich wartete. Der stand nämlich ganz und gar im Zeichen der Security-Messe it-sa in Nürnberg. Dort habe ich an drei Tagen etwa 20 Videos gedreht, von denen viele auf meinem Blog landeten. Das waren im einzelnen:

Daneben habe ich noch die Zeit gefunden, auf Einladung der Firma OVH nach Paris zu reisen, um mit deren CTO ein Videogespräch zum Thema Cloud-Plattform zu führen und mit dem CEO Michel Paulin über die Open-Source-Strategie von OVH zu sprechen.

Den Abschluss des zehnten Monats des Jahres bildete ein Interview zum Thema Unified Collaboration & Communications, das ich mit Philipp Bohn von der Firma Unify/Atos führen durfte.

November 2018: Sumo Logic, Delphix, Fujitsu Forum & IoT Security Kongress

Der November startete mit einem sehr entspannten Interview mit dem Gründer der US-amerikanischen Firma Sumo Logic, Christian Beedgen. Darin spricht er über die Monitoring Services seines Unternehmens und warum diese wichtig sind für Online-Dienste wie AirBnB, die zu den Kunden von Sumo Logic gehören.

Am gleichen Tag veröffentlichte ich ein Videointerview, das in den Räumen von T-Systems entstanden ist. Sein Thema: Maskierungstechniken, mit denen sich sensible Daten unkenntlich machen lassen. Das wird in Zeiten von DSGVO und Cloud-Anwendungen immer wichtiger.

Im November fand auch das Fujitsu Forum statt, also jene „Hausmesse“, die alljährlich mehrere tausende Menschen in die Münchner Messehallen lockt. Dort durfte ich vier sehr interessante Interviews zu den Themen Künstliche Intelligenz, Storage und Multi-Cloud führen.

Zum Abschluss des vorletzten Monats des Jahres 2018 begab ich mich noch auf eine IoT-Veranstaltung, die die Uniscon GmbH gemeinsam mit dem TÜV Süd veranstaltet hatte. Auch dort konnte ich interessante Gesprächspartner vor die Kamera locken:

„Mit LUCON lassen sich kritische von unkritischen Daten a priori unterscheiden“

„Der IoT Security Kongress soll das Projekt car-bits.de bekannter machen“

Dezember 2018: Dassault Systèmes Anwenderkonferenz

Den Abschluss des Jahres 2018 bildete eine Reise nach Hanau, wohin es mich wegen eines Fachartikels zum Thema Model-based Systems Engineering verschlug. Da ich aber schon mal dort war, habe ich mit meinem Interviewpartner auch noch ein Videogespräch geführt, in dem er kurz und knapp Wissenswertes zu dem Thema und zu der Akquisition der Firma No Magic erzählt hat.

Und klar, dass ich kurz nach Bekanntwerden des Aus‘ für die CEBIT meine Gedanken darüber in meinen Blog gekippt habe. Wofür betreibe ich diese Plattform schließlich…

Dr. Joseph Reger, Fujitsu

Videoblog: „Der KI mangelt es vor allem an gut ausgebildeten Experten“

Er ist multilingual, „Cheftechniker“ bei Fujitsu und sehr unterhaltsam. Die Rede ist von Dr. Joseph Reger, mit dem ich das folgende Interview während des Fujitsu Forum 2018 führen durfte. Zentrales Thema war die Künstliche Intelligenz.

KI ist für viele Unternehmen noch eher unwichtig

Eine von Fujitsu in Auftrag gegebene Studie zum Thema Künstliche Intelligenz zeigt recht schonungslos auf, woran es hierzulande in Sachen KI mangelt: Strategisch wichtig scheint sie (noch) nicht zu sein, und eine richtige KI-Strategie haben auch nur wenige Unternehmen.

Das hat einen recht einfachen Grund: Der Mangel an gut ausgebildeten KI-Experten, die für Projekte und Anwendungen zwingend erforderlich wären. Zwar wird aktuell eine Menge getan, um diesen Missstand zu verbessern, was allerdings noch einiges an Zeit in Anspruch nehmen wird. Im Widerspruch dazu steht, dass die KI möglichst bald in Firmen Einzug halten sollte, um brachliegendes Potential zu aktivieren und bestmöglich nutzen zu können.

Fujitsu leistet seinen KI-Beitrag auf ganz unterschiedlichen Ebenen

Fujitsu hat die Zeichen der Zeit erkannt und investiert auf ganz unterschiedlichen Ebenen in die Künstliche Intelligenz. Dazu gehören auch interne Fortbildungen und der Wissensaufbau rund um das Thema KI. Hierfür hat das Unternehmen ein Programm ins Leben gerufen, dass sich „Fujitsu Distinguished Engineers“  nennt.

Darin sind die besten Ingenieure und Entwickler von Fujitsu vereint mit dem Ziel, ihr Wissen rund um Machine Learning, Deep Learning, etc. fundiert auszubilden, damit sie möglichst schnell Fujitsu-Kunden bei der Realisierung von KI-Projekten unterstützen können. Daneben sollen diese KI-Experten an Schulen und Unis Schüler und Studenten für die Möglichkeiten der Künstlichen Intelligenz begeistern.

Fujitsu Labs entwickeln intelligente Deep-Learning-Technik mithilfe transitiver Methoden

Die Fujitsu-Labore in Japan und Europa beschäftigen sich schon eine ganze Weile mit dem Bereich „Transitives Lernen“. Hierbei geht es im Wesentlichen um die Wiederverwendbarkeit von bereits gelernten Inhalten. Herausgekommen ist dabei ein System, das sich für die unterschiedlichsten KI-Projekte nutzen lässt, selbst wenn diese auf den ersten Blick nichts miteinander zu tun haben.

Der Vorteil dieser Methode liegt auf der Hand: Die Trainingsphase für ein neues Machine-Learning-Modell ist relativ kurz, und die hierfür benötigten Daten umfassen deutlich weniger Datensätze als bei herkömmlichen Methoden. Dieser ganz neue Ansatz der Fujitsu-Labore soll vor allem in der Predictive Maintenance eingesetzt werden, also für das frühzeitige Erkennen von potentiellen Maschinenfehlern oder Materialschwächen, was speziell in der fertigenden Industrie wichtig ist.

Das vollständige Interview mit Dr. Joseph Reger

Wilfried Cleres, Fujitsu Deutschland

Videoblog: „Die KI im Rechenzentrum erkennt Anomalien schon im Voraus“

Dieses Videointerview habe ich mit Wilfried Cleres von Fujitsu und Wolfram Muehlboeck von CA Technologies auf dem Fujitsu Forum 2018 geführt. Thema war der Einsatz der Künstlichen Intelligenz im Rechenzentrum und wo es dort bereits sinnvoll genutzt werden kann.

Die KI sorgt für „vorausschauende Rechenzentren“

Die KI im Rechenzentrum scheint den Kinderschuhen zu entwachsen und kommt immer öfter auch in Produktivsystemen zum Einsatz. So gibt es beispielsweise eine Software, die sich Mainframe Operational Intelligence nennt. Diese KI-Software erfasst kontinuierlich den riesigen Datenstrom eines Rechenzentrums und lernt damit nach und nach, Anomalien im RZ selbstständig zu erkennen und davor rechtzeitig zu warnen.

Praktische Anwendung der KI im Rechenzentrum

Anhand der zahlreichen Metriken, die in einem Rechenzentrum anfallen, vermag die KI-Software anhand des Zeitablaufs das „normale“ Verhalten sämtlicher Parameter von „auffälligen“ Situationen zu unterscheiden. Das gelingt vor allem wegen der möglichen Korrelationen der vorhandenen Werte zueinander, woraus sich eine immer bessere Vorhersage eines möglichen Hardware-Defekts oder zu erwartenden Netzwerkproblems ergibt. Davon lassen sich natürlich eine Vielzahl an möglichen Reaktionen ableiten: Von der E-Mail-Warnung bis hin zur automatischen Fehlerbehebung ist so ziemlich alles denkbar.

Das Verständnis für die KI im Rechenzentrum sollte verbessert werden

Da es sich bei der KI im Rechenzentrum ja immer noch um eine sehr junge Disziplin handelt, gilt ein besonderes Augenmerk der Bewusstsein-Schaffung für die Möglichkeiten der Künstlichen Intelligenz. Denn nur anhand probater und sinnvoller Einsatzszenarien und -möglichkeiten lassen sich die Anwender eines Rechenzentrums auch von der Sinnhaftigkeit der KI in ihrem Umfeld überzeugen. Denn auch hier gilt: Die KI will keine Arbeitsplätze wegnehmen, sondern diese sichern und neu schaffen.

Das komplette Interview zur KI im Rechenzentrum

Leif Walter von Fortinet über Enterprise Firewalls und KI in der Security

Videoblog: „Enterprise Firewalls müssen performant, skalierbar und offen sein“

Während der it-sa 2018 habe ich mit Leif Walter von Fortinet dieses Videointerview geführt. Darin spricht er über die Besonderheiten der Fortinet Enterprise Firewalls und die künftige Rolle der Künstlichen Intelligenz im Kontext der IT-Security.

FortiGate Enterprise Firewalls sind performant, skalierbar und offen

Firewall-Lösungen für den Enterprise-Markt müssen vor allem performant und skalierbar sein, aber auch offen gegenüber anderen Systemen und Lösungen. Genau diesen Anforderungen werden Fortinet-Firewalls gerecht, indem sie auf Techniken basieren, die darauf abgestimmt sind. Hierbei steht vor allem die Netzwerk-Performance im Vordergrund genauso wie die Skalierbarkeit, die sich auf diverse Bereiche wie das Internet der Dinge und andere Segmente bezieht. Und klar, dass solche Firewall-Systeme auch mandantenfähig sein müssen.

Darüber hinaus spielen offene Schnittstellen eine zunehmend wichtige Rolle, da die Netzwerk-Topologien und ihre Komponenten immer heterogener werden und Anwender genau nach Lösungen suchen, die mit dieser Technikvielfalt klar kommen.

Künstliche Intelligenz in der IT-Security hat noch einen weiteren Weg vor sich

Die aktuelle Künstliche Intelligenz befindet sich im Grunde immer noch in einem Anfangsstadium, sodass immer noch von einer „schwachen“ KI die Rede ist, die innerhalb einer in sich geschlossenen Disziplin wie Autonomes Fahren oder Bilderkennung gute bis sehr gute Dienste leistet, also auch innerhalb der IT-Security.

Will man allerdings äußerst komplexe Bedrohungsszenarien mithilfe der Künstlichen Intelligenz schneller und zuverlässiger erkennen und abwehren können, ist eine sogenannte „starke“ KI vonnöten. Denn nur dort können die bisherigen „Insellösungen“ miteinander interagieren und schaffen damit ganz neue Modelle, die deutlich „schlauer“ sind als die heutigen Ansätze. Und genau dort wollen und werden sich Sicherheitsexperten wie Fortinet künftig noch mehr engagieren.

Das vollständige Interview mit Leif Walter

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden. 

Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Peter Ganten von Univention über Künstliche Intelligenz und Transparenz

Videoblog: „Die KI hält für uns Menschen großes Potential bereit“

Peter Ganten ist Gründer und Geschäftsführer der Univention GmbH aus Bremen, einem Software-Hersteller für Server- und Identitätsmanagement. Er ist bekennender Open-Source- und KI-Begeisteter, worüber ich mit ihm im folgenden Skype-Interview ausführlich gesprochen habe. Exklusive Einblicke in einen für Univention interessanten und aufstrebenden Bereich.

Herausforderung oder Risiko – das ist hier die KI-Frage

Über eines ist sich Herr Ganten völlig im Klaren: Die Künstliche Intelligenz mit all ihren Möglichkeiten und technischen Disziplinen hält ein unglaubliches Potential für uns Menschen und die Menschheit an sich bereit. Hier steht zum Beispiel die Medizin im Fokus, wo mithilfe der KI auf Patienten individuell zugeschnittene Medikamente möglich sind, aber auch die Früherkennung von Krankheiten verbessert werden kann. Zudem wird der Energiesektor von der KI maßgeblich profitieren genauso wie das Bildungswesen, das SchülerInnen und StudentInnen ganz neue Möglichkeiten an die Hand geben wird.

Gleichzeit können und werden neue KI-basierte Ansätze dafür sorgen, dass uns tendenziell monotone Aufgaben abgenommen werden. Die Rede ist vom Autonomen Fahren, das uns vom lästigen Steuern eines PKW befreit und wir stattdessen die Fahrt mit dem Auto für andere, sinnvollere Dinge nutzen können.

Aber, und auch da ist Herr Ganten ganz klar, dürfen wir nicht so naiv sein und glauben, dass die KI ausschließlich zum Wohle der Anwender genutzt werden kann. Daher sind wir alle dazu aufgefordert, richtig hinzusehen und die richtigen Fragen zu stellen, die sich rund um das Thema Künstliche Intelligenz ranken.

Ethik und Künstliche Intelligenz bedingen einander

So lautet eine der drängenden Fragen zum Thema KI aus Sicht von Herrn Ganten: Wie schützen wir uns bestmöglich vor Manipulationen? Dies kann zum Beispiel mithilfe von größtmöglicher Transparenz vermieden werden. Denn immer dann, wenn Algorithmen, Daten und andere Faktoren nicht öffentlich zugänglich sind, sind der Manipulation Tür und Tor geöffnet. So muss man sich ohne genaue Einblicke in KI-Anwendungen stets darauf verlassen, dass damit auch das gemacht wird, wozu die KI-Applikation eigentlich konzipiert wurde – und nicht etwa das Gegenteil davon.

Daher lautet eine der ethischen Forderungen: Die KI muss jederzeit öffentlich und nachprüfbar sein, und Unternehmen müssen sicher stellen, dass die vorhandenen Daten stets zum Wohle der Anwender und der Menschen eingesetzt werden.

Mit der Anwendung von KI nehmen die Risiken der „Erpressbarkeit“ zu

In einem seiner zahlreichen Vorträge spricht Herr Ganten von der „Erpressbarkeit der Anwender“, die im Kontext von KI eine ernstzunehmende Herausforderung darstellt. Gemeint sind damit Unternehmen und Organisationen, die auf die KI-Algorithmen von Cloud Service Providern zurückgreifen und dabei oft hochsensible Daten zu Verarbeitungszwecken bereitstellen.

So wird beispielsweise im Falle von Microsoft Office 365 jede Interaktion genauesten aufgezeichnet. Damit ist bekannt, welche Anwender mit welchen Applikationen arbeiten, welche Daten dabei mit anderen geteilt werden, und so fort. Das kann dazu führen, dass sich diese Daten mit anderen Daten in geeigneter Art und Weise verknüpfen lassen. So ließen sich beispielsweise die fachlichen Fertigkeiten bestimmter Anwender via LinkedIn an Recruiter oder andere Personen  transferieren, ohne dass der Arbeitgeber dieser Mitarbeiter Kenntnis davon erhält.

Und genau diese Möglichkeiten können letztlich dazu führen, dass Anbieter wie Microsoft neue Geschäftsmodelle entwickeln, die Unternehmen gegen Bezahlung garantieren, dass ihre in der Cloud bekannten Daten nicht für andere Zwecke missbraucht werden.

Open Source-Anwendungen stellen einen Ausweg aus dem Transparenzdilemma dar

Für ein Höchstmaß an Transparenz und Zuverlässigkeit entwickelt Univention sämtliche Lösungen als Open Source-Produkte, was den Nutzern diverse Vorteile bietet. So wissen die Kunden von Herrn Ganten jederzeit, was dort stattfindet, Programme lassen sich weiterentwickeln, und so fort. Das erhöht das Vertrauen in die Firma, was sich auf zahlreiche Bereiche positiv auswirkt. Dazu gehört das Thema Sicherheit, aber auch Innovationen werden damit gefördert, da quelloffene Systeme und Anwendungen relativ frei sind von vorgegebenen Update-Zyklen, proprietären Schnittstellen und vielem mehr.

Das Interview mit Peter Ganten in vollständiger Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma ChannelBuzz beauftragt.

Thomas Harrer von IBM über KI und Daten

Videoblog: „Die KI wird uns helfen, die Welt besser zu verstehen“

Dieses Interview habe ich auf den IBM Storage Strategy Days 2018 mit Thomas Harrer geführt. Darin spricht er über die Notwendigkeit guter und valider Daten für KI-Anwendungen und was das für aktuelle und künftige Storage-Systeme bedeutet.

Die Datenexplosion der nächsten Jahre und ihre Folgen

Eine der wesentlichen Grundvoraussetzungen für eine funktionierende Künstliche Intelligenz ist das Bereitstellen und Vorhalten der benötigten Daten, die meist in großer Zahl vorliegen. Daher ist die richtige Storage-Strategie unerlässlich, will man die KI bestmöglich einsetzen und nutzen.

Eine Besonderheit kommt hierbei den unstrukturierten Daten zu, die im Verhältnis zu den strukturierten Daten deutlich schneller wachsen. Diese erfordern sehr viel leistungsfähigere und größere Speichersysteme, da hier die Datenmengen exponentiell wachsen. Das lässt sich sehr gut anhand einiger markanter Zahlen verdeutlichen.

Bis zum Jahr 2000 wurden weltweit etwa 2 Exabyte an Daten gespeichert. Das betraf alles von Büchern über Filme und anderen Informationen. Umgerechnet entspricht das 2.000 Petabyte. Mittlerweile werden 14 Exabyte an Daten generiert – und zwar pro Tag, woraus sich eine weltweit gespeicherte Datenmenge am Jahresende ergibt, die sich auf unglaubliche 20 Zettabyte beläuft.  Das sind 1.000.000.000.000.000.000.000 Bytes, also eine Million mal 1 Million mal eine Million mal 1.000.

Und diese Entwicklung schreitet weiter voran. So schätzen Experten, dass bis zum Jahr 2025 die Menschheit in etwa 165 Zettabyte an Daten generieren wird. Und was das für die benötigten Speichersysteme bedeutet, kann man sich wohl in etwa ausmalen.

Bereiche wie die Medizin treiben große Datenmenge voran

Dank medizinischer Apparaturen wie Mikroskope, Röntgengeräte, etc. werden schon seit vielen Jahren kontinuierlich Daten gesammelt und gespeichert. Hinzu kommt jetzt die Möglichkeit, das menschliche Genom immer kostengünstiger und besser analysieren und speichern zu können, wofür „nur“ etwa 700 Megabyte Datenspeicher erforderlich sind.

Will man allerdings noch das Genom sämtlicher menschlicher Bakterien entschlüsseln und protokollieren, verhält sich das gleich völlig anders. Hier kommen ganz schnell Terabyte an Daten zusammen, und das pro Patient! Was aber gleichzeitig bedeutet, dass die Erkenntnisse daraus neue Therapieformen ermöglichen, mit denen sich Patienten immer individueller behandeln lassen.

Die Künstliche Intelligenz hilft, die Welt besser zu verstehen

Die KI soll und wird uns helfen, die Welt anhand von Daten besser zu verstehen. Als Beispiel seien hier Videobilder zu nennen, die Geschehnisse aufzeichnen, die Bilder liefern für bestimmte Lebenslagen, und so fort. Klar ist hierbei, dass so sehr schnell riesige Datenmengen entstehen, die obendrein mit den typischen prozeduralen Algorithmen gar nicht richtig erfasst und verstanden werden können.

Daher sind neue Konzepte und Ansätze erforderlich, die vor allem auf Basis unstrukturierter Daten die Informationen liefern, die wir brauchen. Dazu gehören beispielsweise neuronale Netze, die mit diesen Daten ganz anders umgehen können und auch deutlich lernfähiger sind als die herkömmlichen Rechenansätze. So hilft die KI selbstfahrenden Autos, Gegenstände auf der Fahrbahn besser und schneller zu erkennen, weil sie permanent dazu lernen. Damit können autonom betriebene Fahrzeuge in Echtzeit entscheiden, wann sie bremsen sollen oder einem Hindernis einfach nur ausweichen können.

Das und vieles mehr wird uns helfen, die Welt ein bisschen verständlicher zu machen und die Automatisierung vieler Abläufe voranzutreiben.

Das komplette Videointerview mit Thomas Harrer

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Ein weiteres Interview von den IBM Storage Strategy Days 2018

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

 

Ralf Colbus über KI-taugliche Speichersysteme

Videoblog: „Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden“

Dieses Interview habe ich mit Ralf Colbus von IBM Deutschland anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über die Rolle von Strorage-Systemen im Kontext leistungshungriger KI-Anwendungen, wie sie immer häufiger zum Einsatz kommen. Und über ein Tool, das künftig Datenwissenschaftlern helfen soll, Daten zielgerichteter und schneller zu finden.

Storage-Lösungen für KI-Anwendungen müssen zahlreichen Anforderungen genügen

KI-Anwendungen durchlaufen verschiedene Phasen, und vor allem daran sollten sich die entsprechenden Storage-Systeme orientieren. So werden im ersten Schritt sämtliche Daten für die Lernphase gesammelt, und das aus ganz unterschiedlichen Quellen, was ein System erfordert, das sowohl mit strukturierten als auch unstrukturierten Datentypen klar kommt.

Darüber hinaus muss man sich die Frage stellen: Habe ich überhaupt genug Speicherplatz für all die Daten. Hierbei geht es also um Aspekte wie die passenden Schnittstellen und die richtigen  Speichersysteme wie NAS, die ich hierfür brauche.

Als Nächstes sind die Verarbeitung und die Präparation an der Reihe. Hierzu gehört vor allem das sogenannte Taggen, also das Versehen der Daten mit Metatags. Die helfen dem Data Scientist, Daten von Anfang besser zuordnen und kategorisieren zu können. Denn wie die Praxis zeigt, verschwenden Datenwissenschaftler Zweidrittel ihrer Arbeitszeit mit dem Suchen und Auffinden der richtigen Daten. Was angesichts ihrer Stundensätze ein kaum hinnehmbarer Zustand ist.

Sobald die Verschlagwortung der Daten abgeschlossen ist, wird dieser meist riesige Datensatz in den Rechner geladen, der sie verarbeiten soll, was zum einen enorme Rechenzeiten und zum anderen schnelle Datenverbindungen erfordert.

Aber auch das Thema Datenarchivierung spielt in diesem Kontext mitunter eine gewichtige Rolle, also muss das Speichersystem auch hierfür geeignet sein. Denkbar sind hier Fälle des Autonomen Fahrens, bei denen es beispielsweise zu einem Unfall kommt, dessen rechtliche Lage eindeutig geklärt werden muss. Hierbei dreht es sich zum Beispiel um Fragen nach den Algorithmen, mit deren Hilfe das KI-Modell erstellt wurde, etc.

 Mit „MetaOcean“ gibt IBM Datenwissenschaftlern das richtige Tool an die Hand

Hinter dem Projekt „MetaOcean“ verbirgt sich der Versuch seitens IBM, vor allem Data Scientists bei der Suche nach den richtigen Daten für ihr spezielles KI-Projekt bestmöglich zu unterstützen. Hiermit lassen sich Daten von vornherein mit den passenden Schlagwörter versehen, also taggen. Das Tool kann zudem Datendoubletten ausfindig machen, was den notwendigen Datenbestand von Anfang an auf ein Minimum reduziert. Darüber hinaus erfolgt das Verschlagworten von Daten teilweise automatisiert, sodass die KI-Wissenschaftler diese Arbeit nicht ausschließlich manuell erledigen müssen.

Das Gute daran: IBM wird das Projekt „MetaOcean“ im Laufe des Herbst in ein „richtiges“ Produkt überführen, das die Datenwissenschaftlern dieser Welt beim schnellen Auffinden der richtigen Daten unterstützen und so ihre kostbare Zeit schonen soll.

Das komplette Videointerview mit Ralf Colbus

Disclaimer: Für das Erstellen dieses Videoblogpost hat mit IBM Deutschland beauftragt. Bei der Ausgestaltung der Inhalte hatte ich freie Hand.