Peter Ganten von Univention über Künstliche Intelligenz und Transparenz

Videoblog: „Die KI hält für uns Menschen großes Potential bereit“

Peter Ganten ist Gründer und Geschäftsführer der Univention GmbH aus Bremen, einem Software-Hersteller für Server- und Identitätsmanagement. Er ist bekennender Open-Source- und KI-Begeisteter, worüber ich mit ihm im folgenden Skype-Interview ausführlich gesprochen habe. Exklusive Einblicke in einen für Univention interessanten und aufstrebenden Bereich.

Herausforderung oder Risiko – das ist hier die KI-Frage

Über eines ist sich Herr Ganten völlig im Klaren: Die Künstliche Intelligenz mit all ihren Möglichkeiten und technischen Disziplinen hält ein unglaubliches Potential für uns Menschen und die Menschheit an sich bereit. Hier steht zum Beispiel die Medizin im Fokus, wo mithilfe der KI auf Patienten individuell zugeschnittene Medikamente möglich sind, aber auch die Früherkennung von Krankheiten verbessert werden kann. Zudem wird der Energiesektor von der KI maßgeblich profitieren genauso wie das Bildungswesen, das SchülerInnen und StudentInnen ganz neue Möglichkeiten an die Hand geben wird.

Gleichzeit können und werden neue KI-basierte Ansätze dafür sorgen, dass uns tendenziell monotone Aufgaben abgenommen werden. Die Rede ist vom Autonomen Fahren, das uns vom lästigen Steuern eines PKW befreit und wir stattdessen die Fahrt mit dem Auto für andere, sinnvollere Dinge nutzen können.

Aber, und auch da ist Herr Ganten ganz klar, dürfen wir nicht so naiv sein und glauben, dass die KI ausschließlich zum Wohle der Anwender genutzt werden kann. Daher sind wir alle dazu aufgefordert, richtig hinzusehen und die richtigen Fragen zu stellen, die sich rund um das Thema Künstliche Intelligenz ranken.

Ethik und Künstliche Intelligenz bedingen einander

So lautet eine der drängenden Fragen zum Thema KI aus Sicht von Herrn Ganten: Wie schützen wir uns bestmöglich vor Manipulationen? Dies kann zum Beispiel mithilfe von größtmöglicher Transparenz vermieden werden. Denn immer dann, wenn Algorithmen, Daten und andere Faktoren nicht öffentlich zugänglich sind, sind der Manipulation Tür und Tor geöffnet. So muss man sich ohne genaue Einblicke in KI-Anwendungen stets darauf verlassen, dass damit auch das gemacht wird, wozu die KI-Applikation eigentlich konzipiert wurde – und nicht etwa das Gegenteil davon.

Daher lautet eine der ethischen Forderungen: Die KI muss jederzeit öffentlich und nachprüfbar sein, und Unternehmen müssen sicher stellen, dass die vorhandenen Daten stets zum Wohle der Anwender und der Menschen eingesetzt werden.

Mit der Anwendung von KI nehmen die Risiken der „Erpressbarkeit“ zu

In einem seiner zahlreichen Vorträge spricht Herr Ganten von der „Erpressbarkeit der Anwender“, die im Kontext von KI eine ernstzunehmende Herausforderung darstellt. Gemeint sind damit Unternehmen und Organisationen, die auf die KI-Algorithmen von Cloud Service Providern zurückgreifen und dabei oft hochsensible Daten zu Verarbeitungszwecken bereitstellen.

So wird beispielsweise im Falle von Microsoft Office 365 jede Interaktion genauesten aufgezeichnet. Damit ist bekannt, welche Anwender mit welchen Applikationen arbeiten, welche Daten dabei mit anderen geteilt werden, und so fort. Das kann dazu führen, dass sich diese Daten mit anderen Daten in geeigneter Art und Weise verknüpfen lassen. So ließen sich beispielsweise die fachlichen Fertigkeiten bestimmter Anwender via LinkedIn an Recruiter oder andere Personen  transferieren, ohne dass der Arbeitgeber dieser Mitarbeiter Kenntnis davon erhält.

Und genau diese Möglichkeiten können letztlich dazu führen, dass Anbieter wie Microsoft neue Geschäftsmodelle entwickeln, die Unternehmen gegen Bezahlung garantieren, dass ihre in der Cloud bekannten Daten nicht für andere Zwecke missbraucht werden.

Open Source-Anwendungen stellen einen Ausweg aus dem Transparenzdilemma dar

Für ein Höchstmaß an Transparenz und Zuverlässigkeit entwickelt Univention sämtliche Lösungen als Open Source-Produkte, was den Nutzern diverse Vorteile bietet. So wissen die Kunden von Herrn Ganten jederzeit, was dort stattfindet, Programme lassen sich weiterentwickeln, und so fort. Das erhöht das Vertrauen in die Firma, was sich auf zahlreiche Bereiche positiv auswirkt. Dazu gehört das Thema Sicherheit, aber auch Innovationen werden damit gefördert, da quelloffene Systeme und Anwendungen relativ frei sind von vorgegebenen Update-Zyklen, proprietären Schnittstellen und vielem mehr.

Das Interview mit Peter Ganten in vollständiger Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma ChannelBuzz beauftragt.

Thomas Harrer von IBM über KI und Daten

Videoblog: „Die KI wird uns helfen, die Welt besser zu verstehen“

Dieses Interview habe ich auf den IBM Storage Strategy Days 2018 mit Thomas Harrer geführt. Darin spricht er über die Notwendigkeit guter und valider Daten für KI-Anwendungen und was das für aktuelle und künftige Storage-Systeme bedeutet.

Die Datenexplosion der nächsten Jahre und ihre Folgen

Eine der wesentlichen Grundvoraussetzungen für eine funktionierende Künstliche Intelligenz ist das Bereitstellen und Vorhalten der benötigten Daten, die meist in großer Zahl vorliegen. Daher ist die richtige Storage-Strategie unerlässlich, will man die KI bestmöglich einsetzen und nutzen.

Eine Besonderheit kommt hierbei den unstrukturierten Daten zu, die im Verhältnis zu den strukturierten Daten deutlich schneller wachsen. Diese erfordern sehr viel leistungsfähigere und größere Speichersysteme, da hier die Datenmengen exponentiell wachsen. Das lässt sich sehr gut anhand einiger markanter Zahlen verdeutlichen.

Bis zum Jahr 2000 wurden weltweit etwa 2 Exabyte an Daten gespeichert. Das betraf alles von Büchern über Filme und anderen Informationen. Umgerechnet entspricht das 2.000 Petabyte. Mittlerweile werden 14 Exabyte an Daten generiert – und zwar pro Tag, woraus sich eine weltweit gespeicherte Datenmenge am Jahresende ergibt, die sich auf unglaubliche 20 Zettabyte beläuft.  Das sind 1.000.000.000.000.000.000.000 Bytes, also eine Million mal 1 Million mal eine Million mal 1.000.

Und diese Entwicklung schreitet weiter voran. So schätzen Experten, dass bis zum Jahr 2025 die Menschheit in etwa 165 Zettabyte an Daten generieren wird. Und was das für die benötigten Speichersysteme bedeutet, kann man sich wohl in etwa ausmalen.

Bereiche wie die Medizin treiben große Datenmenge voran

Dank medizinischer Apparaturen wie Mikroskope, Röntgengeräte, etc. werden schon seit vielen Jahren kontinuierlich Daten gesammelt und gespeichert. Hinzu kommt jetzt die Möglichkeit, das menschliche Genom immer kostengünstiger und besser analysieren und speichern zu können, wofür „nur“ etwa 700 Megabyte Datenspeicher erforderlich sind.

Will man allerdings noch das Genom sämtlicher menschlicher Bakterien entschlüsseln und protokollieren, verhält sich das gleich völlig anders. Hier kommen ganz schnell Terabyte an Daten zusammen, und das pro Patient! Was aber gleichzeitig bedeutet, dass die Erkenntnisse daraus neue Therapieformen ermöglichen, mit denen sich Patienten immer individueller behandeln lassen.

Die Künstliche Intelligenz hilft, die Welt besser zu verstehen

Die KI soll und wird uns helfen, die Welt anhand von Daten besser zu verstehen. Als Beispiel seien hier Videobilder zu nennen, die Geschehnisse aufzeichnen, die Bilder liefern für bestimmte Lebenslagen, und so fort. Klar ist hierbei, dass so sehr schnell riesige Datenmengen entstehen, die obendrein mit den typischen prozeduralen Algorithmen gar nicht richtig erfasst und verstanden werden können.

Daher sind neue Konzepte und Ansätze erforderlich, die vor allem auf Basis unstrukturierter Daten die Informationen liefern, die wir brauchen. Dazu gehören beispielsweise neuronale Netze, die mit diesen Daten ganz anders umgehen können und auch deutlich lernfähiger sind als die herkömmlichen Rechenansätze. So hilft die KI selbstfahrenden Autos, Gegenstände auf der Fahrbahn besser und schneller zu erkennen, weil sie permanent dazu lernen. Damit können autonom betriebene Fahrzeuge in Echtzeit entscheiden, wann sie bremsen sollen oder einem Hindernis einfach nur ausweichen können.

Das und vieles mehr wird uns helfen, die Welt ein bisschen verständlicher zu machen und die Automatisierung vieler Abläufe voranzutreiben.

Das komplette Videointerview mit Thomas Harrer

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Ein weiteres Interview von den IBM Storage Strategy Days 2018

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

 

Cloud-Sync

So geht’s: das eigene virtuelle Home-Office

Wir alle werden jeden Tag ein Stückchen mobiler, nur unsere Arbeitsumgebung scheint sich dieser Veränderung nicht im selben Tempo anzupassen. Dabei lässt sich mit wenigen und einfachen Schritten das eigene virtuelle Home-Office verwirklichen. Dieser Beitrag zeigt, wie das funktioniert.

Die Vorteile des eigenen virtuellen Home-Office’ lassen sich mit einem Satz zusammenfassen: Man hat immer und von überall Zugriff auf seine Daten und Anwendungen, und das ganz sicher und zuverlässig. Vorausgesetzt, man berücksichtigt drei wichtige Aspekte, von denen im folgenden die Rede sein soll.

Aspekt #1: Der eigene zentrale, lokale Datenspeicher

Was im ersten Moment wie ein Widerspruch erscheint, entpuppt sich beim zweiten Hinsehen als die perfekte Mischung aus der herkömmlichen lokalen Datenspeicherung und einer cloud-basierten Datenumgebung. IT-Experten nennen das Private-Cloud-Strukturen und sehen darin die richtige Mixtur aus Datensicherheit und Datenkomfort.

Denn zum einen bleiben die schützenswerten Daten auf dem lokalen, meist in der Firma beheimateten Datenspeicher wie zum Beispiel einem NAS (Network Attached Storage; zu dt. Netzwerk-basierter Speicher). Damit behalten die Anwender und Eigentümer die volle Kontrolle über ihre Daten. Und zum anderen wird mithilfe geeigneter Tools und Techniken der Datenbestand in die Cloud „gespiegelt“, was den Zugriff auf die Daten von jedem Ort der Welt aus erlaubt.

Wichtig dabei ist vor allem, dass keine Paralellstrukturen aufgebaut werden, sondern die Basis des Ganzen eine lokale Ordnerstruktur darstellt, die dann in geeigneter Art und Weise in die Cloud migriert und synchronisiert werden. Damit müssen Daten nicht an zwei Orten (lokaler Speicher + Cloud) verwaltet werden, sondern es gibt nur einen Ursprung (das lokale Speichermedium), die in die Cloud gespiegelt werden.

Aspekt #2: Auf den richtigen Sync-Client kommt es an

Für die Migration und Synchronisation der lokalen Daten in und mit der Cloud-Umgebung ist selbstverständlich ein Software-Werkzeug vonnöten, dass die Anwender im besten Sinne bei der Datenspeicherung in die Cloud unterstützt. Dieser sogenannte Sync-Client sollte auf keinen Fall sämtliche Daten in die Cloud transferieren und damit allen zugänglich machen. Denn in einem Unternehmensverbund ist es von größter Wichtigkeit, dass einzelne Datensätze nur ganz bestimmten Anwendern zur Verfügung stehen.

Daher sollte das Tool individuell einstellbare Zugriffs- und Freigaberechte unterstützen, was die Sicherheit der Cloud-Kollaboration deutlich erhöht. Zudem sollte der Sync-Client über Admin-Kontroll-Funktionen und eine  Kalendersynchronisation verfügen. Solch ein Tool ist beispielsweise die Open-Source-Software Seafile, die Cloud-Anbieter wie luckycloud für die Synchronisation und Migration der Daten in die Cloud einsetzen.

Aspekt #3: Cloud-Backups richtig nutzen

Schon länger ist die Rede von der sogenannten 3-2-1-Backup-Regel, die auch in Zeiten von Cloud-Speichern zur Anwendung kommen sollte. Damit folgt man der Empfehlung zahlreicher IT-Experten, von seinen Daten regelmäßig drei Sicherheitskopien mithilfe zweier unterschiedlicher Speichertechniken anzufertigen, also zum Beispiel auf Festplatte und Magnetband. Davon wiederum wird eine Kopie mit dem eigenen Cloud-Speicher synchronisiert. Das hat den großen Vorteil, dass im Falle eines Daten- bzw. Datenspeicherverlustes stets eine Kopie unversehrt bleibt. Das macht einen Daten-GAU sehr, sehr unwahrscheinlich.

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Ralf Colbus über KI-taugliche Speichersysteme

Videoblog: „Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden“

Dieses Interview habe ich mit Ralf Colbus von IBM Deutschland anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über die Rolle von Strorage-Systemen im Kontext leistungshungriger KI-Anwendungen, wie sie immer häufiger zum Einsatz kommen. Und über ein Tool, das künftig Datenwissenschaftlern helfen soll, Daten zielgerichteter und schneller zu finden.

Storage-Lösungen für KI-Anwendungen müssen zahlreichen Anforderungen genügen

KI-Anwendungen durchlaufen verschiedene Phasen, und vor allem daran sollten sich die entsprechenden Storage-Systeme orientieren. So werden im ersten Schritt sämtliche Daten für die Lernphase gesammelt, und das aus ganz unterschiedlichen Quellen, was ein System erfordert, das sowohl mit strukturierten als auch unstrukturierten Datentypen klar kommt.

Darüber hinaus muss man sich die Frage stellen: Habe ich überhaupt genug Speicherplatz für all die Daten. Hierbei geht es also um Aspekte wie die passenden Schnittstellen und die richtigen  Speichersysteme wie NAS, die ich hierfür brauche.

Als Nächstes sind die Verarbeitung und die Präparation an der Reihe. Hierzu gehört vor allem das sogenannte Taggen, also das Versehen der Daten mit Metatags. Die helfen dem Data Scientist, Daten von Anfang besser zuordnen und kategorisieren zu können. Denn wie die Praxis zeigt, verschwenden Datenwissenschaftler Zweidrittel ihrer Arbeitszeit mit dem Suchen und Auffinden der richtigen Daten. Was angesichts ihrer Stundensätze ein kaum hinnehmbarer Zustand ist.

Sobald die Verschlagwortung der Daten abgeschlossen ist, wird dieser meist riesige Datensatz in den Rechner geladen, der sie verarbeiten soll, was zum einen enorme Rechenzeiten und zum anderen schnelle Datenverbindungen erfordert.

Aber auch das Thema Datenarchivierung spielt in diesem Kontext mitunter eine gewichtige Rolle, also muss das Speichersystem auch hierfür geeignet sein. Denkbar sind hier Fälle des Autonomen Fahrens, bei denen es beispielsweise zu einem Unfall kommt, dessen rechtliche Lage eindeutig geklärt werden muss. Hierbei dreht es sich zum Beispiel um Fragen nach den Algorithmen, mit deren Hilfe das KI-Modell erstellt wurde, etc.

 Mit „MetaOcean“ gibt IBM Datenwissenschaftlern das richtige Tool an die Hand

Hinter dem Projekt „MetaOcean“ verbirgt sich der Versuch seitens IBM, vor allem Data Scientists bei der Suche nach den richtigen Daten für ihr spezielles KI-Projekt bestmöglich zu unterstützen. Hiermit lassen sich Daten von vornherein mit den passenden Schlagwörter versehen, also taggen. Das Tool kann zudem Datendoubletten ausfindig machen, was den notwendigen Datenbestand von Anfang an auf ein Minimum reduziert. Darüber hinaus erfolgt das Verschlagworten von Daten teilweise automatisiert, sodass die KI-Wissenschaftler diese Arbeit nicht ausschließlich manuell erledigen müssen.

Das Gute daran: IBM wird das Projekt „MetaOcean“ im Laufe des Herbst in ein „richtiges“ Produkt überführen, das die Datenwissenschaftlern dieser Welt beim schnellen Auffinden der richtigen Daten unterstützen und so ihre kostbare Zeit schonen soll.

Das komplette Videointerview mit Ralf Colbus

Disclaimer: Für das Erstellen dieses Videoblogpost hat mit IBM Deutschland beauftragt. Bei der Ausgestaltung der Inhalte hatte ich freie Hand.

Poppy Szkiler von Quiet Mark im Interview

Videoblog: „Wir wollen für mehr Ruhe im Büro und Zuhause sorgen!“

Während der IFA 2018 durfte ich dieses Videointerview mit Poppy Szkiler führen. Sie ist die Gründerin und CEO der britischen Firma Quiet Mark, die es sich zum Ziel gesetzt hat, die Welt ein bisschen leiser und damit ein bisschen besser zu machen.

Mit dem Q-Logo die GeräuschverschmutzungQuiet Mark hat eine klare Vision: In mehr als 30 Produktkategorien sollen jeweils die geräuschärmsten und damit nervenschonendsten Geräte mit dem Q-Logo versehen werden. Dies signalisiert Kunden und Anwendern, dass es sich hierbei um Gerätschaften handelt, die man so gut wie gar nicht hört – zumindest im Vergleich mit Konkurrenzprodukten.

Diese Idee ist gar nicht so neu: Bereits Ende der 1960er gründete der Großvater von Poppy die Noise Abatement Society, die es sich damals wie heute zum Ziel gemacht hat, gesetzliche Regelungen rund um die Lärmbelästigung von Produkten einzuführen bzw. regelmäßig zu verbessern.

Mit der „Quiet Revolution“ gegen die Lärmbelästigung des Alltags

Mit all dem Lärm, der uns jeden Tag umgibt und der unsere Gesundheit, unseren Schlaf und andere Faktoren negativ beeinflusst, müssen sich Anwender nicht mehr zufrieden geben. Zumindest dann, wenn es nach Quiet Mark geht. Denn die permanente Lärmbelästigung lässt sich reduzieren, indem man beim Kauf des neuen Staubsaugers oder des Laubbläsers auf das Q-Logo achtet, dass signalisiert: „Hier hat der Hersteller bei der Konzeption des Produkts auf eine möglichst geringe Geräuschentwicklung geachtet“. Diesem Bestreben sieht sich Poppy Szkiler höchstpersönlich verpflichtet. Sie will damit für mehr Ruhe im Büro und Zuhause sorgen.

Mehr Stille für den Alltag, das ist die Vision von Quiet Mark

Die natürliche Stille, die uns eigentlich umgibt, verschwindet immer mehr. Dabei ist sie für uns und unser Wohlbefinden so immanent wichtig. Denn mehr Ruhe bedeutet mehr Regeneration unseres Biorhythmus. Und jeder kann seinen eigenen Teil dazu beitragen, und das nicht nur mithilfe der Produkte, die mit dem Q-Logo versehen sind.

Philips und andere Hersteller vertrauen Quiet Mark und dem Q-Logo

Mehr und mehr Hersteller setzen das Q-Logo gezielt als Verkaufsargument ihrer Produkte ein. So findet man den Aufkleber unter anderem auf Staubsaugern und Luftbefeuchtern des niederländischen Unternehmens Philips. Damit lassen sich mittlerweile die entsprechenden Gerätschaften besser verkaufen, da Anwender mehr und mehr nach lärmreduzierten Produkten Ausschau halten. Für alle also ein echter Mehrgewinn.

Das komplette Videointerview mit Poppy Szkiler und Philips

Disclaimer: Für diesen Videobeitrag hat mich die Firma Quiet Mark engagiert und bezahlt. Bei der Ausgestaltung der Fragen und des Videos hatte ich nahezu freie Hand.

Die E-Ink-Tastatur des Lenovo Yoga Book C930 ist äußert anpassungsfähig und lernt dank KI permanent dazu

[Videochat] Mirco Krebs von Lenovo über Künstliche Intelligenz in Notebooks

Während der IFA 2018 habe ich dieses Interview mit Mirco Krebs von Lenovo geführt. Darin spricht der General Manager und Territory Leader der PCSD (PC and Smart Devices Group) DACH über das neue Wachstum von Lenovo, warum der B2B-Markt bei Lenovo gerade überproportional wächst und wie das Thema Künstliche Intelligenz Yoga Book-Anwendern hilft, besser zu schreiben.

Lenovo wächst und gedeiht

Legt man die Quartalszahlen des ersten Geschäftsvierteljahres zugrunde, geht es Lenovo derzeit ziemlich gut. So konnte der Umsatz im Vergleich zum Vorjahr um 20 Prozent gesteigert werden, der Gewinn fiel ebenfalls besser aus als im Vorjahreszeitraum, und auch sonst erfreut sich Lenovo allerbester Gesundheit.

So bescheinigt das Marktforschungsinstitut IDC Lenovo im PC- und Tablet-Segment einen weltweiten Marktanteil von 16,4 Prozent. Darüber hinaus sieht Gartner Lenovo in der Kategorie „schnell wachsender Computerhersteller“ auf dem ersten Platz . Aber auch die Sparte „Rechenzentrum“ wächst und gedeiht sehr ordentlich: Dort legte das Unternehmen in der Disziplin „Gewinn“ um 68 Prozent im Vergleich zum Vorjahr zu.

Die DACH-Regin wächst ebenfalls – und das dank Windows 10

Und wie verhält es sich mit den Zahlen in Herrn Krebs‘ „Einzugsgebiet“, also in Deutschland, Österreich und der Schweiz? Nun, dort ist Lenovo ähnlich erfolgreich, und das sowohl beim Umsatz als auch bei den Absatzzahlen. Gerade der sogenannte kommerzielle (B2B-)Markt ist hierzulande und bei den Alpennachbarn deutlich gewachsen, und das in einem äußerst umkämpften Segment.

Diesen überproportionalen Anstieg im B2B-PC-Markt hat Lenovo gewissermaßen Microsoft zu verdanken. Denn mit dem schrittweisen Umstieg zahlreicher Firmen von Windows 7 auf Windows 10 erfolgt gleichzeitig in vielen Fällen auch eine Neuanschaffung bei der Hardware, und hier kann Lenovo offensichtlich bei seinen Kunden sehr gut punkten. Das hat wohl unter anderem mit der engen Zusammenarbeit zwischen Intel und Lenovo zu tun, was vielen Anwendern das Gefühl gibt, auf ein erfahrenes und eingespieltes Team zu setzen.

Künstliche Intelligenz hält bei Lenovo jetzt auch in Notebooks Einzug

Dass sich Lenovo mit dem Thema Künstliche Intelligenz schon länger beschäftigt, ist für aufmerksame Leser dieser Blogs kein großes Geheimnis. Dass sich dieser Trend jetzt allerdings auch beim Thema Notebooks breit macht, hat mich während der IFA doch einigermaßen überrascht.

Denn mithilfe der erst kürzlich vorgestellten E-Ink-Tastatur des Yoga Book C930 hilft Lenovo seinen Kunden, besser, schneller und effizienter auf dem Laptop Texte zu schreiben. Hierfür kommt auf dem Gerät eine Software zum Einsatz, die das Schreibverhalten des Anwenders analysiert und auf dieser Basis die Tastatur den Schreibbedürfnissen des Notebook-Anwenders anpasst.

Dazu gehören die unterschiedlichen Schreibgewohnheiten genauso wie die ergonomischen Unterschiede, die sich von Anwender zu Anwender ergeben. Das ermöglicht eine ganz neue Schreibqualität beim 2-Finger-Tippen, auf die sich sicherlich schon viele User freuen.

Das komplette Interview mit Mirco Krebs

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Lenovo verfasst und veröffentlicht. Dabei ließ mir das Unternehmen nahezu freie Hand.

Cloud-Verschlüsselung ist vor allem in Zeiten der DSGVO enorm wichtig

So lassen sich Cloud-Daten sicher verschlüsseln

Die Datenschutzgrundverordnung (DSGVO) zwingt Anbieter von Cloud-Services zu einem verantwortungsvollen Umgang mit den Daten ihrer Kunden. Dazu gehören diverse Grundsätze, von denen in diesem Beitrag die wichtigsten drei vorgestellt werden sollen.

Grundsatz #1: Open-Source-Software steht für transparente Transaktionen

Von Cloud-Anbietern wie luckycloud wird von deren Anwendern und Kunden eine erhöhte Transparenz erwartet, gerade wegen DSGVO und Co. Das bedingt unter anderem den Einsatz von transparenter Software, was nicht in jedem Fall gegeben ist. Daher setzt zum Beispiel luckycloud auf die Open-Source-Software Seafile. Damit lassen sich innerhalb einer Private Cloud-Umgebung Daten speichern, teilen und synchronisieren.

Der wesentliche Vorteil dieses Ansatzes liegt im Öffentlichmachen der Software: Da der Quellcode für jedermann zugänglich und einsehbar ist, lassen sich darin keine geheimen Software-Funktionen verstecken, wie beispielsweise einen Staatatrojaner oder ähnliche Backdoor-Möglichkeiten. Denn damit wäre unerwünschten Gästen Tor und Tür geöffnet, was das Aus für solch einen Cloud-Anbieter bedeuten würde. Das Einzige, was dank Seafile und Co. geheim bleibt, sind die Schlüssel, mit denen die Cloud-Daten ver- und entschlüsselt werden (siehe Grundsatz #3).

Grundsatz #2: Robuste und erprobte Techniken helfen bei der Abwehr von Angriffen 

Selbst unerfahrene Anwender mögen schon einmal vom Begriff „Man-in-the-Middle-Angriff“ gehört haben. Dabei handelt es sich um eine Hackerattacke von außen (oder innen) eines Unternehmens, der mit bestimmten illegalen Hilfsmitteln die Kommunikation zwischen zwei Rechnern belauscht, um so an Informationen zu gelangen, um diese beispielsweise zu manipulieren.

Die Verbindung zwischen einem Anwender und einem Cloud-Server gehört zu einem dieser beliebten Angriffsziele. Vor allem dann, wenn der gewählte Kommunikationskanal nicht ausreichend gegen das „Mithören“ abgesichert wird. Daher setzen verantwortungsbewusste Cloud-Anbieter wie luckycloud auf das robuste TLS-Protokoll (Transport Layer Security) ein, was die Verschlüsselungstechnik des HTTPS-Webprotokolls ist. Diese Technik verschlüsselt die Kommunikation zwischen Anwender und Server vollständig, allerdings auch nicht mehr. Wichtig ist hierbei nicht unbedingt der Einsatz von teuer gekauften  Zertifikaten, die  von entsprechenden Stellen vergeben werden. 

Denn teuer ist nicht gleichbedeutend mit sicher. So stellt ein kostenlos erhältliches Zertifikat von Let’s Encrypt vollkommen sicher, dass die Verbindung zwischen Browser und Server verschlüsselt ist. Zudem existieren sogenannte EV-Zertifikate (Extended Validation), mit deren Hilfe die zugehörige Zertifizierungsstelle die reale Existenz einer Firma überprüfen und bestätigen kann.

Grundsatz #3: Durchgängige Verschlüsselung sorgt für höchstmögliche Sicherheit

Für eine höchstmögliche Sicherheit kommt es neben der transparenten Software und der richtigen Verschlüsselung der Datentransportwege auf das Verschlüsseln der Daten selbst an. Wie im Falle der luckycloud, bei der dank des Einsatzes von Seafile die kostbaren Daten auf zweierlei Wegen gegen den Diebstahl von außen (oder innen) geschützt werden: durch Verschlüsselung auf Client- als auch auf Serverseite.

Das bedeutet konkret, dass zum einen die Daten bereits dann verschlüsselt werden, bevor sie überhaupt auf dem Cloud-Server landen. Und dort werden sie nicht wieder entschlüsselt, sondern bleiben in verschlüsselter Form dort liegen. Damit haben nur die Anwender mit den passenden Zugangsdaten und Schlüsseln Zugriff auf die Daten, also nicht einmal der Cloud-Anbieter.

Zum Ver- und Entschlüsseln kommt übrigens der symmetrische, blockbasierte AES256-Verschlüsselungsalgorithmus zum Einsatz, der als sehr sicher gilt. Hierbei wird oft die sogenannte CBC-Methode (Cipher Block Chaining) eingesetzt, die das Verschlüsseln der Daten noch ein gutes Stück zuverlässiger macht. Mehr Sicherheit kann man seinen Cloud-Daten kaum angedeihen lassen. 

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Antigoni Chrysostomou über HPC in Deutschland

[Videoblog] Antigoni Chrysostomou über das Lenovo HPC-Geschäft

Während der International Supercomputing Conference 2018 habe ich dieses Interview mit Antigoni Chrysostomou von der Lenovo Data Center Group über das HPC-Geschäft in Deutschland geführt. Darin spricht sie über das

Der deutsche HPC-Markt im weltweiten Vergleich: echt stark!

Betrachtet man den hiesigen HPC-Markt (High-Performance Computing), kann man ihm durchaus bescheinigen, wettbewerbsfähig zu sein. Das liegt vor allem an der hohen Zahl an Forschungsinstituten, die sich in Deutschland tummeln, da diese einen großen Bedarf an viel und noch viel mehr Rechenpower zu Forschungszwecken haben.

Dazu gehört beispielsweise das Gauss Supercomputing Center, das einen Verbund der drei großen Universitätsrechenzentren darstellt. Dazu gehören das Jülicher Supercomputing Center, das Leibniz-Rechenzentrum (LRZ) in München-Garching und das HPC-Zentrum Stuttgart. Und eines davon, nämlich das LRZ, ist einer der größten RZ-Kunden Lenovos, wo gerade der größte Supercomputer Deutschlands entsteht, nämlich der SuperMUC-NG.

Daneben sind deutsche Supercomputer zahlreich in der Top-500-Liste der weltweit schnellsten Rechner vertreten. Alleine Lenovo trägt zu insgesamt 117 Systemen bei, die zu den leistungsfähigsten ihrer Art zählen, womit das Unternehmen die Top-500 in dieser Kategorie anführt.

Darum ist der HPC-Markt so interessant für Lenovo

High-Performance Computing mit seinen unterschiedlichen Ausprägungen stellt ganz bestimmte Anforderungen an Rechnersysteme, die vor allem von den HPC-Anwendern eingefordert werden. Folge: Neue Anwendungen rufen neue, innovative Lösungsansätze hervor, wovon gerne Unternehmen wie Lenovo profitieren, das sie selbst Teil dieser Innovationsmaschinerie sind. Wichtig dabei ist, dass die Entwicklerteams von Lenovo sehr stark mit ihren Kunden vernetzt sind, um so schnellst- und bestmöglich auf deren Anforderungen reagieren zu können.

Als ein „Nebeneffekt“ dieser HPC-Entwicklungen kann die Transformation solcher neuen Lösungen in den RZ-Massenmarkt betrachtet werden. Dazu gehören beispielsweise wassergekühlte Systeme, die Stück für Stück in den herkömmlichen Rechenzentren zum Einsatz kommen werden, nachdem sie sich im HPC-Umfeld bewährt haben.

Hiesige HPC-Schwerpunkte: Energieeffizienz und Warmwasserkühlung

Vor allem die hohen Ansprüche deutscher RZ-Betreiber an die Energieeffizienz eines solchen Systems treibt hierzulande ganz entscheidend zu den aktuellen Entwicklungen bei. Dies hat zwei wesentliche Gründe: Einerseits sind die Strompreise in Deutschland höher als in anderen Ländern, und zum anderen spielen bei uns die Themen Nachhaltigkeit und Verantwortung gegenüber der Umwelt eine größere Rolle als anderswo. Dies führt beispielsweise zu heißwassergekühlten Rechenzentren, wie sie in Garching bei München seit Jahren zu bewundern sind.

Ein weiterer hiesiger Aspekt, der ebenfalls mit dem Thema Energieeffizienz zu tun hat, betrifft die klassische TCO-Betrachtung. So fließen in die Gesamtkalkulation eines deutschen Rechenzentrums nicht nur die Anschaffungskosten für Hardware und Software ein, sondern auch die Energiekosten für Strom und Wasser. Was Lenovo speziell in Deutschland gegenüber anderen Anbietern einen großen Vorteil verschafft, da deren HPC-Systeme verstärkt mit Heißwasserkühlsystemen betrieben werden sollen.

Aus diesem und anderen Gründen hat Lenovo pünktlich zur ISC18 eine neue Technik vorgestellt, die sich Lenovo Neptun nennt und die das Kühlen von großen Rechenzentren mithilfe von Heißwasser ermöglichen soll – und das sehr viel energieeffizienter als andere vergleichbare Lösungsansätze.

Das komplette Videointerview mit Antigoni Chrysostomou

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Peter Lyhne Uhrenholt, TRIAX, about TRIAX A:S

[Videoblog] CEO Peter Lyhne Uhrenholt über TRIAX A/S: Schwerpunkte, Partner, Ziele

Während der ANGA COM 2018 habe ich mit TRIAX Geschäftsführer Peter Lyhne Uhrenholt über TRIAX-Produkte und -Lösungen gesprochen, über die Zusammenarbeit mit Kabelanbietern und darüber, wo er TRIAX in den nächsten fünf bis zehn Jahren sieht.

TRIAX-Produkte und -Lösungen sorgen für zufriedene Kunden

Selbstverständlich genügen TRIAX-Produkte und -Lösungen höchsten Qualitätsansprüchen und sind darüber hinaus robust und zuverlässig im täglichen Umgang und Einsatz. Denn das ist die oberste Maxime, die Kunden von TRIAX fordern: Produkte, die funktionieren und ihren Zweck erfüllen. Und genau diesen Werten hat sich TRIAX verschrieben: Maximale Kundenzufriedenheit durch maximale Produktqualität.

Dies wird unter anderem mithilfe kontinuierlicher Forschungs- und Entwicklungsaktivitäten erreicht, in die TRIAX viel Zeit und Geld investiert. Denn um stets am Puls der Technik zu sein und mit den Anforderungen des Marktes Schritt halten zu können, will TRIAX regelmäßig neue Ansätze schaffen, die in neuen Produkten münden. Denn auch das trägt zu einer Kundenzufriedenheit im Sinne von Peter Lyhne Uhrenholt bei.

TRIAX A/S wird die Zusammenarbeit mit Kabelbetreibern weiter verstärken

TRIAX-Kunden und Kabeloperatoren pflegen seit jeher eine enge Partnerschaft. Daher ist die Zusammenarbeit seitens TRIAX mit Kabelnetzbetreibern schon seit langem von essentieller Wichtigkeit. Eine der drängesten Herausforderungen dabei ist das Verbessern und Erhöhen der Kabelbandbreite, da diese für Hotels und andere Einrichten mit umfangreichen Kabelnetzen enorm wichtig ist. Schließlich sollen Gäste und Kunden auch auf dieser Ebene zufriedengestellt werden.

Daher steigen mehr und mehr Kabeloperatoren auf die neueste Kabeltechnik DOCSIS 3.1 um, um künftig höhere Bandbreiten mit Gigabit-Tempo anbieten zu können. Und natürlich braucht es hierfür die richtigen Produkte und Lösungen, die immer die neuesten Technologien unterstützen. Aus diesem und anderen Gründen ist nicht nur für TRIAX die Zusammenarbeit mit Kabeloperatoren wichtig, sondern auch umgekehrt.

Exkurs: DOCSIS (Data Over Cable Service Interface Specification) beschreibt Schnittstellen von Kabelmodems in einem Breitbandnetz. DOCSIS 3.1 unterstützt Datenraten von bis zu 10 GBit/s im Downstream und soll Latenzen verringern.

TRIAX in 5 bis 10 Jahren: Cloud-Services und mehr Distributoren

Für Peter steht vor allem das Entwicklen einer vollständigen Lösungsplattform im Vordergrund, wenn er an die nächsten 5 bis 10 Jahre von TRIAX denkt. Schon heute bietet der aktuelle Lösungsansatz alle wichtigen Komponenten wie Kopfstellensysteme, Ethernet over Coax sowie die passende Software-Plattform, die jedoch mehr und mehr als Cloud-Service angeboten werden und verfügbar sein soll. Darüber hinaus gibt es bei TRIAX weitreichende Pläne, das bereits existierende Distributionsnetzwerk weiter auszubauen, um damit noch näher an ihre Kunden heranzukommen.

Das Interview mit Peter Lyhne Uhrenholt in voller Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Martin W. Hiegl über das Leibniz-Rechenzentrum (LRZ) und Lenovo

[Videoblog] Lenovo und die LRZ-SuperMUC-NG-Kooperation

Im Herbst 2018 geht die dritte Ausbaustufe des Lenovo Supercomputers der „Marke“ SuperMUC mit dem Zusatz „NG“ für „Next Generation“ ans Strom-Netz. Grund genug, mit einem der führenden Köpfe dieses für Lenovo so prestigeträchtigen Projekts ein Videointerview zu führen. Namentlich ist das Martin W. Hiegl von der Lenovo Data Center Group, der dort die Position des Director WW HPC & AI bekleidet. Mit ihm habe ich mich auf der International Supercomputing Conference 2018 über SuperMUC-NG und Co. unterhalten.

Darum ist für Lenovo die Kooperation mit dem Leibniz-Rechenzentrum so wichtig

Seit fast nunmehr zehn Jahren arbeiten Lenovo (seit 2014, vorher IBM) und das Leibniz-Rechenzentrum in Sachen Supercomputer zusammen. Dabei lag und liegt einer der Schwerpunkte im Bereich Energieeffizienz. So wies bereits der allererste SuperMUC im Jahr 2012 eine Heißwasserkühlung auf, die die gesamte Supercomputer-Anlage deutlich effizienter kühlte als andere Verfahren. Drei Jahre später folgte die zweite Ausbaustufe namens SuperMUC 2, und dieses Jahr im Herbst geht mit dem SuperMUC-NG die dritte Generation des Lenovo Supercomputers an der Start. Damit stellt die Kooperation mit dem LRZ für Lenovo einen wichtigen, langfristigen Baustein der Supercomputing-Strategie dar.

Der SuperMUC-NG geht im Herbst 2018 an das Strom-Netz

Nach drei Jahren SuperMUC 2 geht die dritte Generation des SuperMUC mit dem Zusatz „NG“ (wie „Next Generation“) ans Garchinger Stromnetz. Er umfasst 90 Compute-Racks, was 6.500 Compute-Knoten der Marke Lenovo ThinkSystem SD 650 DWC entspricht, die auf den skalierbaren Intel Xeon-Prozessoren basieren.

Der erste dieser Serverschränke wurde bereits ins Betrieb genommen, und über den Sommer verteilt wird Rack für Rack hinzukommen, sodass der SuperMUC-NG wie geplant im Herbst 2018 vom LRZ abgenommen und in Betrieb werden kann. Gerade rechtzeitig vor der Veröffentlichung der Herbstausgabe der Top-500-Liste, in der sich die 500 schnellsten Supercomputer der Welt befinden.

Der SuperMUC-NG weist beeindruckende Leistungswerte auf

In Sachen Leistungswerte wird der SuperMUC-NG aus dem Stand auf einem der vordersten Plätze der Top-500 klettern. Denn mit seiner Rechenleistung von rund 27 PetaFLOPS wird der LRZ-Rechner – Stand heute – der schnellste Supercomputer in Europa sein und darüber hinaus zu den Top 10 der Top 500 zählen. Das ist auch erforderlich, denn als HPC-Provider aller Münchner Universitäten ist das Leibniz-Rechenzentrum auf solche Hochleistungswerte dringend angewiesen, will es künftig seine Kunden zufriedenstellen. Denn diese benötigen die Rechenleistung des SuperMUC-NG für vielfältige Anwendungsbereiche, die mehr und mehr CPU-Power erfordern.

Die Kooperation mit dem LRZ umfasst mehr als nur Hardware

Bei der Implementierung des SuperMUC-NG gehört neben der Hardware auch die komplette Infrastruktur und die benötigte Software. Hierbei ist vor allem der Lenovo Intelligent Cluster Orchestrator zu nennen, der sich um sämtliche HPC-Funktionalitäten kümmert. Darüber hinaus zeichnet sich die Lenovo Data Center Group für die Wartung des Systems und den Anwendersupport verantwortlich.

Zudem sieht der Kooperationsvertrag eine Zusammenarbeit in Sachen Energieeffizienz vor. Hierbei soll mithilfe von optimiertem Software-Quellcode und der Energy Aware Runtime (EAR) für eine höhere Energieeffizienz gesorgt werden. Die EAR hat Lenovo in Kooperation mit dem Barcelona Supercomputing Center entwickelt. Dieses Tool sorgt unter anderem für angepasste Taktfrequenzen der Xeon-Prozessoren zur Laufzeit, je nachdem, ob eine Anwendung gerade mehr oder weniger Rechenleistung benötigt.

Das komplette Interview mit Martin W. Hiegl

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.