CeBIT 2017: 10 Köpfe, 10 Interviews, 10 Meinungen

Jetzt sind sie also alle online, die zehn Videoblogbeiträge, die ich rund um die CeBIT 2017 geführt, geschnitten und getextet habe.

Das hat mir großen Spaß gemacht, und ich hoffe, allen beteiligten Herren auch (ja, an der Frauenquote arbeite ich noch).

Daher möchte ich mich noch einmal bei allen Interviewpartnern für ihre Geduld und ihre Antworten bedanken (in alphabetischer Reihenfolge):

Paulo Carvao von IBM Corp.

Gero Dieckmann von der SVA GmbH

Stefan von Dreusche von DataCore

Yasser Eissa von IBM Deutschland

Jan Füllemann von in-tech engineering

Hubert Jäger von Uniscon

Oliver Naegele von Blockchain HELIX

Ulrich Reiser von Unity Robotics

Ulrich Walter von IBM Deutschland

Bas Zwartkruis von ZTE

httpss://www.youtube.com/playlist?list=PLzcFi1G7kbvlOvjKdnY1R3Xf6J3PKxNME

 

CeBIT 2017: Oliver Naegele über die Notwendigkeit der Blockchain-Technik

Auf der CeBIT 2017 habe ich am IBM-Stand dieses Videointerview mit Oliver Naegele geführt. Er ist Gründer und CEO des verteilten Autorisierungsnetzwerks Blockchain HELIX. Während unseres Gesprächs habe ich erfahren, dass Oliver ein großer Verfechter des digitalen Bürgerrechts ist, dass er seine Lösungen auch persönlich für sehr wichtig hält und was seine Firma mit IBM verbindet.

Mit seinem Start-Up-Unternehmen Blockchain HELIX bietet Oliver Naegele eine blockchain-basierte Lösung für Identity-Management feil, mit dem sich digitale Identitäten auf höchstem Vertrauensniveau im Internet speichern lassen. Damit können Geschäftspartner und ähnliche Parteien interagieren, ohne sich zwangsläufig kennen zu müssen. Was Oliver als digitales Bürgerrecht erachtet.

300 Logins und keine rechtsgültige Authentifizierung – bis jetzt

Genau das ist es, was ihn nunmehr seit mehr als 15 Jahren umtreibt. Denn alleine die Tatsache, dass der Durchschnittsanwender etwa 300 Logins in unterschiedlicher Art und Weise verwalten muss, zeigt das Potential einer einheitlichen Blockchain-Lösung. Denn aktuell kann man sich in solch einem Umfang nicht rechtsgültig authentifizieren, sodass es wirklich anerkannt wird.

Blockchain HELIX macht sich diverse erprobte Techniken zueigen

Und an dieser Stelle will Blockchain HELIX ansetzen. Schließlich sei Blockchain ein Zusammenspiel unterschiedlicher Techniken wie Java, JavaScript, etc, was das erfolgreiche Umsetzen einer starken und zuverlässigen Identity-Lösung endlich ermöglicht.

Und warum sich Blockchain HELIX am IBM-Stand befand, erklärt Oliver Naegele ab Minute 2:13 am besten selbst. Na dann: Film ab!

CeBIT 2017: Ulrich Walter von IBM über Künstliche Intelligenz und IBM-Systeme

Am letzten Tag der CeBIT 2017 hatte ich das Vergnügen, mit Ulrich „Uli“ Walter von IBM über das Thema Künstliche Intelligenz zu plaudern. Dabei verriet er mir, was IBM Systems mit KI zu tun hat, welche Rechenpower dafür erforderlich ist und was in diesem Kontext IBM empfiehlt. Und warum schneller Speicher auch wichtig, habe ich ebenfalls von Uli erfahren.

Unstrukturierte Daten erfordern superschnelle Rechnersysteme

Was IBM-Systeme mit Künstlicher Intelligenz zu tun haben, wollte ich gerne wissen. Nun, das sei doch die Basis von KI: Eine schnelle Maschine, auf der sich rechenintensive und hochkomplexe Anwendungen wie Maschine Learning und Deep Learning mühelos ausführen lassen.

Dazu zählt aber nicht nur die reine Rechenleistung, sondern auch die Speicherleistung, die solch ein Hochleistungsserver bereitstellen muss. Denn gerade die Künstliche Intelligenz hantiert oft und gerne mit unstrukturierten Daten (Videos, Social-Media-Daten, etc.), die superschnelle Speichersysteme erfordern.

IBM POWER8-Systeme leisten mehr als Google Brain auf engstem Raum

Doch warum ist es heute einfacher, KI-Anwendungen zu realisieren? Für die Beantwortung dieser Frage zog Uli das Beispiel „Google Brain“ zurate. Dieser Supercomputer weist 16.000 Computer-Knoten auf und erzielt damit eine Rechenleistung von 50 TeraFLOPS .

Dieselbe Rechenleistung bietet heute, also gerade einmal fünf Jahre später, ein IBM POWER8-basiertes System, das deutlich preisgünstiger und kleiner ist und damit auch deutlich weniger Strom verbraucht. Das macht solche Systeme selbst für kleinere Firmen durchaus attraktiv.

POWER8 + NVIDIA + Mellanox = starkes KI-System

Die wesentliche Aufgabe der Künstlichen Intelligenz besteht laut Uli vor allem in der Wertschöpfung der zugrunde liegenden Daten, mit denen sich beispielsweise Konsumentenverhalten voraussagen, Präventionsmaßnahmen im öffentlichen Raum ableiten oder Versicherungsfälle aufklären lassen.

Für diese äußert rechenintensiven Anwendungen empfiehlt IBM natürlich eine Rechenmaschine vom Typ POWER8, in der obendrein NVIDIA-GPUs mit NVLink-Technik und Mellanox-Komponenten ihren Dienst verrichten. Damit bekommt man Rechenboliden an die Hand, die bis zu 80 TeraFLOPS und extrem hohe Datenbandbreiten liefern.

Mit POWER9 kommt noch mehr KI-Leistung in die Rechenzentren

Wie es weitergeht, wollte ich natürlich auch noch gerne wissen. Nun, hier befindet sich die POWER9-Prozessortechnik quasi auf der Zielgeraden. Mit diesen nächsten Hochleistungs-CPUs und -GPUs von IBM wird auf erneut kleiner werdendem Raum die Grundlage für künftige KI-Anwendungen geschaffen. Eine erste, grobe Schätzung geht von 100 TeraFLOPS aus, was eine deutliche Leistungssteigerung darstellt.

IBM hat auch KI-taugliche Speichersystem im Portfolio

Welche Speicherlösungen seitens IBM für das Thema Künstliche Intelligenz und Cognitive Computing zur Verfügung stehen, das erzählt Uli ab Minute 3:50 am besten selbst. Na dann: Film ab!

CeBIT 2017: Jan Füllemann von in-tech engineering zur geplanten eHealth-App

Anlässlich der CeBIT 2017 hatte ich das Vergnügen, dieses Videointerview mit Jan Füllemann von der Firma in-tech engineering zu führen. Darin spricht er über die geplante eHealth-App, die gemeinsam mit der TU Clausthal entsteht. Dank dieser mobilen Anwendung soll das Auffinden eines benötigten Arztes deutlich einfacher werden als mit gängigen Anwendungen.

Finde-den-nächsten-Arzt-App für Alle

Die eHealth-App, die in-tech engineering gerade entwickelt, soll Patienten künftig helfen, einen Arzt schneller zu finden. Vor allem dann, wenn sie des Lesens gar nicht oder kaum mächtig sind. Daher hat sich in-tech für eine bild-gesteuerte Bedienung der App entschieden, die mithilfe geeigneter Piktogramme und Grafiken die Suche nach der nächsten medizinischen Versorgung vereinfachen soll.

Hierfür wird der menschliche Körper mit seinen einzelnen Bereichen wie Kopf, Herz, etc. grafisch dargestellt. Per Fingertipp auf die schmerzende Region bekommen die Anwender der App die nächstgelegenen Arztpraxen angezeigt. Mit einer weiteren Interaktion kann man dann eine E-Mail an die Praxis schreiben oder direkt anrufen.

Per Fingertipp zum passenden Arzt – inklusive Routenplaner

Darüber hinaus lässt sich auch hineinzoomen, sodass man  weitere Regionen wie die Zähne, das Knie, etc. auswählen und nach einem passenden Arzt Ausschau halten kann. Hat man diesen gefunden, lässt sich gleich die Route zur seiner Praxis anzeigen. Und da sich die App an zahlreiche Nationen richten soll, wird sie mehrere Sprachen unterstützen.

TU Clausthal als Datenbeschaffer, und das sehr gesetzeskonform

Da ein wissenschaftlicher Mitarbeiter der TU Clausthal auch am Stand zugegen war, wollte ich von diesem gerne wissen, welchen Beitrag sein Institut zur App leistet. Seine Antwort ist so schlicht wie wenig überraschend: Die Technische Uni kümmert sich um die Daten der teilnehmenden Arztpraxen, und das mit höchsten Ansprüchen an die Datensicherheit und den Datenschutz. Wie beides gewährleistet wird, verrät Tim Warnecke ab Minute 2:40 am besten selbst.

CeBIT 2017: Dr. Hubert Jäger von Uniscon über Sealed Cloud und iDGARD

Während der CeBIT 2017 hatte ich die Gelegenheit, dieses sehr interessante Interview zum Thema Cloud & Sicherheit mit Dr. Hubert Jäger von der Münchner Firma Uniscon zu führen. Darin spricht er über die Sealed-Cloud-Technik, über das erste Sealed-Produkt namens iDGARD und welche namhaften Firmen bereits die Uniscon-Lösung einsetzen.

Gleich mit der ersten, eher generisch gemeinten Frage, ging Dr. Jäger „in media res“. Sprich, er kam direkt auf die Sealed-Cloud-Technik zu sprechen, die Uniscon auf der CeBIT 2017 vorgestellt hat. Damit bekommen sowohl Betreiber von Datenzentren als auch IT-Adminstratoren technische Maßnahmen an die Hand, mit denen ein Zugriff auf hochsensible Daten in der Cloud nahezu ausgeschlossen werden kann.

„Löschen vor Lesen“ lautet das Uniscon-Credo

Zum Schutz der Cloud-Daten segmentiert Uniscon das Rechenzentrum dergestalt, dass sich im Falle eines Angriffs von außen (oder innen) mithilfe der sogenannten Data Cleanup-Technik komplette oder partielle Datenbereiche automatisch löschen lassen, was man bei Uniscon als „Löschen vor Lesen“ bezeichnet. Hinzu kommt eine ausgeklügelte Schlüsselverteilungstechnik, die dafür sorgt, dass der Betreiber der Cloud-Platform über keinerlei Schlüssel für das Entschlüsseln der gehosteten Daten verfügt.

iDGARD richtet sich an Anwälte, Ärzte und andere Berufsgeheimnisträger

Auf Basis der Sealed-Cloud-Technik von Uniscon hat das Unternehmen auf der CeBIT sein erstes Produkt unter dem Namen iDGARD vorgestellt. Dabei handelt es sich um einen Datenaustauschdienst, der vor allem Berufsgeheimnisträger wie Anwälte, Ärzte und vergleichbare Berufsgruppen adressiert. Damit tauschen diese Anwender Daten und Dokumente sicher und gesetzeskonform über eine iDGARD-gesicherte Cloud-Verbindung via Internet aus.

Datenschutz „made in Germany“ ist ein echter Wettbewerbsvorteil

Zugegeben, meine letzte Frage war ein wenig ketzerisch angelegt. Ob denn der hiesige Datenschutz eher hemmend oder eher nützlich sei, wollte ich von Dr. Jäger wissen. Seine passende Antwort hierzu: Der Datenschutz „made in Germany“ ist zu allererst ein Wettbewerbsvorteil, und jeder, der etwas anderes behauptet, hat wohl die Zeichen der Zeit nicht erkannt.

Hierzu sollten Sie sich das Interview am besten einmal komplett ansehen – oder punktuell ab Minute 1:50. Viel Vergnügen dabei! Dann erfahren Sie auch gleichzeitig, wer die Sealed-Cloud-Technik bereits einsetzt – und das sind keine unbedeutenden Unternehmen…

CeBIT 2017: Bas Zwartkruis von ZTE über Smart Cities 3.0

Auf der zurückliegenden CeBIT hatte ich das große Vergnügen, dieses Videointerview mit Bas Zwartkruis von ZTE über Smart Cities 3.0 zu führen. Darin spricht er über die drei kooperierenden Städte, deren gemeinsame und individuelle Ziele und welche Rolle ZTE in diesem Szenario übernommen hat.

Zunächst einmal wollte ich gerne wissen, was es mit der Smart Cities-Kooperation auf sich hat, die ZTE mit den teilnehmenden Städten Frankfurt-Kelsterbach, Rüsselsheim und Raunheim eingegangen ist. Bei dem Projekt handelt es sich mittlerweile um die dritte Stufe.

Von Smart City 1.0 bis Smart Cities 3.0

Im ersten Schritt stand nur eine Lösung innerhalb einer einzigen Stadt im Vordergrund, Schritt zwei sah die Integration in die Cloud vor, und mit Smart Cities 3.0 entsteht eine virtuelle, städteübergreifende IT-Lösung. Dabei kann jede Stadt die jeweils gewünschte und geforderte Lösung individuell implementieren und nutzen.

Smart Cities 3.0: Public WLAN, Smart Education und eHealth-App

Doch wie sehen diese Lösungen im Einzelnen aus? Nun, gemeinsam ist den drei Städten ein öffentliches WLAN, mit dem die Bürger der drei Orte jederzeit mit dem Internet verbunden sein können. Darüber hinaus nimmt sich Raunheim dem Thema Smart Education an, und Rüsselsheim wird sich auf eine Krankenhaus-App fokussieren.

Allerdings habe ich mich an dieser Stelle gefragt, was ZTE als Telekommunikationsunternehmen mit diesem Projekt zu tun hat. Generell lässt sich dazu sagen: Die Macher bei ZTE haben erkannt, dass die eigene Telekommunikationsinfrastruktur eine sehr gute und erprobte Basis für smarte Lösungen darstellt.

Das Projekt „MICT“ soll das Internet der Dinge voranbringen

Und so entstand eine Art Code of Conduct, das ZTE einfach „MICT“ nennt. Dahinter steht die Abkürzung für Mobile Information and Communications Technology, was aber auch M2M ICT (Machine-to-Machine) bedeutet.

Ziel des MICT-Projekt ist es, Smart Projects wie das mit Kelsterbach, Rüsselsheim und Raunheim mit der notwendigen Infrastruktur auszustatten. Dazu gehören beispielsweise Sensoren und die passenden Empfangsgeräte, die Cloud-Infrastrukturen und eine Analysesoftware, mit der sich die generierten Daten sinnvoll aufbereiten lassen.

Mithilfe dieses Projekts soll das digitale Leben der teilnehmenden Anwender einfacher und komfortabler werden. Ein sehr hehres Ziel…

CeBIT 2017: Paulo Carvao, IBM Systems, über Cognitive Computing

Während der CeBIT 2017 hatte ich die Gelegenheit, dieses Videointerview mit Paulo Carvao von IBM zu führen. Während des Gesprächs erfuhr ich, warum Paulo und IBM auf der CeBIT waren, welche Trends in Sachen Künstliche Intelligenz und Cognitive Computing auf uns warten und was er vom Watson IoT Center in München hält.

Paolo und IBM hatten sich für die CeBIT fest vorgenommen, mit Kunden und Partnern ausführlich über das Thema Cognitive Computing und die kognitive Ära zu reden. Was ihnen offensichtlich gelungen ist, wenn man sich den IBM-Stand in Halle 2 angesehen und die Presseberichte verfolgt hat.

IT-Infrastruktur und Cognitive Computing müssen zusammenpassen

Damit eng verknüpft ist für Paolo und sein Team natürlich das Thema IT-Infrastruktur, also das Bereitstellen der passenden Hardware und Software für rechenintensive Aufgaben, wie sie beim Cognitive Computing anfallen. Dabei ist es vor allem wichtig, mit den enormen Datenmengen vernünftig umgehen zu können, die bei CC-Applikationen entstehen.

Drei Trends: Acceleratoren, Hybrid-Clouds und Techniktransformation

Doch welche Trends sieht IBM in Sachen Cognitive Computing? Nun, dazu gehören laut Paolo Carvao mindestens drei: Hardware-Acceleratoren, hybride Cloud-Infrastrukturen und die Transformation von vorhandenen Techniken.

Hardware-Acceleratoren sorgen dafür, dass speziell in heterogenen IT-Umgebungen Daten und Anwendungen so schnell wie möglich verarbeitet werden können. Zu den Acceleratoren gehören spezielle Grafikkarten und FPGAs, aber auch der Quantencomputer IBM Q.

Hybride Cloud-Infrastrukturen werden laut Paolo dafür sorgen, dass Public und Private Cloud-Anwendungen sinnvoll und sicher verschmelzen können.

Mit der Transformation vorhandener Techniken wie Blockchain werden sich angestammte Geschäftsmodelle vollständig verändern und neue Märkte erschließen.

IBM Watson IoT Center steht nicht zufällig in München

Zu guter Letzt wollte ich von Paolo noch wissen, welche Chancen das IBM Watson IoT Center für Deutschland und Europa bietet. Seine Antwort überrascht kaum:  es sei kein Zufall, dass das Watson IoT Headquarter in München entstanden ist. Bündeln sich doch hier die kreativen und innovativen Köpfe und Firmen der IT- und Automobil-Szene.

CeBIT 2017: Stefan von Dreusche über die DataCore-Lenovo-Storage-Appliance

Während der CeBIT 2017 habe ich dieses Videointerview mit Stefan von Dreusche geführt. Herr Dreusche ist Sales Director EMEA bei DataCore und hat mir diverse Fragen zur brandneuen Storage-Appliance Lenovo DX8200D powered by DataCore beantwortet. Sehr aufschlussreiche Informationen aus erster Hand.

So durfte ich unter anderem lernen, dass es sich bei der Lenovo DX8200D powered by DataCore um eine reine Lenovo-Storage-Appliance handelt, die über die Lenovo-Kanäle an DataCore-Kunden vertrieben wird. Das sieht ein OEM-Agreement zwischen Lenovo und DataCore vor, das es in dieser Form noch nicht gab.

Die Vorteile für beide Partner liegen dabei auf der Hand: Lenovo erlangt den Zutritt zum immer wichtiger werdenden Software-defined-Storage-Markt, und DataCore kommt in den Genuss, mit einem weltweit anerkannten Storage-Hersteller zu kooperieren.

DataCore-Software und Lenovo-Hardware: ein Weltmeistergespann

Der Grund für die Kooperation ist ebenfalls interessant: Da die DataCore-eigene Technik Parallel IO sehr gut mit Mehrkernprozessor-Maschinen klarkommt, hat man sich mit Lenovo zusammengetan und an der IO-Leistung solange „gebastelt“, bis ein neuer gemeinsamer Weltrekord erzielt werden konnte. Der liegt aktuell bei 5,1 Millionen IOPS.

Die Zielgruppe: Mittelständler mit großem IO-Hunger

Die Lenovo DX8200D powered by DataCore adressiert laut Stefan von Dreusche vor allem mittelständische Unternehmen in Deutschland, die mit datenintensiven Anwendungen arbeiten. Hierfür lässt sich die Appliance bis zu 40 Terabyte ausbauen, und das in einer sehr leistungsfähigen Maschine. So berichten erste Kunden von Leistungssteigerungen um bis zu 75 Prozent, und das zu gerade mal einem Viertel der ursprünglichen Kosten.

Was mag Stefan von Dreusche an der DataCore-Lenovo-Maschine?

Und was mag Stefan von Dreusche an dieser neuen Kooperations-Appliance am meisten? Nun, das verrät er Ihnen am besten höchstpersönlich. Na dann: Film ab!

CeBIT 2017: Gero Dieckmann über die SVA GmbH und künftige Herausforderungen

Auf der CeBIT 2017 durfte ich mit Gero Dieckmann von der SVA System Vertrieb Alexander GmbH dieses Videointerview führen. Darin spricht er über seine zehnte CeBIT in Folge am IBM-Stand, über Buzzwords wie IoT und Hybrid Cloud sowie die Anforderungen seiner Kunden an die Zukunft und wie SVA dabei helfen kann.

SVA zählt zu den großen IBM-Businesspartnern in Europa

Natürlich wollte ich von Herrn Dieckmann wissen, warum die SVA GmbH am IBM-Stand in Halle 2 vertreten ist. Dafür gibt es eine recht simple Erklärung: Die SVA zählt zu den großen IBM-Businesspartnern in Europa, daher ist es naheliegend, dass man auf deren Stand ausstellt. Darüber hinaus bietet das Unternehmen unter anderem zahlreiche Services im Bereich Cognitive Computing an, sodass eine Präsenz in Halle 2 äußerst konsequent erscheint.

Ob in der Cloud oder „On-Premise“: SVA-Kunden bekommen stets die richtige Lösung

Daneben sprach Herr Dieckmann über aktuelle Trends wie Internet of Things und hybride Cloud-Lösungen, aber auch über das Bereitstellen großer Datenmengen zur richtigen Zeit am richtigen Ort. Und das kann eben in der Cloud sein, aber auch „On-Premise“, also im Rechenzentrum des Kunden.

In speziellen Workshops macht die SVA ihre Kunden fit für die Zukunft

Zu guter Letzt wollte ich noch wissen,  wie die SVA ihre Kunden fit für die anstehenden Herausforderungen macht. Auch hier war die Antwort so schlicht wie sinnvoll: Gemeinsam mit der SVA werden im Rahmen kleiner, überschaubarer Gruppen Workshops durchgeführt, die sich mit ganz speziellen Themen auseinandersetzen. Was dann dazu führt, dass die betroffenen Fachabteilungen genau die Lösung an die Hand bekommen, die für das Erreichen der eigenen Geschäftsziele erforderlich sind.

CeBIT 2017: Yasser Eissa (IBM) über kognitive Cloud-Services in Frankfurt

Während der CeBIT durfte ich dieses Videointerview mit Yasser Eissa von IBM Deutschland führen. Darin spricht er über die IBM Cloud-Highlights während der IT-Messe in Hannover, über das neue kognitive Angebot im IBM Cloud Center zu Frankfurt und was das alles mit dem deutschen und europäischen Datenschutz zu tun hat.

Ganz im Zentrum des Cloud-Auftritts von IBM stand die Cloud-Plattform IBM Bluemix, mit der sich kognitive Cloud-Anwendungen realisieren lassen. Zu den Bluemix-Partner gehörten bekannte Namen wie VMware, Materna und Bacardi, die gemeinsam Anwendungsbeispiele mit IBM Bluemix auf der CeBIT 2017 demonstrierten.

IBM Bluemix ist im IBM Cloud-Center in Frankfurt verfügbar

Aber auch über eine Neuheit konnte Yasser Eissa berichten: So sind ab sofort aus dem IBM Cloud-Center in Frankfurt am Main heraus IBM Bluemix-basierte Public Cloud-Services verfügbar. Damit folgt IBM zahlreichen Anfragen seitens deutscher Kunden, die sich IBM Bluemix auch auf deutschem Boden gewünscht haben.

Das hat natürlich vor allem mit den strikten Datenschutzregeln zu tun, mit denen vor allem deutsche Unternehmen konfrontiert werden, wenn sie Cloud-Dienste à la IBM Bluemix nutzen wollen. Dazu zählen unter anderem IBM-Kunden aus dem Banken-, Versicherungs- und dem öffentlichen Bereich.

In diesem Zusammenhang wies Yasser auch drauf hin, dass IBM erst kürzlich den EU Cloud Code of Conduct unterzeichnet hat, und das im ersten Schritt für die Bluemix Infrastructure Services. Weitere Dienste sollen folgen. Das ist vor allem für die bevorstehende EU-Datenschutzgrundverordnung ein wichtiger Schritt, die Mai 2018 in Kraft treten wird.