Axel Rogaischus von IBM über Blockchain, Digital Twins und Künstliche Intelligenz

[Videochat] Axel Rogaischus (IBM) zu den Top-Themen auf der Hannover-Messe 2018

Mit Axel Rogaischus von IBM Deutschland habe ich dieses Interview zu den Top-Themen auf der Hannover-Messe 2018 geführt. Darin spricht er (aus IBM-Sicht) über die Blockchain-Technik, über digitale Zwillinge und über die Künstliche Intelligenz, soll heißen über IBM Watson AI.

Top-Thema Nummer 1: Blockchain-Technologie

Hierbei geht Herr Rogaischus vor allem auf Blockchain im Business-Umfeld näher ein. Doch was sind die besonderen Herausforderungen, wenn man von Blockchain-Lösungen im kommerziellen Einsatz spricht? Laut Herrn Rogaischus ist das in den allermeisten Fällen nicht die Technik an sich, denn die funktioniert zumeist tadellos, da oft nichts anderes als eine cloud-basierte Datenbanktechnik dahinter steckt.

Ein häufiger Knackpunkt ist eher die Governance bei der Implementierung einer Blockchain-Lösung innerhalb eines Netzwerks. Soll heißen: Wer hat den Blockchain-Hut auf? Wer bestimmt die „Mitspieler“ eines Blockchain-Netzwerks? An diesen und weiteren Entscheidungen scheitern leider nach wie vor viel zu viele Blockchain-Projekte.

Top-Thema Nummer 2: Digital Twins

Mit Digital Twins sind im Allgemeinen digitale Modelle bestehender Anlagen wie einer Fabrik gemeint, mit deren Hilfe exakte Simulationen vorgenommen werden, was zu einer Verbesserung von Prozessen führen kann, zu neuen Erkenntnissen rund um das reale Vorbild des digitalen Zwillings führt und vieles mehr.

Doch was macht ein Digital-Twin-Projekt wie der Port of Rotterdam auf einem Fertigungsevent wie der Hannover-Messe? Nun, interessant an diesem Digital Twin des Rotterdamer Hafens ist laut Herr Rogaischus die Komplexität dieser riesigen Anlage, die alleine im Jahr 2016 rund 29.000 Seeschiffe und 105.000 Binnenschiffe abgefertigt hat.

Und genau solch eine aufwändig zu wartende Anlage ist nun einmal auch eine Fabrik, von denen ebenfalls verstärkt digitale Zwillinge aufgebaut werden. Hiermit lässt sich am Rechner der gesamte Material-, Fertigungs- und Prozessfluss sowie sämtliche Maschinenketten anschaulich darstellen. Und genau diese Komplexität lässt sich mit vorhandener Technik in Form von Digital Twins mühelos abbilden.

Top-Thema Nummer 3: Künstliche Intelligenz

Mit der Künstlichen Intelligenz und deren Sub-Disziplinen wie Machine und Deep Learning werden künftig ganz neue Möglichkeiten geschaffen. Bei IBM hat man hierfür sogar eine eigene Marke geschaffen, die sich IBM Watson AI nennt, also Watson Artificial Intelligence. Mit dieser Technologie will IBM Anwendern helfen, Prozesse zu vereinfachen und zu verbessern, ganz gleich, an welcher Stelle das geschehen soll.

Speziell im Fertigungsumfeld – und damit auch auf der Hannover-Messe – spielt das Thema Predictive Maintenance eine immer wichtigere Rolle. Zu nennen sind hier beispielsweise der Use Case KONE, bei dem der Aufzug- und Rolltreppenhersteller mithilfe von Watson AI seine Außendienstmitarbeiter in die Lage versetzt, die notwendigen Wartungsarbeiten noch besser steuern und planen zu können. Hierfür stehen die notwendigen Informationen und Daten mithilfe von Watson AI bereits im Vorhinein zur Verfügung, mit denen sich Ausfälle von KONE-Anlagen präventiv vorhersagen lassen.

Das Interview mit Axel Rogaischus in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Rita Pleus über Sicherheitsvorkehrungen auf der IBM Mainframe

[Videochat] Rita Pleus (IBM) zu Sicherheitskonzepten auf Mainframe-Maschinen

Während der IBM Z-Roadshow habe ich dieses Interview mit Rita Pleus von IBM geführt. Darin spricht sie über die aktuelle Sicherheitslage, über die Sicherheitsebenen der Pervasive Encryption und über zuverlässige Sicherheitskonzepte.

„Wie schätzen Sie die aktuelle IT-Sicherheitslage ein?“

Laut Rita Pleus ist dieses Thema ein äußerst komplexes, und je nachdem, wen man fragt, wird es unterschiedlich bewertet. So zeigt beispielsweise das BSI (Bundesamt für Sicherheit in der Informationstechnik) in seinem Bericht zur Lage der IT-Sicherheit in Deutschland, dass aufgrund der „zunehmenden Digitalisierung und Vernetzung durch Entwicklungen wie dem Internet der Dinge, Industrie 4.0 oder Smart Everything Cyber-Angreifern fast täglich neue Angriffsflächen“ geboten werden. Hinzu kommen zahlreiche regulatorische Vorschriften wie die DSGVO und der PSIDSS, die natürlich auch von IBM-Kunden eingehalten werden müssen.

Doch sollte das Thema Sicherheit im eigenen Unternehmen laut Frau Pleus nicht ausschließlich von diesen und anderen Vorschriften bestimmt werden, sondern auch aus der Erkenntnis heraus entstehen, dass IT-Security ein allumfassendes Thema sein sollte, zu dem unter anderem das Thema Datenverschlüsselung zählt.

„Auf welchen Ebenen findet Pervasive Encryption statt?“

Das mit der IBM z14 eingeführte Sicherheitskonzept Pervasive Encryption ist ja kein Produkt, wie Rita Pleus im Interview klarstellt. Es handelt sich vielmehr um eine fundierte Strategie, die auf allen Ebenen der Mainframe seinen jeweiligen Beitrag zur Sicherheit beiträgt. Das beginnt ganz unten auf der Hardware-Schicht, wo dedizierte Hardware-Module mit z/OS-Features wie CP Assist for Cryptographic Functions (CPACF) für explizite Sicherheit sorgen, aber auch Kryptokarten kommen hierfür zum Einsatz. Beides stellt laut Rita eine solide Grundlage für Pervasive Encryption dar, da die Hardware die Sicherheitsmaßnahmen erheblich beschleunigt.

httpss://twitter.com/mhuelskoetter/status/986989333377888256

Wichtig sind aber auch die gespeicherte Daten in diesem Kontext. Hierfür kommt eine mehrstufige Datenverschlüsselung zum Tragen, was bei IBM unter dem Begriff Data Set Encryption läuft. Damit lassen sich vor allem Daten anhand der Anwendungen oder logischen Datenhaltung trennen, je nachdem, welche Schlüssel für das Encryption-Verfahren eingesetzt werden. Hinzu kommen weitere Möglichkeiten der Verschlüsselung, zum Beispiel auf Cluster- und Netzwerkebene, mit der sich sehr transparent zeigen lässt, welche Daten gerade verschlüsselt werden – und welche nicht.

Wichtig ist aber auch das Thema Secure Service Container, mit dem das Verschlüsseln virtueller Umgebungen möglich ist. Hierfür bietet die IBM z14 ZR1 insgesamt 40 LPARs, mit denen virtuelle Bereiche geschaffen werden können, in denen sich verschlüsselte Container mit all ihren Daten und Anwendungen sehr sicher befinden.

Schließlich weist Rita Pleus noch auf das äußerst wichtige Schlüsselmanagement hin, das eine profunde Grundlage für das Verschlüsseln der Daten darstellt. Denn nur wenn das zugehörige Managementtool sicherstellt, dass Schlüssel über einen längeren Zeitraum valide und verfügbar sind, kann Pervasive Encryption zuverlässig funktionieren.

httpss://twitter.com/mhuelskoetter/status/986992404166258688

„Was gehört denn noch zu einem guten Sicherheitskonzept?“

Neben den aufgezeigten Features, die allesamt unter dem Begriff Pervasive Encryption zusammengefasst werden, hält Rita Pleus obendrein das Thema Identity Management für unabdingbar, wenn es um sichere Mainframe-Umgebungen geht. Denn nur wenn sichergestellt werden kann, dass ausschließlich bestimmte Anwender oder Anwendergruppen auf klar definierte IT- und Datenbereiche zugreifen dürfen, funktioniert das IT-Sicherheitskonzept vollumfänglich. Dies kann beispielsweise mithilfe einer Mehrfaktor-Authentifizierung erreicht werden, so wie sie IBM versteht und ihren Kunden zur Verfügung stellt.

Das Interview mit Rita Pleus in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Andreas Thomasch über IBM z14 ZR1 und ihre Roadshow

[Videochat] Andreas Thomasch (IBM) über IBM z14 ZR1 und ihre Roadshow

Anlässlich der Markteinführung der IBM-Mainframe z14 ZR1 veranstaltete IBM Deutschland eine Z-Roadshow, die an drei Orten stattfand. Und zwar in Köln, Frankfurt und München. Für die beiden letztgenannten hat mich IBM als Videoblogger engagiert. Nachdem ich beide Rückblicksbeiträge aus Frankfurt und München veröffentlicht habe, folgt an dieser Stelle das erste Interview, und zwar mit Andreas Thomasch, der für das Gesamtgeschäft der Z-Plattform in DACH (Deutschland, Österreich und Schweiz) zuständig ist.

Während unseres Videogesprächs wollte ich drei Dinge von ihm wissen:

  1. Warum hat IBM die z14 geschrumpft?

  2. Warum bietet die IBM z14 ZR1 „Luft nach oben“?

  3. Wie kam das Z-Event bei den Kunden an?

Die Antwort der ersten Frage hat viel damit zu tun, dass IBM mit ihren Kunden spricht und das Gehörte dann auch in neue Produkte einfließen lässt, so wie das mit der IBM z14 ZR1 der Fall ist. Denn bestehende Z-Kunden sprachen sich für einen neuen Formfaktor aus, der besser in ihr Rechenzentrum passt. Und hat IBM die IBM z14 mit ihrer 24-Zoll-Stellfläche „einfach“ mal „geschrumpft“ und sie in ein Standard-19-Zoll-Format überführt.

httpss://twitter.com/mhuelskoetter/status/986967368327888896

Damit nimmt die ZR1 deutlich weniger Platz in Anspruch und passt besser in aktuelle Rechenzentren, in denen 19-Zoll-Racks gang und gäbe sind. Hierfür mussten allerdings ein paar Dinge wie die Kühltechnik, etc. angepasst werden, damit ein Hochleistungsrechner wie die IBM Z in einem reduzierten Serverschrank Platz hat. So wurde beispielsweise die z14 einmal komplett „gespiegelt“: Soll heißen, dass sich die Lüfter, etc. jetzt an der Vorderseite der Mainframe befinden und sämtliche IO-Shields und andere Komponenten auf der Rückseite, was eine veränderte Luftzirkulation zur Folge hat.

„Warum bietet die IBM z14 ZR1 ‚viel Luft nach oben‘?“

 

Mit der zweiten Frage spielte ich auf den freien Platz an, den die IBM z14 ZR1 oberhalb der verbauten Standardkomponenten bietet. Genauer gesagt handelt es sich um zweimal 8 Höheneinheiten, die sich relativ beliebig vom Z-Kunden nutzen lassen. Doch was ist das im einzelnen? Nun, laut Andreas Thomasch findet dort Erweiterungshardware seinen Platz, was ebenfalls dem Wunsch vieler Kunden nach einer höheren Packungsdichte entspricht. In den 16U-Erweiterungsplätze finden Komponenten für den Anschluss an ein Storage Area Network (SAN) genauso Platz wie Speichereinheiten vom Typ Flash oder Standard-Festplatten.

httpss://twitter.com/mhuelskoetter/status/986972018041065472

Auch diese Verbesserung der IBM z14 ZR1 sorgt für eine weitere Platzersparnis, da die zusätzlichen Komponenten im selben Rack untergebracht werden können. Also spielt auch an dieser Stelle das Thema Packungsdichte und die damit verbundene Kostenersparnis eine wesentliche Rolle, was gerade in Zeiten schrumpfender IT-Budgets ein wesentlicher Faktor ist.

„Wie kam das Z-Event-Format bei Ihren Kunden an?“

Die Entscheidung seitens IBM, die Roadshow an drei verschiedenen Locations durchzuführen und damit näher an die Kunden heranzurücken, kam laut Andreas Thomasch sehr gut an. Denn so bestand die Möglichkeit, in einem kleinen, überschaubaren Kreis erste Themen direkt zu besprechen und sich mit den IBM-Experten vor Ort intensiv auszutauschen.

Aber auch das Halbtagesformat mit kurzen Vorträgen war aus Kundensicht die richtige Entscheidung. Zumal das Ende der Veranstaltung auf den Abend fiel und man das Ganze bei einem schönen Kaltgetränk und leckeren Häppchen entspannt ausklingen lassen konnte. Und das ist ja schließlich auch wichtig.

Das Interview mit Andreas Thomasch in voller Länge

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

IBM z14 ZR1 (links) vs. IBM z14 (rechts)

Rückschau: IBM Z-Roadshow in Frankfurt und München (Teil 2)

Letzte Woche fand die IBM Z-Roadshow an drei Orten statt, nämlich in Köln, Frankfurt und München. Über Frankfurt habe ich in Form von Tweets und ergänzenden Informationen bereits berichtet, heute ist München an der Reihe.

httpss://twitter.com/mhuelskoetter/status/986962839238782976

Bemerkenswert fand Andreas Thomasch während seines Vortrags unter anderem, dass die CEO von IBM, Ginni Rometty, eigens einen Brief zum Jahresbericht verfasst hat, in dem sie explizit das Thema Mainframe aufgreift. Das stimmte ihn sehr zuversichtlich, dass Transaktionsrechner wie die IBM z14 weiterhin hoch im Kurs bei IBM stehen.

httpss://twitter.com/mhuelskoetter/status/986964011928489984

Das belegt unter anderem folgende Grafik, aus der sehr gut hervorgeht, dass die zusätzliche CPU-Last auf Mainframes zunehmend von Applikationen beansprucht wird, die nicht aus der Rubrik „Standard-Apps“ stammen, sondern von neuen Anwendungen, die man auf den ersten Blick nicht unbedingt dem klassischen Mainframe-Rechner zuordnen würde.

httpss://twitter.com/mhuelskoetter/status/986965283293278208

Auf Andreas Thomasch folgt Christine Axnix vom Böblinger IBM-Labor, die auf der eher technischen Ebene über die neuen IBM z14 ZR1 sprach.

httpss://twitter.com/mhuelskoetter/status/986965943329984512

Als erstes ging sie auf die offensichtlichste Änderung der neue IBM z14 ZR1 ein, nämlich den neuen Formfaktor. Da zahlreiche Kunden den großen Drang verspürten, IBM-Mainframes der Z-Serie künftig in Standard-Rechenzentren zu nutzen, hat sich IBM dieses Themas angenommen und baut die neue Mainframe-Maschine mit dem Zusatz ZR1 im 19-Zoll-Format. Das spart nicht nur Platz, sondern ermöglicht obendrein neue Optionen.

httpss://twitter.com/mhuelskoetter/status/986967368327888896

Für das Absichern virtueller Maschinen auf Basis der IBM z14 (und davon sind immerhin bis zu 40 auf einer Maschine möglich), hat sich IBM etwas ganz Besonderes ausgedacht: den IBM Secure Service Container. Damit lassen sich ab sofort Cloud-basierte Anwendungen auf der Mainframe installieren, die dort in einem vollständig abgesicherten Raum ausgeführt werden. Das sorgt unter anderem für eine erhöhte Sicherheitsstufe, da Malware und andere Schadsoftware keinen Weg in die Anwendungen findet.

httpss://twitter.com/mhuelskoetter/status/986969677128663040

Interessant an der IBM z14 ZR1 ist auch der freie Platz, der sich oberhalb der verbauten Komponenten befindet. Dabei handelt es sich um insgesamt 16 Höheneinheiten, die sich auf ganz unterschiedliche Weise nutzen lassen. So kann darin beispielsweise eine SAN-Appliance vom Typ SAN512B untergebracht werden, aber auch ein Flash-System der Marke IBM FlashSystem A9000 findet dort seinen Platz. Neben reinen IBM-Erweiterungen können in die 16 Höheneinheiten auch Hardware anderer Hersteller eingesetzt werden.

httpss://twitter.com/mhuelskoetter/status/986972018041065472

Nach Christine Axnix enterte Gonzalo Muelas Serrano die Bühne, um ein wenig über z/VSE und Linux on Z zu sprechen.

httpss://twitter.com/mhuelskoetter/status/986974107827933185

httpss://twitter.com/mhuelskoetter/status/986975762342383621

httpss://twitter.com/mhuelskoetter/status/986978809097400320

Danach präsentierte Rita Pleus ihre Sicht der Dinge in Sachen Sicherheit, die auf Mainframe-Rechnern eine ganz besondere Rolle einnimmt.

httpss://twitter.com/mhuelskoetter/status/986987570532896768

So zeigte sie anhand der folgenden Grafik, dass es sich bei dem Verschlüsselungskonzept „Pervasive Encryption“ um einen ganzheitlichen Ansatz handelt, der bei einer dedizierten Hardware-Lösung beginnt und beim ausgefeilten Schlüsselmanagement endet. Darüber hat Rita mit mir am Ende der Veranstaltung in Form eines Videointerviews gesprochen.

httpss://twitter.com/mhuelskoetter/status/986989333377888256

httpss://twitter.com/mhuelskoetter/status/986990465089200128

httpss://twitter.com/mhuelskoetter/status/986992404166258688

Rita Pleus weist im Video ausdrücklich darauf hin, dass Sicherheit nicht nur eine Frage der Verschlüsselung ist, sondern dahinter immer ein ganzheitlicher Ansatz steht. So sollte man sich vor allem ganz zu Anfang gut überlegen, wie weit die Sicherheit der eigenen IT reichen soll. Denn daran orientieren sich die Maßnahmen, die dann ergriffen werden.

httpss://twitter.com/mhuelskoetter/status/986991407159267328

httpss://twitter.com/mhuelskoetter/status/986993493108240385

Auf Rita folgte Michael Störchle, der anhand seines Vortrags zeigen wollte, welche Möglichkeiten eine Mainframe-Maschine wie die IBM z14 im Cloud-Zeitalter bietet.

httpss://twitter.com/mhuelskoetter/status/986994732185407489

Um zu belegen, warum es gerade für Betreiber von Mainframe-Anlagen immer wichtiger wird, auch Cloud-Applikationen anbieten zu können, präsentierte er Studienergebnisse, die zum einen belegen, dass 80 Prozent von IT-Entscheidern mittlerweile auf eine Kombination aus traditionellen Anwendungen und Cloud-Applikationen setzen. Und zum anderen bestätigen 90 Prozent großer Unternehmen, dass hybride Cloud-Infrastrukturen einen besseren ROI aufweisen als die typischen OnPrem- oder Cloud-only-Ansätze.

httpss://twitter.com/mhuelskoetter/status/986995522463559680

Damit das auf einer IBM-Mainframe möglichst einfach und ohne größeren Programmieraufwand gelingen kann, steht mit z/OSMF ein Tool zur Verfügung, das die unkomplizierte Bereitstellung von Cloud-Services auf IBM Z quasi per Mausklick erlaubt.

httpss://twitter.com/mhuelskoetter/status/986996540710506497

Damit werden native Cloud-Apps auf einer IBM Z-Maschine möglich, und das sogar unter Linux mit all seinen Techniken und Technologien wie Dockers, Kubernetes, openstack, Chef, etc. Somit lassen sich obendrein klassische Transaktionsanwendungen und Cloud-Applikationen nahtlos miteinander verbinden, was sich günstig auf die erforderliche Netzwerkbandbreite sowie deren Geschwindigkeit und Latenzen auswirkt.

httpss://twitter.com/mhuelskoetter/status/986998074957615106

Den Abschluss eines sehr informativen Z-Nachmittags bildete der Vortrags von Khadija Souissi, die ein wenig über das sehr interessante Thema Machine Learning referierte. Mit ihr habe ich ebenfalls ein Interview geführt, das sich am Ende dieses Beitrags befindet.

httpss://twitter.com/mhuelskoetter/status/987000557608022016

Gleich zu Anfang präsentierte sie eine ziemlich beeindruckende Zahl, die etwas über die Menge an Daten aussagt, die täglich auf Mainframe-Rechnern verarbeitet werden. Und wenn man dann bedenkt, dass aktuell gerade einmal 10 Prozent dieser riesigen Datenmengen sinnvoll genutzt werden, kann man sich ganz leicht die Auswirkungen vorstellen, die das richtige Analysieren und Einsetzen dieser Daten hat.

httpss://twitter.com/mhuelskoetter/status/987001975781937152

Um das bestmögliche Auswerten dieser Daten zu ermöglichen, bietet IBM für seine Mainframe-Maschinen ein Tool, das sich Db2 Analytics Accelerator bietet. Damit lassen sich die Daten auf dem Mainframe-Rechner direkt erfassen und analysieren, und das ohne aufwändiges Hin- und Her-Kopieren, da das Ganze direkt auf der Mainframe geschieht.

httpss://twitter.com/mhuelskoetter/status/987003839151779840

Da das Analysieren und Bewerten großer Datenmengen künftig immer häufiger mithilfe von KI-Algorithmen vonstatten geht, bietet IBM mit Machine Learning for z/OS ein Tool, das genau diese Aufgaben direkt auf dem Mainframe-Rechner à la IBM Z übernimmt. Damit lassen sich beispielsweise bestimmte Anomalien, die während einer Banktransaktion auftreten, noch schneller aufspüren. Was zu noch mehr Sicherheit führt. Auch darüber hat Khadija Souissi im folgenden Interview gesprochen.

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

IBM z14 ZR1 (links) vs. IBM z14 (rechts)

Rückschau: IBM Z-Roadshow in Frankfurt und München (Teil 1) [Update]

Letzte Woche hat IBM an drei Orten ihre Kunden einzuladen, um über Neues in Sachen Mainframe zu berichten. Genauer gesagt handelte es sich um ein „Major Update“, den die IBM z14 betrifft, bei deren Einführung im Juli 2017 ich ebenfalls zugegen war. Und so durfte ich auch dieses Jahr wieder dabei sein, wie Andreas Thomasch in gewohnt eloquenter Art durch den Nachmittag führte. Und das in Köln, Frankfurt und München.

httpss://twitter.com/mhuelskoetter/status/986600111869431808

Update: Mit Andreas Thomasch durfte ich folgendes Videointerview führen. Weitere Infos dazu gibt es in einem weiteren Blogbeitrag.

Das Frankfurt-Event fand in einem perfekten Ambiente statt, und zwar im Westhafen Pier 1, einer Event-Location, die für diese Art der Veranstaltung bestens geeignet ist. Und die nähere Umgebung war auch nicht wirklich verachtenswert.

httpss://twitter.com/mhuelskoetter/status/986585774584889344

Den Anfang der Z-Sessions machte Christine Axnix, die im Böblinger IBM-Labor arbeitet und dort für das Thema Firmware zuständig ist. Klar, dass sie aus berufenem Munde über die Entwicklung der neuen IBM z14 vom Typ ZR1 berichtete. Schließlich waren die Kolleginnen und Kollegen dort maßgeblich an der Mainframe-Maschine im 19-Zoll-Format beteiligt (und arbeiten bereits an den Nachfolgern dieses Transaktionsrechners).

httpss://twitter.com/mhuelskoetter/status/986603179000451072

Den ersten Schwerpunkt setzte Frau Axnix auf die technischen Details der IBM z14 ZR1, die ich in einem Blogbeitrag bereits zusammengefasst habe.

httpss://twitter.com/mhuelskoetter/status/986605103879720961

Darüber hinaus widmete sie sich auch den maßgeblichen Anwendungsszenarien, zu denen natürlich die Analysen großer Datenmengen gehören. Dabei sind vor allem die Aspekte Datenschutz, Datenzugrifff und Datenteilung von entscheidender Bedeutung. Zu diesen Teilbereichen leisten zahlreiche IBM-Techniken und -Technologien einen wesentlichen Beitrag.

httpss://twitter.com/mhuelskoetter/status/986606564428668928

Zu den offensichtlichsten Neuerungen der IBM z14 ZR1 zählen vor allem zwei Dinge: Zum einen wurde der Formfaktor von 24 Zoll auf 19 Zoll geschrumpft, womit die neue IBM-Mainframe deutlich weniger Platz beansprucht und eine Standard-RZ-Größe bietet. Darüber hinaus lässt sich die IBM z14 ZR1 problemlos erweitern, wofür zweimal acht Höheneinheiten, also 16U zur Verfügung stehen.

httpss://twitter.com/mhuelskoetter/status/986608507733643266

Auf Christine Axnix folgte Gonzalo Muelas Serrano, der über sein Lieblingsthema sprach, nämlich z/VSE.

httpss://twitter.com/mhuelskoetter/status/986610084053704706

httpss://twitter.com/mhuelskoetter/status/986611439447236608

Aber auch Linux auf der IBM z14 kommt immer häufiger zum Einsatz, weswegen sich Herr Serrano ebenfalls diesem Thema widmete. Wichtigste Erkenntnisse hierbei: Linux on Z bringt all die Vorteile mit sich, die man von Linux kennt – und darüber hinaus.

httpss://twitter.com/mhuelskoetter/status/986612604733927424

httpss://twitter.com/mhuelskoetter/status/986613557163974657

httpss://twitter.com/mhuelskoetter/status/986614535925706752

Nach Herrn Serrano stellte Thomas Hanicke das Thema Sicherheit auf und mit Z-Mainframes vor.

httpss://twitter.com/mhuelskoetter/status/986624171366146049

Dabei kam natürlich unter anderem das Thema Pervasive Encryption zur Sprache. Damit soll auf einer IBM-Mainframe ein vollumfänglicher Schutz sichergestellt werden. Dazu gehören Themen wie Krypto-Hardware, Clustering- und Netzwerk-Schutz, sichere Service-Container und Schlüsselverwaltung.

httpss://twitter.com/mhuelskoetter/status/986624880287408129

Für den richtigen Umgang mit den einzelnen Pervasive Encryption-Bereichen hat IBM eigens eine Software entwickelt, die sich IBM zSecure Admin nennt.

httpss://twitter.com/mhuelskoetter/status/986627068975898630

Nach so viel Sicherheit ging es dann um die Frage, ob die Mainframe im 21. Jahrhundert angekommen ist, sprich auch als Cloud-Maschine taugt. Vorgetragen wurde dieses Thema auf sehr unterhaltsame und lockere Art von Tobias Leicher.

Update: Mit Tobias Leicher durfte ich folgendes Videointerview führen. Weitere Infos dazu gibt es in einem weiteren Blogbeitrag.

httpss://twitter.com/mhuelskoetter/status/986629257588862976

httpss://twitter.com/mhuelskoetter/status/986632437932478464

httpss://twitter.com/mhuelskoetter/status/986634158758916098

Den Abschluss des Frankfurt-Events bildete dann ein Vortrag von Khadija Souissi, die eine Menge über Machine Learning zu berichten hatte. Auch mit Frau Souissi durfte ich ein Videointerview führen.

httpss://twitter.com/mhuelskoetter/status/986635810089979904

Die wichtigste Erkenntnis dieser Techsession lautete: IBM hat ein breites Angebot rund Machine Learning auf der IBM Z-Maschine in petto, das sich vor allem an die Datenbank-Anwendung Db2 unter z/OS wendet. Hierzu gehören Tools wie Db2 for z/OS, Db2 Analytics Accelerator, Data Virtualization Manager for z/OS, Machine Learning for z/OS und QMF for z/OS.

httpss://twitter.com/mhuelskoetter/status/986637619605004288

So bietet beispielsweise der Db2 Analytics Accelerator die Möglichkeit, auf ein und derselben Maschine, nämlich der Mainframe, Datentransaktionen durchzuführen und diese gleichzeitig zu analysieren und bewerten. Damit müssen sämtliche Daten erst gar nicht umständlich von einem auf den anderen Rechner transferiert werden, was enorme Zeit- und Kostenersparnisse mit sich bringt.

httpss://twitter.com/mhuelskoetter/status/986638711738728448

Bemerkenswert an dem Software-Tool „Machine Learning for z/OS“ ist die Tatsache, dass es von IBM Watson auf die Mainframe portiert wurde. Damit stehen die bekannten Funktionen und Sprachen wie Scala, Python und R auf IBM z14 und Co. für Machine Learning zur Verfügung.

httpss://twitter.com/mhuelskoetter/status/986639611182112768

Schick am IBM Data Virtualization Manager for z/OS ist dessen Fähigkeit, nahezu sämtliche Datenformate und -quellen für die Analyse derselben nutzen zu können. Damit lassen sich Machine-Learning-Algortihmen nahezu beliebig auf der Mainframe ausführen.

TIPP: Lesen Sie morgen den zweiten Teil der IBM Z-Roadshow und welche bemerkenswerte Vorträge in München geboten wurden.

Disclaimer: Für diesen Blogpost hat mich IBM Deutschland als Blogger engagiert.

3DEXPERIENCE-Plattform von Dassault Systèmes auf einen Blick

Dassault Systèmes auf der Hannover-Messe: Simulationen aller Art

Erst vorgestern hatte ich angekündigt, mit dem ein oder anderen Aussteller während der Hannover-Messe 2018 das ein oder andere Videointerview zu führen. Da sich heute freundlicherweise die PR-Agentur von Dassault Systèmes bei mir zwecks Terminvereinbarung gemeldet hat, folgt zu meinem geplanten Treffen dieser kurze Beitrag.

Dassault Systèmes wurde 1981 in Frankreich gegründet und ist auf Software spezialisiert. Die Firma besitzt eine eigene Plattform, die sich 3DExperience nennt, auf der zahlreiche Anwendungen basieren. Dazu gehören unter anderem CATIA, ENOVIA und SIMULIA. Und genau über Letztgenannte möchte ich in Hannover mit einem der zuständigen Experten sprechen. Doch was hat es damit genau auf sich?

Nun, wie der Name schon vermuten lässt, ermöglicht SIMULIA 3D-basierte, virtuelle Simulationen auf Hochleistungsrechnern, und das über zahlreiche Anwendungsfelder hinweg. Dazu zählen unter anderem:

Luft- und Raumfahrt: Hier wird SIMIULIA in die Entwicklungsumgebung derart integriert, dass sich beispielsweise zu einem frühen Zeitpunkt zeigen lässt, wie sich veränderte Konstruktionen günstig oder weniger günstig auf den Luftantrieb einer Flugzeugturbine auswirken oder wie sich das Fahrwerk einer Boing unter ganz bestimmten Umgebungsverhältnissen verhält.

Architektur und Bauwesen: Wie wirkt sich ein Unwetter auf die Stahlkonstruktion der geplanten 2-Mrd-Brücke aus? Mit welchen Schäden ist zu rechnen, wenn der neue 200-Stockwerk-Tower einem Erdbeben ausgesetzt wird? Diese und weitere Fragen beantwortet SIMULIA direkt am Rechner, sodass das Risiko von Fehlkonstruktion aufwändiger Projekte erheblich verringert werden kann.

Verbrauchsgüter: Gerade in Zeiten heftiger Diskussion rund um zunehmende und nicht mehr beherrschbare Plastikmüllhalden, die unsere Meere fluten, sind neue Materialien gefragter denn je. Doch wie wirkt sich ein neuer Verbundstoff auf die  Festigkeit einer Flasche aus, und welche Risiken gehen für die Verbraucher damit einher? Diesen und anderen Unwägbarkeiten soll man mit einem Tool wie SIMULIA auf die Schliche kommen. Hoffentlich zum Wohle unseres Planeten.

Energie- und Prozesstechnik: Das, was für den Plastikmüll gilt, lässt sich auf erneuerbare Energiengleichermaßen anwenden. Denn auch hier drängen sich zahlreiche Fragen bei der Konstruktion neuer Anwendungen auf: Wie wirken sich die zunehmend veränderten klimatischen Verhältnisse auf Energieerzeuger wie Windräder und Solarkollektoren aus? Welchen Einfluss hat die Korrosion von Salzwasser auf Erdgas-Pipelines? Mit welchen Bruchrisiken müssen Betreiber von Kraftwerken aufgrund veränderter thermischer Belastungen rechnen? Diese und weitere Fragen soll ebenfalls SIMULIA beantworten.

Das sind nur vier von zahlreichen Anwendungsbereichen, in denen SIMULIA zum Einsatz kommt. Bin schon sehr gespannt, was ich darüber auf der Hannover-Messe alles erfahren werde. Welche Fragen würdet ihr Dassault Systèmes stellen?

Allianz Arena des FC Bayern setzt auf intelligente Technik von Siemens

FC Bayern und Siemens MindSphere, ein IoT-Gespann

Gerade habe ich über den geplanten Hannover-Messe-Auftritt der Software AG und Siemens berichtet, und schon kommt eine Geschichte daher, die mich als Anhänger des FC Bayern natürlich hellhörig gemacht hat.

So will der erfolgreichste Fußballverein Deutschlands (erst am vergangenen Samstag wurde die 28. Deutsche Meisterschaft im Fußball eingetütet) mithilfe von ausgeklügelten Analysetechniken und damit verbundenen Vorhersagen noch erfolgreicher werden.

Siemens MindSphere sorgt für den schönen Rasen der Allianz Arena

Die Rede ist von der richtigen Rasenpflege, die in der heimischen Allianz-Arena nicht ganz trivial ist (in der morgen das sehr wichtige Rückspiel gegen den FC Sevilla um den Einzug ins Champions-League-Halbfinale stattfindet). Da aufgrund der Stadionarchitektur nicht genügend Sonnenlicht auf das Geläuf fällt, wird mithilfe einer speziellen Konstruktion und ganz viel Software dafür gesorgt, dass die fehlenden Sonnenstunden künstlich erzeugt werden.

Und genau an dieser Stelle kommt die Firma Siemens zum Einsatz, die mithilfe ihres IoT-Betriebssystems Mindsphere dafür sorgen will, dass anhand von Sensordaten immer genau die richtige Portion Sonnenlicht generiert wird, die für das optimale Wachstum des FC-Bayern-Rasens erforderlich ist. Genauso werden aber auch erforderliche Wassermengen zum Bewässern des Rasens sowie die richtige Menge an Düngemittel berechnet und automatisiert bereitgestellt.

Hierfür wurde eine Anwendung geschrieben, die auf Siemens MindSphere basiert und die für den schönsten und grünsten Rasen weit und breit sorgen soll. Und da mithilfe von Künstlicher Intelligenz das Greenkeeping (sprich: die Rasenpflege) in Zukunft weiter verbessert werden kann, soll diese Technik in den Heiligen Hallen des FC Bayern München ebenfalls Einzug halten.

Ende des Parkhaus-Chaos? Wer weiß…

Doch das ist laut des FC Bayern und Siemens noch nicht alles. So soll es künftig mithilfe von IoT möglich sein, Besucher anhand von Sensordaten stets zum nächstgelegenen Getränke- und Essensausschank zu leiten, an dem gerade am wenigsten los ist. Doch ob das Internet der Dinge dafür sorgen kann, dass nicht nach jedem Bayern-Spiel im Parkhaus das große Chaos ausbricht, bleibt dahin gestellt. Aber wer weiß, was mit MindSphere und IoT noch alles möglich sein wird.

Piyush Chaudhary über IBM Spectrum Scale und Hadoop

[Videochat] „Autonomes Fahren profitiert von IBM Spectrum Scale und Hadoop“

Piyush Chaudhary (Kurzform: PC) ist ein äußerst erfahrener Software-Entwickler mit einer ansehnlichen IBM-Historie. Aus diesem Grund war es mir eine besonders große Freude, das nachfolgende Interview führen zu dürfen, in dem er eine ganze Menge über IBM Spectrum Scale im Allgemeinen sowie Spectrum Scale in Kombination mit Hadoop erzählt.

Zunächst einmal wollte ich gerne wissen, wovon PCs Vortrag während der IBM Spectrum Scale Strategy Days 2018 handelte.

httpss://twitter.com/mhuelskoetter/status/968783445257261056

Wenig überraschend sprach Piyush darin über die Kombination „IBM Spectrum Scale und Hadoop“, über die damit in Verbindung stehende Zusammenarbeit mit der Firma Hortonworks und präsentierte Anwendungsbeispiele, wie Hadoop-Lösungen von Hortonworks in Kombination mit IBM Spectrum Scale vielen Anwendern bei ihren Big-Data-Herausforderungen helfen.

Hortonworks Hadoop + IBM Spectrum Scale = High-Performance-Gespann

Um besser zu verstehen, was es mit IBM Spectrum Scale und Hadoop auf sich hat, wollte ich gerne den Zusammenhang zwischen beiden Techniken besser verstehen. Um es sowohl Hortonworks- als auch IBM-Anwendern so einfach wie möglich zu machen, bedient sich IBM eines relativ simplen Tricks.

So stellt IBM Spectrum Scale eine transparente Schicht zwischen der Storage-Hardware und dem Hadoop-eigenen Dateisystem HDFS (Hadoop Data File System) dar. Damit lassen sich Hadoop-Anwendungen innerhalb einer Spectrum Scale-basierten Storage-Umgebung nahezu ohne größere Anpassungen nutzen.

httpss://twitter.com/mhuelskoetter/status/968784138567323648

Was das für reale Hadoop-Spectrum-Scale-Anwendungen bedeutet, konnte PC anhand eines sehr prominenten Beispiels verdeutlichen. So setzt ein renommierter Automobilhersteller diese Analyse-Lösung im Bereich des autonomen Fahrens ein. Damit lassen sich die riesigen Datenmengen, die aufgrund der zahlreichen Sensoren innerhalb von fahrerlosen Fahrzeugen anfallen, blitzschnell und zuverlässig verarbeiten, speichern, analysieren und weiterverwenden.

Autonomes Fahren profitiert von Hadoop und IBM Spectrum Scale

Gerade beim Einspeisen der Sensordaten in die zugrunde liegenden Storagesysteme hilft die Kombination aus Spectrum Scale und Hadoop enorm, da die bereitgestellten Daten unmittelbar analysiert werden können, was wiederum Rückschlüsse in nahezu Echtzeit erlaubt. Die somit ermittelten Daten lassen sich zudem in völlig anderen Anwendungsszenarien nutzen, wie zum Beispiel in Simulatoren. Diese sollen zum Beispiel zeigen, wie sich die Verhaltensweisen der autonomen Fahrzeugen künftig verbessern lassen. An dieser Stelle können zusätzlich KI-Algorithmen dafür sorgen, dass die Simulatoren mithilfe der analysierten und aufbereiteten Datenbestände permanent bessere und zuverlässigere Ergebnisse hervorbringen.

Das Interview mit PC in voller Länge

 

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Peter Ratuschni, Dt. Nationalbibliothek, über IBM Spectrum Scale

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

Auf dem großen IBM Spectrum Scale Strategy Days-Event hatte ich die Gelegenheit, dieses Videointerview mit Peter Ratuschni von der Deutschen Nationalbibliothek zu führen. Darin spricht er von gesetzlichen Verpflichtungen, großen Datenmengen sowie interessanten und wichtigen Gesprächen mit IBM-Entwicklern zum Thema Software-definded Storage.

Da Herr Ratuschni für den gesamten IT-Bereich der Dt. Nationalbibliothek verantwortlich ist, trafen er und sein Team die Entscheidung, IBM Spectrum Scale für den Storage-Fuhrpark einzusetzen. Und das aus diversen Gründen. So hat die Dt. Nationalbibliothek den gesetzlichen Auftrag, sämtliche Publikationen in Deutschland für die Nachwelt zu archivieren und zu wissenschaftlichen Zwecken zur Verfügung zu stellen. Da auf diese Weise große Datenmengen zustande kommen, setzt die Dt. Nationalbibliothek zwei IBM-Speichersysteme vom Typ Elasctic Storage Server zu Präsentationszwecken ein, auf denen IBM Spectrum Scale implementiert wurde.

Schneller Datenzugriff mit eindeutigen Dateipfaden – das ermöglicht IBM Spectrum Scale

Diese Kombination führt laut Herrn Ratuschni zu verzögerungsfreien Zugriffen auf beliebige elektronische Dokumente innerhalb der riesigen Datenbestände der Dt. Nationalbibliothek. Doch nicht nur das schnelle Bereitstellen der gewünschte Objekte steht im Vordergrund, sondern auch der garantierte Zugriff über stets dieselben Dateipfade, was mit IBM Spectrum Scale ermöglicht wird. In Ergänzung zu Spectrum Scale kommt in der Dt. Nationalbibliothek auch IBM Spectrum Protect zum Einsatz. Diese Datensicherungslösung von IBM zielt vor allem auf virtuelle Storage-Umgebungen ab, weswegen sich die Dt. Nationalbibliothek genau dafür entschieden hat.

„Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event“

Natürlich hat mich auch interessiert, warum Herr Ratuschni auf der IBM Spectrum Scale-Veranstaltung war. Bereits zum dritten Mal dabei, sieht er das Event als sehr gute Möglichkeit, alle Neuigkeiten rund um die Software-defined Storage-Lösung von IBM zu konsumieren. Obendrein schätzt er die Gelegenheit, mit IBM-Entwicklern aus Deutschland und den USA zu sprechen und so drängende Fragen zu klären. Zudem waren Veränderungen rund um den Spectrum Scale-Service für Herrn Ratuschni von großem Interesse, die ebenfalls auf dem Event vorgestellt wurden.

Dt. Nationalbibliothek, SVA und IBM – ein erprobtes Team

Interessant wurde es auch am Ende des Interviews, als die Zusammenarbeit zwischen der Dt. Nationalbibliothek und IBM ins Gespräch kam. So habe ich gelernt, dass die Firma SVA aus Wiesbaden (die ich auch schon unterstützen durfte), den Rahmenvertrag mit dem Bund in Sachen IBM-Storageprodukte inne hält. Daraus ergibt sich laut Herrn Ratuschni eine sehr gute Zusammenarbeit zwischen der Dt. Nationalbibliothek, IBM und SVA, was vor allem das Beschaffen und Bereitstellen benötigter Storage-Lösungen betrifft.

Das komplette Videointerview mit Peter Ratuschni in voller Länge

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Oliver Edinger von der Software AG zum Internet der Dinge

[Videochat] „Internet of Things ist hierzulande besser als sein Ruf!“

Internet of Things ist eines der zentralen und beherrschenden Themen der vergangenen und kommenden Jahre. Wen wundert es da, dass IDC Deutschland mittlerweile die dritte Umfrage dazu durchgeführt hat, um den Stand der Dinge in Sachen IoT in Deutschland abzuklopfen.

Bei der Vorstellung der Umfrageergebnisse durfte ich im Münchner Hotel Le Méridien dabei sein, und neben allerlei Tweets und einem Interview mit einem der Studienverantwortlichen habe ich auch dieses Videointerview mit Oliver Edinger von der Software AG geführt. Darin spricht er über die IoT-Plattform Cumulocity IoT, über größere und kleinere IoT-Projekte und wo Deutschland in Sachen Internet der Dinge steht.

Internet of Things ist hierzulande besser als sein Ruf

Und genau mit dieser Frage ging das Interview los. Die Meinung von Herr Edinger dazu war nicht so überraschend, sieht er den Wirtschaftsstandort Deutschland in puncto IoT besser aufgestellt, als dies von der breiten Öffentlichkeit im Allgemeinen wahrgenommen wird. Mehr noch: Er bewertet den hiesigen IoT-Markt im europäischen Vergleich ganz weit vorne, wenn man den Kenntnisstand rund um das IoT und das Umsetzen von realen Projekten betrachtet. Das deckt sich übrigens recht gut mit den Ergebnissen der IDC-IoT-Studie.

httpss://twitter.com/mhuelskoetter/status/974580406627524608

Dann wollte ich gerne wissen, was die IoT-Plattform Cumulocity alles Schönes kann, die bei der Software AG als die zentrale Software-Lösung für größere und kleinere IoT-Projekte zum Einsatz kommt. Damit ermöglicht Oliver Edinger und sein Team vor allem die vier großen „C“ des IoT, wie er sagt: Connect, Collect, Correlate und Consume, was die Daten innerhalb von IoT-Netzwerken betrifft.

Das tangiert innerhalb eines IoT-Projektes ganz unterschiedliche Ebenen: Seien es die vernetzten Geräte, die überwacht und ausgewertet werden sollen, oder die Analyse der gesammelten Daten oder das Bereitstellen der ausgewerteten Daten innerhalb der transaktionalen Systeme, was ja für spätere Vorhersagen und andere Dinge wichtig ist.

Cumulocity skaliert sehr gut und bietet ein umfangreiches Funktionsarsenal

Interessant fand ich auch die Aussage während Herrn Edingers Vortrag, dass Cumulocity sowohl in größeren als auch kleineren Projekten zum Einsatz kommt. Das hat laut seiner Aussage mit zwei Aspekten zu tun: Zum einen mit der Skalierbarkeit von Cumulocity und zum anderen mit dem vollständigen Funktionsumfang, den diese IoT-Plattform bietet. Damit lässt sich Cumulocity an die Bedürfnisse des Projektes jederzeit anpassen, also zum Beispiel neue Funktionen hinzufügen, aber auch wieder entfernen. Gerade eben so, wie es der Kunde wünscht und benötigt.

Daher gehören große Unternehmen wie die Deutsche Telekom genauso zu den Cumulocity-Anwendern wie kleinere Startup-Firmen wie zum Beispiel trackerando.

Das vollständige Interview mit Oliver Edinger in Bild und Ton