Cebit Brücke

Abgesang auf eine Messe: Lebe wohl, du Cebit!

2018 – 1992, das macht genau 27 Jahre. 27 mal Hin- und Rückfahrt nach Hannover. 27 mal Koffer ein- und wieder auspacken. 27 mal Cebit.

Ok, genau genommen waren es nur 26 mal Cebit, da ich tatsächlich 2013 nicht den Weg  in die niedersächsische Landeshauptstadt gefunden habe. Und schon dieses eine Mal war schmerzhaft für mich, und jetzt soll es ganz und gar vorbei sein?! Das kann und mag ich mir noch gar nicht vorstellen. Zumal die Cebit immer so etwas wie „nach Hause“ kommen bedeutete. Schließlich bin ich ganz in der Nähe von Hannover aufgewachsen.

Schmerzhaft? Da werden sicherlich die Augenbrauen des ein oder anderen Lesers noch oben wandern. Ja, ich mochte sie, diese viele Jahre lang größte Computermesse der Welt (auch wenn die Kolleg*innen von CES und Computex das auch nie so richtig glauben wollten). Und ich habe alle Phasen der Cebit mitgemacht. Die guten und die weniger guten.

1992: Für Intel als Spracherkennungsexperte

Angefangen hat das – wie gesagt – 1992. Damals habe ich noch studiert und war das erste Mal für Intel auf der Cebit. Dort habe ich eine Woche lang (zusammen mit meinem Bruder) die Faszination der PC-gestützten Spracherkennung zum Leben erweckt. So haben wir sieben Tage lang (inklusive Wochenende) immer und immer wieder den immer gleichen Text eingesprochen, und das Diktierprogramm (Dragon Dictate, das es in einer ähnlichen Form immer noch gibt) hat daraus Text gezaubert. Viele Besucher waren seinerzeit ziemlich beeindruckt ob der hohen Trefferquote. Was vor allem daran lag, dass die Software sehr gut trainiert war.

Das Jahr drauf habe ich das noch mal gemacht, und dieses Mal ganz alleine. Wieder habe ich eine Woche lang diktiert und diktiert und diktiert, sodass meine Stimme sieben Tage später eine ganze Oktave tiefer klang. Oder so ähnlich. Es hat auf jeden Fall wieder unfassbaren Spaß gemacht.

Das war übrigens die Zeit der legendären Standpartys. Da hat der Chef einer großen Elektronikmarktkette einfach mal so ein paar tausend D-Mark hingeblättert, damit die Fete weitergehen und die Leute weitertanzen konnten. Ja, auch das war immer mit sehr viel Spaß verbunden.

1995: Viele Tage und Nächte für Intel auf der Cebit

Ab 1995 war ich dann als festangestellter Intel-Mann auf der Cebit, und das war nicht immer Spaß. So waren ich und meine Kollegen (nur Männer) zwei Wochen lang in Hannover, um sicherzustellen, dass die komplette Hard- und Software nebst Netzwerktechnik am Intel-Stand funktionieren. Da waren viele Nachtschichten dabei, und am Ende lief immer alles wie am Schnürchen. Unvergessen sind auch hier die Partys, dieses Mal am eigenen Stand. Damals gab es diesen einen Spruch: „Work hard, dance hard!“. Und daran haben wir uns immer gehalten.

Die „Sunny Side“ der Cebit – als IT-Journalist

Dann, nach meinem Ausstieg bei Intel und meinem Einstieg in die Redaktionswelt, bot sich für mich  von der Cebit ein ganz neues Bild. Auf einmal gab es keine Nachtschichten mehr, auf einmal war ich der „Star“. Unvergessen sind die Toshiba-Zug-Fahrten nach Hannover, inklusive Verpflegung und Entertainment. Ok, die Unterkünfte waren bescheidener als zu meinen Intel-Zeiten, aber dafür wurde ich als Schreiberling hofiert und mit Geschenken bedacht. Ja, auch das war eine gute Zeit.

Das war auch die Zeit, als die Cebit noch so etwas wie ein alljährliches Klassentreffen war. So begab man sich im Laufe eines Tages mehrmals ins zentral gelegene Pressezentrum, um bei Kaffee oder Bier das ein oder andere Schwätzchen zu halten und sich mit den Kolleg*innen über die neuesten Neuigkeiten auf der Cebit auszutauschen. Das hatte immer etwas sehr Verbindendes.

Klar, das wurde nicht weniger, aber es hat sich in all den Jahren doch zusehends verändert. Die Kolleg*innen kamen immer seltener auf nach Hannover, weil die Redaktionen kleiner und kleiner wurden. Schon damals (ich spreche hier von Anfang/Mitte 2000) wurde der schleichende Abstieg bei den Besucherzahlen deutlich, was sich auch im abnehmenden Interesse seitens der IT-Verlage und -Journalist*innen widerspiegelte.

Cebit-Besucherzahlen 1986 bis 2013

Cebit-Besucherzahlen 1986 bis 2013

2006: Mein Leben als IT-Blogger und wieder eine neue Cebit-Zeitrechnung

Cebit Presseausweis2006 war ich dann zum ersten Mal als Blogger auf der Cebit, und es war großartig! Wir (Richard Joerges und ich) stellten unsere neu gegründete Blogplattform insight-infonet diversen Firmen vor, und es kam insgesamt sehr gut an. Richtig verdient haben wir damit zwar nie etwas, aber vor allem für mich war es der perfekte Einstieg in die Bloggerei. Von der ich ja bis heute seht gut leben kann.

Ein weiterer Wendepunkt in meiner Cebit-Historie war das Jahr 2014. Da war ich für IBM zum ersten Mal auf der Messe in Hannover und durfte dort zahlreiche Videointerviews mit IBM-Partnern und -Experten führen. Das war immer großartig und ich habe immer eine Menge gelernt. Dieser Trend ließ sich die Jahre danach weiter fortsetzen, und so war für mich die Cebit immer eine wichtige Veranstaltung, wenn es um das Akquirieren neuer Themen und neuer Kunden ging. Und ja, die Unterkünfte wurden in der Zeit auch wieder ein ganzes Stück besser. Auch dank AirBnB.

Cebit Unterkunft

2018 als Neuanfang – und dann doch das schnelle Aus

Um so erfreulicher und mutiger fand ich dann den Neuanfang der Cebit in diesem Jahr. Damit sollte so eine Art South by Southwest in Niedersachsen etabliert werden. Klar knirschte es noch an einigen Stellen, doch die ersten Schritte und Versuche in eine neue Cebit-Ära fand ich sehr ermutigend und richtig. Was sich vor allem im Zentralbereich rund um den EXPO Plaza widerspiegelte. Aber letzten Endes war das der Messegesellschaft wohl zu wenig – vor allem in Sachen Besucher- und Ausstellerzahlen. Aber so ist das halt, wenn man nur die Quantität, und nicht die Qualität einer Veranstaltung im Blick hat.

Mach’s gut, Cebit! War immer schön mit dir!

So bleibt mir nur noch zu sagen: Ich werde dich vermissen, Cebit, mit all deinen zahllosen Zufuß-Kilometern, deinen zu schlecht belüfteten Hallen, deinem zu ungesunden Essen. Und vor allem werde ich die zahlreichen Gespräche mit tollen und interessanten Menschen vermissen. Aber die treffe ich ja hoffentlich in Zukunft auf anderen Events.

Dr. Joseph Reger, Fujitsu

Videoblog: „Der KI mangelt es vor allem an gut ausgebildeten Experten“

Er ist multilingual, „Cheftechniker“ bei Fujitsu und sehr unterhaltsam. Die Rede ist von Dr. Joseph Reger, mit dem ich das folgende Interview während des Fujitsu Forum 2018 führen durfte. Zentrales Thema war die Künstliche Intelligenz.

KI ist für viele Unternehmen noch eher unwichtig

Eine von Fujitsu in Auftrag gegebene Studie zum Thema Künstliche Intelligenz zeigt recht schonungslos auf, woran es hierzulande in Sachen KI mangelt: Strategisch wichtig scheint sie (noch) nicht zu sein, und eine richtige KI-Strategie haben auch nur wenige Unternehmen.

Das hat einen recht einfachen Grund: Der Mangel an gut ausgebildeten KI-Experten, die für Projekte und Anwendungen zwingend erforderlich wären. Zwar wird aktuell eine Menge getan, um diesen Missstand zu verbessern, was allerdings noch einiges an Zeit in Anspruch nehmen wird. Im Widerspruch dazu steht, dass die KI möglichst bald in Firmen Einzug halten sollte, um brachliegendes Potential zu aktivieren und bestmöglich nutzen zu können.

Fujitsu leistet seinen KI-Beitrag auf ganz unterschiedlichen Ebenen

Fujitsu hat die Zeichen der Zeit erkannt und investiert auf ganz unterschiedlichen Ebenen in die Künstliche Intelligenz. Dazu gehören auch interne Fortbildungen und der Wissensaufbau rund um das Thema KI. Hierfür hat das Unternehmen ein Programm ins Leben gerufen, dass sich „Fujitsu Distinguished Engineers“  nennt.

Darin sind die besten Ingenieure und Entwickler von Fujitsu vereint mit dem Ziel, ihr Wissen rund um Machine Learning, Deep Learning, etc. fundiert auszubilden, damit sie möglichst schnell Fujitsu-Kunden bei der Realisierung von KI-Projekten unterstützen können. Daneben sollen diese KI-Experten an Schulen und Unis Schüler und Studenten für die Möglichkeiten der Künstlichen Intelligenz begeistern.

Fujitsu Labs entwickeln intelligente Deep-Learning-Technik mithilfe transitiver Methoden

Die Fujitsu-Labore in Japan und Europa beschäftigen sich schon eine ganze Weile mit dem Bereich „Transitives Lernen“. Hierbei geht es im Wesentlichen um die Wiederverwendbarkeit von bereits gelernten Inhalten. Herausgekommen ist dabei ein System, das sich für die unterschiedlichsten KI-Projekte nutzen lässt, selbst wenn diese auf den ersten Blick nichts miteinander zu tun haben.

Der Vorteil dieser Methode liegt auf der Hand: Die Trainingsphase für ein neues Machine-Learning-Modell ist relativ kurz, und die hierfür benötigten Daten umfassen deutlich weniger Datensätze als bei herkömmlichen Methoden. Dieser ganz neue Ansatz der Fujitsu-Labore soll vor allem in der Predictive Maintenance eingesetzt werden, also für das frühzeitige Erkennen von potentiellen Maschinenfehlern oder Materialschwächen, was speziell in der fertigenden Industrie wichtig ist.

Das vollständige Interview mit Dr. Joseph Reger

Dr. Hubert Jäger über den IoT Security Kongress 2018

Videoblog: „Der IoT Security Kongress soll das Projekt car-bits.de bekannter machen“

Als Einlader und Hausherr kam Dr. Hubert Jäger von der Uniscon GmbH vor meiner Kamera während des IoT Security Kongresses zu Wort. Er sprach über das Event selbst, über den Sinn und Zweck der Veranstaltung und verriet mir Wissenwertes rund um das zugehörige Projekt car-bits.de.

Der IoT Security Kongress präsentierte Ergebnisse des Projekts „car-bits.de“

Anders als auf anderen Veranstaltungen dieser Art hatte der IoT Security Kongress in den heiligen Hallen des TÜV Süd in München nur einen Zweck: Er wollte die wichtigsten Ergebnisse und Erkenntnisse des Connected-Cars-Projekts „car-bits.de“ zusammenfassen. Hierfür kamen vor allem die Beteiligten zu Wort, also Vertreter von Continental, vom Fraunhofer AISEC, vom TÜV Süd, von Deloitte und andere mehr.

Damit sollte eine breitere Öffentlichkeit erreicht werden, um auf diesem Weg wichtige Aspekte rund um das Thema „Vernetztes Fahren“ präsentieren zu können. Speziell eine höchstmögliche Sicherheit stand dabei auf der Agenda, wie sich also zB sichere Backends bei den Automobilherstellern und den Prüforganisationen wie dem TÜV implementieren lassen. Es stand aber auch die Sicherheit für branchenübergreifende IoT-Anwendungen im Vordergrund.

Anwesend waren unter anderem Vertreter der Automobilindustrie, der IT- und Cloud-Wirtschaft und der IT-Sicherheitsbranche.

Uniscon steuerte Organisation und die Sealed Cloud-Plattform zu car-bits.de bei

Einerseits übernahm Uniscon die Konsortialführerschaft des car-bits.de-Projekts, war also für die Koordination aller Beteiligten und den reibungslosen Ablauf dieses zwei Jahre währenden Forschungsprojekts zuständig. Zum anderen steuerte Uniscon seine Sealed Cloud-Plattform bei, was für einen der Partner (Continental) ausschlaggebend war, das Konsortium zu gründen. Darüber hinaus konnte Uniscon weitere wichtige Partner aus dem Forschungsbereich für das Projekt gewinnen.

Car-bits.de wurde in Teilen vom Bundeswirtschaftsministerium gefördert

Das es sich bei car-bits.de um ein Förderprojekt im Rahmen der zahlreichen Programme des Bundeswirtschaftsministeriums handelte, wurde ein Teil der notwendigen Gelder auf diesem Weg bereitgestellt. Den Großteil der Geldmittel brachten allerdings Uniscon selbst und die Continental AG auf. Die Fördergelder flossen in kleineren Maßen an die Industriepartner des Projekts und zum größeren Teil an die beteiligten Forschungsinstitute.

Das komplette Interview mit Dr. Hubert Jäger

Dr. Julia Schütte, Fraunhofer AISEC

Videoblog: „Mit LUCON lassen sich kritische von unkritischen Daten a priori unterscheiden“

Dieses Interview habe ich mit Dr. Julian Schütte von Fraunhofer AISEC geführt. Darin spricht er über die Rolle seines Instituts im Rahmen des car-bits.de-Projekts und was es mit dem dem Begriff „LUCON“ auf sich hat.

Das Internet of Things erfordert neue Datenschutzkonzepte

Während des IoT Security Kongress der Firma Uniscon habe ich vor allem eins gelernt: Das Thema Zugriffskontrolle in Zeiten von IoT im Allgemeinen und Connected Cars im Speziellen erfordert ganz neue Ansätze.

Das hat vor allem damit zu tun, dass im Gegensatz zur klassischen IT in der Welt des IoT Daten sich nicht nur an einer Position befinden, sondern ständig in Bewegung sind. So werden sie von Sensoren erfasst, dann zur weiteren Verarbeitung in die Cloud transferiert, usf. Und an jeder dieser Positionen stellt sich die Frage: Wer darf diese Daten an welcher Stelle bearbeiten? Und für die Antwort dieser Frage sind eben neue Ansätze und neue Konzepte erforderlich.

Mit „LUCON“ werden Datenschutzverletzungen erkannt, bevor diese passieren

Genau an dieser Stelle und zu diesem Zweck kommt das Policy-System „LUCON“ von Fraunhofer AISEC ins Spiel. Denn mit dieser Software-Lösung, die im Rahmen des car-bits.de-Projekts eingesetzt wurde, lässt sich eine Architektur auf ihre Durchlässigkeit in Sachen Datenschutz untersuchen. Daraus ergeben sich zwei mögliche Zustände: Ja, eine Datenschutzregel könnte durch einen bestimmten Datenfluss verletzt werden – oder nicht.

LUCON steht übrigens für Label-Based Usage CONtrol und klassifiziert zum beschriebenen Zweck Daten an dem Ort, wo sie entstehen. Während die Daten dann verarbeitet werden, untersucht LUCON diese anhand ihrer Klassifizierung. Damit lässt sich bestimmen, wie mit den erfassten Daten umgegangen werden soll, wie sie sich also beispielsweise aggregieren oder weiterverarbeiten lassen. Damit können die Anforderungen des Datenschutzes direkt in der zugrundeliegenden Technik umgesetzt werden.

LUCON spielte bei car-bits.de ein wichtige Rolle

So ist es kaum verwunderlich, dass LUCON im Rahmen des Connected-Car-Projekts car-bits.de eine wichtige Rolle inne hatte, nämlich das Klassifizieren der dort erfassten Daten – und das sind ziemlich viele. So werden bei einem vernetzen Auto unkritische Daten für die Position und Größe eines Schlaglochs auf der Fahrbahn genauso erfasst und verarbeitet wie die kritischen, die oft personenbezogen sind. Damit muss ein System wie LUCON automatisch anhand geeigneter Kriterien quasi vorab erkennen können, ob ein Datum im Hinblick auf den Datenschutz besonders heikel ist – oder eben nicht.

Das komplette Interview mit Julian Schütte

 

Stefan Roth von Fujitus über NVMe und KI-Storage

Videoblog: „NMVe-Storage wird künftig eine noch wichtigere Rolle spielen“

Dieses Interview habe ich mit Stefan Roth von Fujitsu auf dem Fujitsu Forum 2018 geführt. Themen waren der Einsatz der NVMe-Technik und welche Rolle die Künstliche Intelligenz im Storage-Umfeld spielt.

Das Fujitsu-Storage-Rad dreht sich weiter und weiter

Im Oktober erst hat Fujitsu mit der ETERNUS DX8900 S4 ein Storage-System auf den Markt gebracht, das von Hause aus mit NVMe-Cache ausgestattet ist. Die Speicherlösung lässt sich mit bis zu 24 Compute-Knoten ausstatten und bietet einen Maximalspeicher von gut 141 Terabyte. Ein besonderes Merkmal des ETERNUS DX8900 S4 ist die FPGA-basierte Datenkomprimierung, was mehr Spielraum für aufwändige Applikationen lässt, da die Serverprozessoren von den FPGA-Chips entlastet werden.

NVMe kommt in unterschiedlichen Ausprägungen zum Einsatz

Das Besondere an der NVMe-Technik ist ja dessen einfache Handhabe, womit es viel mehr ist als nur ein ergänzendes Protokoll zu SCSI. Das äußert sich vor allem in reduzierten Latenzzeiten zwischen Speichereinheiten, weshalb es aktuell bevorzugt für Cache-Speicher eingesetzt wird. Darüber hinaus taugt NVMe auch als Verbindungstechnik zu SSD-Storage-Einheiten und ersetzt damit SCSI und SAS.

Die Königsdisziplin stellt allerdings NVMe over Fabric dar, also die NVMe-basierte Anbindung von Storage-Einheiten über das lokale Netzwerk, also zB via Broacade Gen 6. Das vereinfacht zum einen die Verbindung zu den vorhandenen Servern und erlaubt zum anderen eine höhere Zahl an Maschinen, die sich mit den Storage-Systemen verbinden lassen.

Mit NVMe macht Fujitsu 2019 so richtig ernst

Im nächsten Jahr wird Fujitsu eine ganz neue Serie ins ETERNUS-Portfolio aufnehmen, die dem Thema NVMe noch mehr Rechnung trägt als dies bisher der Fall ist. Detaillierte Infos dazu wird es auf den Fujitsu Storage Days 2019 geben, die vom 22. Januar 2019 an in zahlreichen Städten stattfinden und die das Thema ETERNUS in den Vordergrund rücken.

Die Künstliche Intelligenz erfordert unterschiedliche Speichersystemen

Spricht man über das Thema Künstliche Intelligenz, kommt man um das Thema Big Data bzw. große Datenmengen nicht herum. Daten werden hierfür nämlich im großen Stil gesammelt und gespeichert, aber auch in Echtzeit verarbeitet. Hinzu kommt die Notwendigkeit, bestimmte Daten zu archivieren, und so fort. Das stellt an die hierfür notwendigen Speichersysteme ganz unterschiedliche Anforderungen. Das beginnt bei möglichst kurzen Antwortzeiten und endet bei einem maximal hohen Datendurchsatz. Aber, und auch das will bei der KI berücksichtig werden, rücken zB bei unstrukturierten Daten neue Konzepte wie Objektspeicher in den Vordergrund.

Das komplette Interview mit Stefan Roth

DSAG-Kongress 2018

Mit Axians auf dem DSAG-Kongress 2018: vPack für SAP HANA-Cloud

„Business ohne Grenzen – Architektur der Zukunft“, so lautete das Motto des diesjährigen Jahreskongress der deutschsprachigen SAP-Anwendergruppe e.V. (DSAG). Neben dem Teilnehmerrekord mit über 5.000 interessierten Besuchern zählten sicherlich die über 300 Fachvorträge zu den Highlights der Veranstaltung im schönen Leipzig.

Im Zentrum des Geschehens stand unter anderem das Thema Digitalisierung, das im Vorfeld des Events per Umfrage der DSAG abgeklopft wurde. So bestätigten darin mehr als ein Drittel der Befragten, dass sie sich durchaus gut vorbereitet sehen in Sachen digitale Prozesse und Arbeitsabläufe.

SAP-Architektur der Zukunft: HANA, oder was?

Eines der Themen auf dem DSAG-Kongress lautet: Wie sieht die SAP-Architektur der Zukunft aus, was können also alternative Betriebsmodelle zu HANA sein.

S4/HANA setzen rund 78 Prozent der DSAG-Mitgliedsunternehmen ein, was die enorme Relevanz dieser Plattform belegt. Trotzdem sind sich nur rund 41 Prozent der Befragten sicher, dass sie die Businesssuite bis 2025 durch ein alternatives Modell ablösen werden. Die Umfrage zeigt zudem, dass neben den bekannten Applikationsthemen die IT-Infrastruktur eine große Rolle spielt. Allerdings haben viele der befragten Unternehmen noch keine Entscheidung darüber getroffen, ob sie in die Enterprise Cloud von SAP oder in eine alternative Public Cloud migrieren.

Darum prüfe, wer sich an die SAP-Cloud binde

Naheliegend dabei ist natürlich, den Quasi-Standard von SAP zu nutzen. Wer diese Möglichkeit prüft, stößt jedoch auf einige Herausforderungen. Dazu gehört zum Beispiel die Sicherstellung eines wirtschaftlichen Betriebs, aber auch die Komplexität der Migration ist nicht zu unterschätzen. Darüber hinaus hält das oft diskutierte Public-Cloud-Thema viele Unternehmen vom Gang in die HANA Enterprise Cloud ab. So scheuen sich viele IT-Verantwortliche davor, unternehmenskritische Daten auf einer geteilten Infrastruktur zu verarbeiten. Warum also nicht die Infrastruktur gleich selbst aufbauen?

Das mag für zahlreiche Anwender ein verlockender Gedanke sein, allerdings ist hierbei darauf zu achten, dass die Infrastruktur-Komponenten komplett von SAP zertifiziert sein müssen. Ansonsten kann später möglicherweise der SAP-Support nicht in vollem Umfang in Anspruch genommen werden. Hinzu kommt, die benötigte Hardware in der richtigen „Größe“ auszuwählen. Denn überdimensionierte Infrastrukturen verursachen zu hohe Anschaffungskosten. Daher ist es empfehlenswert, auf ein flexibel skalierbares Modell zu setzen, bei dem man zunächst „klein“ anfängt, das dann sukzessive wachsen kann. 

Wie sich dieser Herausforderung sinnvoll begegnen lässt, zeigte das IT-Haus Axians. Die eigens hierfür entwickelte Lösung vPack ist für SAP HANA und S/4 HANA zertifiziert und bietet in drei Ausprägungen die Möglichkeit, eine dediziert skalierbare Infrastruktur aufzubauen.

SAP HANA als Managed Private Cloud im Rechenzentrum

Diese Lösung ist für den Betrieb von SAP-Produktivsystemen konzipiert und wird anhand der individuellen Unternehmensanforderungen dimensioniert. Die Hardware steht im Rechenzentrum des Anwenderunternehmens. Es handelt sich also um eine reine Private Cloud, die Axians vollständig remote administriert. Für die Anschaffung zahlt das Anwenderunternehmen nichts – berechnet wird lediglich ein monatlicher Basispreis für eine Mindestmenge an CPU-Rechenzeit sowie für den benötigten Arbeits- und Festplattenspeicher. Damit werden CAPEX zu OPEX, also aus Anlageinvestitionen reine Betriebskosten, was sich natürlich günstig auf die Bilanz eines Unternehmens auswirken kann.

Darüber hinaus werden die Ressourcen nutzungsbasiert abgerechnet. Diese Lösung ist also äußert flexibel und skalierbar und kombiniert die Bezahlmodalitäten einer Public Cloud mit der Sicherheit einer Private Cloud, da sich die Daten zu jeder Zeit ausschließlich im Unternehmen befinden.

SAP HANA als Managed Hosted Private Cloud

Diese Variante baut auf der vorherigen auf und sieht zusätzlich eine voll zertifizierte Backup-as-a-Service-Anbindung vor. Die Hardware steht nicht beim Anwender selbst, sondern als Private Cloud bei einem Colocator.  Somit bietet diese Lösung den Vorteil eines vollumfänglichen Disaster Recovery-Ansatzes, ohne dabei einen weiteren eigenen Standort einbinden zu müssen.

SAP HANA als Managed Hosted Hybrid Cloud

Diese vPack-Variante basiert auf den beiden vorherigen Optionen. Hier steht die Lösung ebenfalls bei einem Colocator und die Überwachung übernimmt Axians. Zusätzlich zum Produktivsystem auf der Private Cloud und einem Backup as a Service lassen sich ergänzend Entwicklungssysteme und weitere Workloads auf der Shared-Plattform von Axians über eine Public Cloud betreiben.

Zur eigenen vPack-SAP-HANA-Cloud in nur 45 Tagen

Der IT-Dienstleister konfektioniert vPack anhand der individuellen Anforderungen des Anwenders. Von der Beauftragung bis zur Inbetriebnahme der individualisierten Lösung vergehen maximal 45 Tage. Es fallen keine Anschaffungskosten an, und vPack lässt sich per Plug & Play unkompliziert starten. Das IT-Haus gewährleistet eine Verfügbarkeit von mindestens 99,95% Prozent, während die Abrechnung nach Verbrauch die Kosten für jede einzelne virtuelle Maschine transparent macht. Bei der gemanagten Lösung steht den Anwendern 24 Stunden an sieben Tagen in der Woche eine deutschsprachige Hotline zur Verfügung. 

Mit diesem Ansatz kommt der Anbieter den Forderungen der SAP-Community nach, die nach Alternativen für die ERP-Transformation sucht. Hierbei will vPack die Anwender als Infrastrukturumgebung unterstützen. Praktischerweise erleichtert die integrierte Management-Oberfläche den Umgang mit der Umgebung. Axians bietet vPack als OPEX-basiertes Gesamtpaket an. Es enthält die Infrastruktur inklusive Software als auch integrierte Managed Services für Plattform, Hypervisior und Betriebssystem bis hin zur SAP-Basis.

Diese Ansätze und alternativen Modelle stießen laut Axians während des Kongresse bei den Teilnehmern und Anwendern auf große Zustimmung.

Linktipps:

Disclaimer: Dieser Blogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Wilfried Cleres, Fujitsu Deutschland

Videoblog: „Die KI im Rechenzentrum erkennt Anomalien schon im Voraus“

Dieses Videointerview habe ich mit Wilfried Cleres von Fujitsu und Wolfram Muehlboeck von CA Technologies auf dem Fujitsu Forum 2018 geführt. Thema war der Einsatz der Künstlichen Intelligenz im Rechenzentrum und wo es dort bereits sinnvoll genutzt werden kann.

Die KI sorgt für „vorausschauende Rechenzentren“

Die KI im Rechenzentrum scheint den Kinderschuhen zu entwachsen und kommt immer öfter auch in Produktivsystemen zum Einsatz. So gibt es beispielsweise eine Software, die sich Mainframe Operational Intelligence nennt. Diese KI-Software erfasst kontinuierlich den riesigen Datenstrom eines Rechenzentrums und lernt damit nach und nach, Anomalien im RZ selbstständig zu erkennen und davor rechtzeitig zu warnen.

Praktische Anwendung der KI im Rechenzentrum

Anhand der zahlreichen Metriken, die in einem Rechenzentrum anfallen, vermag die KI-Software anhand des Zeitablaufs das „normale“ Verhalten sämtlicher Parameter von „auffälligen“ Situationen zu unterscheiden. Das gelingt vor allem wegen der möglichen Korrelationen der vorhandenen Werte zueinander, woraus sich eine immer bessere Vorhersage eines möglichen Hardware-Defekts oder zu erwartenden Netzwerkproblems ergibt. Davon lassen sich natürlich eine Vielzahl an möglichen Reaktionen ableiten: Von der E-Mail-Warnung bis hin zur automatischen Fehlerbehebung ist so ziemlich alles denkbar.

Das Verständnis für die KI im Rechenzentrum sollte verbessert werden

Da es sich bei der KI im Rechenzentrum ja immer noch um eine sehr junge Disziplin handelt, gilt ein besonderes Augenmerk der Bewusstsein-Schaffung für die Möglichkeiten der Künstlichen Intelligenz. Denn nur anhand probater und sinnvoller Einsatzszenarien und -möglichkeiten lassen sich die Anwender eines Rechenzentrums auch von der Sinnhaftigkeit der KI in ihrem Umfeld überzeugen. Denn auch hier gilt: Die KI will keine Arbeitsplätze wegnehmen, sondern diese sichern und neu schaffen.

Das komplette Interview zur KI im Rechenzentrum

Uwe Scheuber, Fujitsu Deutschland

Videoblog: „Mit unseren Management-Tools gelingt der Umstieg in die Multi-Cloud“

Dem Thema Multi-Cloud begegnet man allerorten, also auch auf dem diesjährigen Fujitsu Forum, auf dem ich zum zweiten Mal dabei sein durfte.

Dort habe ich das nachfolgende Interview mit einem der Fujitsu-Experten zum Thema Cloud geführt, nämlich mit Uwe Scheuber, seines Zeichens Director Cloud & Hybrid IT. Von ihm wollte ich wissen, was seine Kunden zum Thema Cloud gerade umtreibt, wie Fujitsu seine Kunden beim Gang in die Multi-Cloud unterstützt, wie die Migration in die Multi-Cloud aussehen kann und wie es Fujitsu schafft, in Multi-Cloud-Projekten als „Single Point of Contact“ wahrgenommen zu werden.

Firmen gehen gerade vermehrt in mehrere Cloud-Umgebungen

Der Trend zur Multi-Cloud hält an, keine Frage. Dass hierbei Fujitsu seine Kunden berät und unterstützt, ist ja wohl klar. Und das sowohl im Bezug auf Public als auch auf Private Clouds. Hierfür hat Fujitsu ein Software-Tool entwickelt, das sich Fujitsu Cloud Services Management nennt. Damit führt Fujitsu mehrere Cloud-Plattform unter einer Bedieneroberfläche zusammen und schafft es so, Microsoft Azure, Amazon AWS, Google Cloud, Oracle Cloud, VMware Cloud und viele andere in eine Multi-Cloud zu migrieren.

Das birgt zwei wesentliche Vorteile in sich: Vorhandene Workloads können beinahe beliebig von einer Cloud-Plattform auf die andere verschoben werden, und die Kosten lassen sich damit wesentlich einfacher transparent machen.

Multi-Cloud-Migration in der Praxis mit Fujitsu

Selbst mit großen Private-Cloud-Installationen, bestehend aus 3.500 virtuellen Azure-Instanzen und virtuellen VMware-Instanzen im eigenen Rechenzentrum, lassen sich diese riesigen Infrastrukturen mithilfe des Fujitsu Cloud Services Management nahezu nahtlos beispielsweise in eine Amazon Web Services-Umgebung überführen und verwalten.

Für Kunden wichtig: „Single Point of Contact“

Klar, dass sich bei der eigenen Multi-Cloud-Strategie irgendwann die Frage stellt: Wer ist eigentlich mein direkter Ansprechpartner? Google? Microsoft? Amazon? Oder gar alle zusammen. Um genau diese Unklarheiten erst gar nicht entstehen zu lassen, hat Fujitsu mit allen großen Cloud-Providern Verträge abgeschlossen, die das Unternehmen als Vertragspartner gegenüber den eigenen Kunden auftreten lassen. Damit stellt Fujitsu für seine Multi-Cloud-Kunden den alleinigen Ansprechpartner dar, wenn es um Fragen zur Migration der einzelnen Cloud-Dienste geht.

Das komplette Interview mit Uwe Scheuber

 

Chris Cook, President und CEO von Delphix

Videoblog: „Mit unserer Masking-Technik sind sensible Daten DSGVO-konform“

Chris Cook ist seit 2016 President & CEO des Sicherheitsexperten Delphix aus dem schönen Redwood City, Kalifornien, USA. Mit ihm durfte ich dieses Videointerview führen, dass „DataOps“ zum Thema hatte und wie Delphix seinen Kunden in Zeiten von DSGVO & Co. hilft, so sicher, gesetzeskonform und simpel wie möglich ihre Daten vor ungebetenen Zugriffen zu schützen.

„DataOps“ steht für automatisierte, wertvolle und sichere Daten

Datenbank-Administratoren und Datenbank-Anwender fechten jeden Tag aufs Neue ihre teilweise kontroversen Ansprüche an die Technik aus: Die einen (die Admins) müssen aus Gründen der Gesetzeskonformität auf sichere Daten achten, und die anderen (die Benutzer) wollen schnell und unkompliziert darauf zugreifen. Im „normalen“ IT-Alltag ist das ein Dilemma, das sich nur schwer auflösen lässt. Und genau an dieser Stelle kommt der Begriff „DataOps“ ins Spiel.

Mit DataOps-Ansätzen und -Konzepten soll vor allem die digitale Transformation beschleunigt werden, wie die folgende Infografik belegt:

Infografik DataOps von Delphix

Die Grafik zeigt vor allem eins: Mit neuen DataOps-Konzepten gelingt die Bereitstellung von Daten schneller (und zwar im Rechenzentrum UND in der Cloud), steigt die Qualität der Daten, nimmt die Sicherheit zu und gleichzeitig nehmen die Speicherkosten ab, da Daten komprimiert und virtualisiert abgelegt werden.

Delphix Dynamic Data Platform maskiert Daten für mehr Sicherheit und mehr Agilität

Doch die neuen DataOps-Ansätze erfordern aufgrund ihrer hohen Verknüpfungen zwischen allen Beteiligten zusätzliche Anforderungen an die Sicherheit. Diese stellt Delphix mithilfe einer Technik her, die sich „Masking“ nennt. Hierbei werden vor allem die sicherheitskritischen Teile eines Datensatzes für Außenstehende unkenntlich gemacht. Damit können sie nur von den Anwendern genutzt werden, die legalen Zugriff auf die Delphix Dynamic Data Plattform (DDDP) haben. So stellt Delphix beispielsweise für die DSGVO spezielle Discovery-Templates zur Verfügung, mit deren Hilfe ausschließlich personenbezogene Daten maskiert und damit für Unbefugte unleserlich gemacht werden.

Die Maskierungstechnik von Delphix kommt oft in Nicht-Produktivumgebungen zum Einsatz, also überall dort, wo Analysten, Software-Entwickler und ähnliche Anwendergruppen ihre Daten ablegen und diese relativ ungesichert handhaben, da für sie Agilität vor Sicherheit geht. Damit stellen vor allem diese IT-Umgebungen aus Datenschützersicht eine besondere Herausforderung dar. Und genau dort werden die bestehenden Daten auf ihre Sensibilität hin untersucht und derart maskiert, dass Außenstehende damit nichts anfangen können, selbst wenn sie unrechtmäßig Zugriff darauf erlangten.

Unternehmen wie T-Systems setzen auf die Delphix Dynamic Data Platform

T-Systems und andere namhafte Unternehmen setzen bereits seit Jahren auf die Sicherheit der Delphix Dynamic Data Platform. Dazu sagt beispielsweise Bernd Wagner, seines Zeichens SVP Sales Germany bei T-Systems:

Die Zusammenarbeit mit Delphix resp. der Einsatz der DDDP fußt auf drei Säulen: Zum einen arbeitet T-Systems damit vollkommen DSGVO-konform, zum anderen ermöglichen wir aufgrund des hohen Automatisierungsgrads unseren Kunden, ihre eigenen Entwicklungsumgebungen zu implementieren. Und drittens können wir damit erhebliche Infrastrukturkosten einsparen und Prozesse deutlich beschleunigen.

 

Und warum ist das für T-Systems und andere große Firmen so unternehmensentscheidend? Nun, auch hierzu hat Herr Wagner eine klare Meinung:

Wir sehen aktuell einen Trend weg von SAP-Installationen hin zu HANA-Umgebungen. Auch an dieser Stelle kommt Delphix mit seiner Dynamic Data Platform zum Zug, indem sie uns und unseren Kunden helfen, innerhalb kürzester Zeit von SAP auf die HANA-Plattform zu migrieren, und das völlig gesetzeskonform. Das erlaubt uns beispielsweise, aufwändige Softwaretests außerhalb der EU durchführen zu lassen, ohne die DSGVO-Regeln oder andere Bestimmungen zu verletzten.

Das vollständige Interview mit Chris Cook und Bernd Wagner

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Christian Beedgen, CTO und Mitgründer vomn Sumo Logic

Videoblog: „Unsere Monitoring Services sorgen für bessere Server und Apps“

Seit der Gründung seiner Firma Sumo Logic im Jahre 2010 beschäftigt sich Christian Beedgen mit dieser einen entscheidenden Frage: Wie schaffen wir es, die Webserver und -anwendungen dieser Welt ein bisschen sicherer und zuverlässiger zu machen? Die Antwort finden seine Kunden wie AirBnb, Adobe und viele andere in den Monitoring Services seines Unternehmens.

Genau darüber durfte ich mit Christian vergangenen Freitag in München reden. Herausgekommen ist das nachfolgende Interview, in dem ich so manch Wissenswertes zum Thema Monitoring erfahren habe.

Sumo Logic betreibt Log Management „as a Service“

Sumo Logic betrachte ihre Monitoring Management-Lösung als „Software as a Service“, was dem Ganzen wohl ziemlich nahe kommt. Damit lassen sich sowohl Anwendungen als auch komplette Server überwachen. Und natürlich kann Sumo Logic auch auftretende Fehler lokalisieren und beheben.

Der Vorteil für die Kunden liegt auf der Hand: Anstatt mithilfe eines dedizierten Servers oder einer speziellen Anwendung im Hintergrund sämtliche Aktivitäten selbst zu beobachten (wie das zum Beispiel mit Paessler-Tools der Fall ist) , übernimmt Sumo Logic diese Aufgabe für seine Kunden, und das ohne jegliche Software-Installation. Okay, ein kleiner Agent muss einmal beim Anwender installiert werden. Das kann aber sogar der Kunde selbst erledigen, womit er die Kontrolle darüber behält, wo der Agent läuft und was er an Daten nach draußen schicken darf.

Praktisch an diesem Monitoring-Service ist auch die mögliche Skalierung, die bei Sumo Logic direkt auf dem Cloud-Server vorgenommen wird. Damit spielt es keine Rolle, ob ein, zwei oder mehr Rechner bzw. Anwendungen oder Dienste überwacht werden sollen. Diese kann das Unternehmen von Christian Beedgen beliebig dazu schalten, je nachdem, was der installierte Agent vorsieht.

Log-Daten helfen bei der Überwachung von Webservern und -applikationen

Gerade für Unternehmen wie AirBnB oder Adobe steht ein wesentliches Merkmal im Vordergrund des unternehmerischen Tuns: Die permanente Verfügbarkeit ihrer Webserver, auf denen ihre Kunden 24/7 unterwegs sind und sich informieren und buchen und Inhalte auf den Rechner laden. Da können Wartezeiten von wenigen Sekunden schon zu einem Transaktionsabbruch des Kunden führen. Und genau hier setzt Sumo Logic mit seinen Services an. Denn jeder noch so kleine „Schluckauf“ eines Webservers oder unvorhergesehene Komplikationen werden identifiziert und möglichst schnell behoben.

Sumo Logic überwacht Anwendungen und Webserver auf Anomalien hin

Doch nicht nur das unnatürliche Verhalten von Webservern steht bei Sumo Logic im Fokus. So kann das Unternehmen mithilfe seines Monitoring genau sehen, wer sich auf den überwachten Servern anmeldet, was er dort tut, und so fort. Treten dabei Unregelmäßigkeiten auf, kann darauf sofort reagiert und die entsprechenden Maßnahmen eingeleitet werden. Das betrifft übrigens auch den Zugriff auf Applikation innerhalb des Netzwerks, da auch hier Bedrohungen lauern.

Was die Sumo Logic-Studie zeigt

Eine von Sumo Logic in Auftrag gegebene Untersuchung der aktuellen Kundenstruktur zeigt dreierlei: Multi-Cloud-Umgebungen nehmen zu und Lambda-Funktionen erfreuen sich immer größerer Beliebtheit, was sich auch über Container-Techniken wie Kubernetes & Co. sagen lässt. Was natürlich mittel- und unmittelbare Auswirkungen auf die Monitoring Services von Sumo Logic hat.

Das vollständige Videointerview mit Christian Beedgen von Sumo Logic

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit Eloquenza PR entstanden.