Bilder des Jahres 2018

Das alles fand 2018 auf dem IT-techBlog statt

Der Jahreswechsel ist stets ein beliebter Anlass, Rückschau abzuhalten. Daher folgt an dieser Stelle ein Rückblick auf mein vergangenes Jahr aus IT-techBlog-Sicht. Viel Spaß beim Schmökern.

Januar 2018: IBM-Cloud und ein Intel-CPU-GAU

Vor ungefähr einem Jahr beherrschte ein ziemlicher Intel-Aufreger die Nachrichten und Gazetten, indem schlaue Menschen zwei CPU-Schwachstellen aufgetan haben. Unter den Bezeichnungen „Spectre“ und „Meltdown“ sollte es damit möglich sein, eine Besonderheit vieler Prozessoren zu kriminellen Zwecken auszunutzen.

Für alle, die auf der Suche nach Infos rund um die bekannten Dateisysteme FAT und NTFS sind, habe ich die wichtigsten Fakten in einem Blogbeitrag zusammengetragen.

Und gegen Ende des Monats war ich auf einer IBM-Presseveranstaltung, wo ich zwei Interviews führen durfte zum Thema IBM-Cloud. Yasser Eissa sprach unter anderem über die DSGVO und Datensicherheit, und Patrick Palacin von der Firma Teleclinic verriet mir, was die IBM-Cloud mit der Digitalisierung der Ärzte-Branche zu tun hat.

Februar 2018: Künstliche Intelligenz, mit TenAsys auf der Embedded World

Der zweite Monat des vergangenen Jahres brachte mich intensiv mit dem Thema Künstliche Intelligenz (KI) zusammen. So wollte ich wissen, was die KI mit uns Menschen zu tun hat, wieviel Rechenleistung für KI-Anwendungen erforderlich ist, in welcher Beziehung der Turing Test mit der KI steht und was meine Leser über Machine Learning wissen sollten.

Darüber hinaus warfen die IBM Spectrum Scale Strategy Days erste Schatten voraus, und für meinen Kunden TenAsys war ich in Nürnberg auf der Embedded World.

März 2018: IBM Spectrum Scale Strategy Days, IoT und Machine Learning

Wie im Februar angekündigt, war ich im März für IBM auf deren Spectrum Scale Strategy Days. Im weitesten Sinne drehte sich dort alles rund um das Thema virtualisierte Speicherlandschaften, und genau dazu habe ich Videointerviews samt Blogbeiträgen verfasst.

So habe ich mit Dirk Thometzek von Rohde & Schwarz über deren Spycer-Boxen gesprochen, die auf Basis der IBM Spectrum Scale-Technik Fernsehanstalten und andere Anbieter von Videoinhalten beim ruckel- und störungsfreien Ausstrahlen von Bewegtbildern unterstützen. Aber auch ein IBM-Kunde kam zu Wort, nämlich Alf Wachsmann vom Max Delbrück Centrum für molekulare Medizin, der sich ganz begeistert zeigte von der Veranstaltung – und von Spectrum Scale.

Neben dieser Highend-IBM-Technik hat mich auch das Thema Internet of Things (IoT) im März beschäftigt. So war ich auf einer IDC-Veranstaltung, auf der eine groß angelegte Studie zum Thema IoT veröffentlicht wurde. Dazu habe ich Mark Alexander Schulte, der sich für die Befragung der IT-Entscheider verantwortlich zeichnete, vor der Videokamera befragt. 

Doch nicht nur mit ihm, sondern auch mit Oliver Edinger von der Software AG habe ich über das Internet der Dinge im Allgemeinen und deren Cumulocity-Plattform im Speziellen gesprochen.

Natürlich durfte auch die Künstliche Intelligenz nicht fehlen, und so habe ich im März den zweiten Teil des Machine Learning-Specials verfasst und zudem darüber gebloggt, wie die Europäische Union unseren Kontinent fit für die KI machen will.

April 2018: IBM Spectrum Scale, Hannover-Messe-Vorschau und IBM Mainframe-Roadshow

Die im März stattgefundene IBM Spectrum Scale-Veranstaltung beschäftigte mich auch noch im April, und zwar in Form zweier weiterer Videointerviews. Das eine habe ich mit Peter Ratuschni von der Deutschen Nationalbibliothek geführt, der vor allem wegen der wichtigen Infos und der guten Gespräche auf dem IBM-Event zugegen war. Und im anderen sprach Piyush Chaudhary von IBM über die Kombination Spectrum Scale/Hadoop.

Im April fand auch die Hannover-Messe statt, und so kam ich nicht umhin, erste News darüber online zu stellen. So kündigte die Software AG diverse Themen an, die das Unternehmen auf der Industriemesse zeigen wollte. Aber auch Dassault Systèmes und ihre geplanten Neuheiten rund um das Thema Simulation war mir einen Blogbeitrag wert.

Für IBM war ich im April gleich zweimal unterwegs: Zunächst ging es nach Frankfurt, einer Mainframe-Roadshow wegen, und dann fuhr ich auf die Hannover-Messe (dazu gibt es im Mai-Rückblick mehr Infos). Das Mainframe-Event stellte neue Z-Maschinen in den Vordergrund, genauer gesagt die IBM z14 ZR1 sowie den Linux-Server IBM LinuxOne Rockhopper II. Auf der Veranstaltung habe ich vier Interviews geführt, allesamt mit IBM-Experten. Das waren konkret:

Wer noch mehr Infos dazu haben möchte, dem empfehle ich den ersten und den zweiten Teil meiner ausführlichen Z-Roadshow-Rückschau.

Mai 2018: IBM auf der Hannover-Messe 2018 und ein IDC-KI-Event

Wie bereits angekündigt, folgte im Mai meine Videoblogserie für IBM, die auf der Hannover-Messe mit einem großen eigenen Stand waren. Dort durfte ich zahlreiche Interviews führen. Im einzelnen waren das:

Daneben habe ich noch auf der Messe mit Florian Jurecka von Dassault Systèmes über das Thema Digital Twins zu Simulationszwecken gesprochen. Auch ein sehr spannendes Thema.

Im Mai fand dann wieder einer der zahlreichen IDC-Presseevents statt, dieses Mal zum Thema Künstliche Intelligenz. Dort durfte ich mit Jürgen Wirtgen über die KI aus Microsoft-Sicht sprechen und mit Konstantin Greger von Tableau Software ebenfalls ein Videogespräch führen.

Juni 2018: Software-AG IoT-Roadshow, Lenovo-Interviews und CEBIT 2018

Zwar begann die IoT-Roadshow der Software AG bereits im Mai, die Videointerviews samt der zugehörigen Blogbeiträge habe ich aber erst im Juni veröffentlicht. Im einzelnen waren das:

Zudem habe ich noch eine ganz persönliche Rückschau der IoT Innovation Tour 2018 veröffentlicht, mit zahlreichen Tweets und weiteren Interviews.

Zum ersten – und leider gleichzeitig letzten – Mal fand die renovierte und reformierte CEBIT im Juni statt, und klar, dass ich dabei war. Wenn ich gewusst hätte, dass es die letzte Veranstaltung ihrer Art war, wäre ich noch ein bisschen länger geblieben. So sind es genau drei Interviews geworden, die die „Ehre“ hatten, meine finalen CEBIT-Videogespräche auf dem IT-techBlog zu sein.

Das eine habe ich mit Matthias Hartmann, dem deutschen Geschäftsführer von IBM, über die digitale Transformation geführt. Das zweite brachte mich mit dem werten Gero Dieckmann von der SVA GmbH zusammen, der in gewohnt souveräner Art über den CEBIT-Auftritt seiner Firma referierte. Die SVA wäre sehr gerne ein weiteres Mal auf der runderneuerten IT-Messe gewesen. Tja, und das dritte folgt dann im Juni-Rückblick.

Juli 2018: CEBIT, TRIAX A/S und Lenovo auf der ISC 18

Im Juni veröffentlichte ich das letzte von insgesamt drei CEBIT-Interviews, und zwar das mit Dominic Gaspary von der Volkswagen AG über VW We Experience. Darin spricht er über Machine Learning-Algorithmen, die verstärkt in Autos zum Einsatz kommen sollen, und was das alles mit IBM zu tun hat.

Für die Firma TRIAX war ich Anfang Juni in Köln auf einer großen Messe rund um das Thema Videolösungen. Dort zeigte das dänische Unternehmen, was es in diesem Kontext alles in petto hat. Herausgekommen sind folgende Videogespräche:

Für Lenovo war ich ebenfalls wieder einmal unterwegs, und zwar auf der International Supercomputing Conference 2018. Dort habe ich insgesamt vier Interviews geführt:

Daneben war ich erneut auf einem IDC-Event, auf dem eine Studie zum Thema IT-Sicherheit vorgestellt wurde. Im Anschluss an die Präsentationen habe ich wie immer Interviews geführt, und zwar mit Udo Schneider von Trend Micro über die aktuelle IT-Sicherheitslage sowie mit Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen.

Und klar, dass das Thema Künstliche Intelligenz nicht außen vor blieb im Juli. So durfte ich mit Dagmar Schuller vom Startup-Unternehmen audEERING über deren Sprachsoftware sprechen, mit der Audio-Emotionen „sichtbar“ gemacht werden können.

August 2018: audEERING, Cloud-Daten verschlüsseln und Lenovo auf der IFA

Der August ist zwar traditionell mein Urlaubsmonat, trotzdem war ich ein wenig aktiv. So ging der zweite Teil des Videointerviews mit Dagmar Schuller von audEERING online, in dem sie über ihre Software-Lösungen openSMILE und sensAI spricht.

Darüber hinaus habe ich für luckycloud aus Berlin aufgeschrieben, wie man effizient seine Cloud-Daten verschlüsselt. Und finally war ich mit Lenovo auf der IFA in Berlin, wo ich all die neuen Notebooks begutachten durfte.

September 2018: IFA-Interviews, Android-Handy, SuperMUC-NG, IDC-Cloud-Event und IBM Storage Strategy Days

Der September war ziemlich voll, so rückblickend betrachtet. Er begann damit, dass ich zwei IFA-Interviews nachreichte, und zwar das mit Mirco Krebs von Lenovo über KI in Notebooks sowie mein Gespräch mit Poppy Szkiler von der britischen Firma Quiet Mark zum Thema geräuscharme Gerätschaften.

Apropos IFA: Dort hatte ich das erste Mal Kontakt mit einem Motorola-Android-Smartphone, das mich als langjährigen iPhone-Anwender derart überzeugt hat, dass ich es immer noch nutze – und darüber gebloggt habe.

Wenn ein Supercomputer wie der SuperMUC-NG quasi vor der Haustür eingeweiht wird, bin ich mit meiner Videokamera nicht weit. Und so durfte ich mit einem der Verantwortlichen des LRZ Garching ein Interview führen.

Was im September ebenfalls stattfand war ein IDC-Event, dieses Mal zum Thema Multi-Cloud. Herausgekommen sind drei Interviews:

Um den September so richtig voll zu machen, war ich dann noch für IBM in Ehningen, und zwar auf den Storage Strategy Days, wo ich wieder in typischer Manier meine Videoblogposts produziert habe.

Oktober 2018: it-sa, it-sa, it-sa

Falls ich angenommen haben sollte, dass der September voll war, wusste ich noch nicht, was im Oktober auf mich wartete. Der stand nämlich ganz und gar im Zeichen der Security-Messe it-sa in Nürnberg. Dort habe ich an drei Tagen etwa 20 Videos gedreht, von denen viele auf meinem Blog landeten. Das waren im einzelnen:

Daneben habe ich noch die Zeit gefunden, auf Einladung der Firma OVH nach Paris zu reisen, um mit deren CTO ein Videogespräch zum Thema Cloud-Plattform zu führen und mit dem CEO Michel Paulin über die Open-Source-Strategie von OVH zu sprechen.

Den Abschluss des zehnten Monats des Jahres bildete ein Interview zum Thema Unified Collaboration & Communications, das ich mit Philipp Bohn von der Firma Unify/Atos führen durfte.

November 2018: Sumo Logic, Delphix, Fujitsu Forum & IoT Security Kongress

Der November startete mit einem sehr entspannten Interview mit dem Gründer der US-amerikanischen Firma Sumo Logic, Christian Beedgen. Darin spricht er über die Monitoring Services seines Unternehmens und warum diese wichtig sind für Online-Dienste wie AirBnB, die zu den Kunden von Sumo Logic gehören.

Am gleichen Tag veröffentlichte ich ein Videointerview, das in den Räumen von T-Systems entstanden ist. Sein Thema: Maskierungstechniken, mit denen sich sensible Daten unkenntlich machen lassen. Das wird in Zeiten von DSGVO und Cloud-Anwendungen immer wichtiger.

Im November fand auch das Fujitsu Forum statt, also jene „Hausmesse“, die alljährlich mehrere tausende Menschen in die Münchner Messehallen lockt. Dort durfte ich vier sehr interessante Interviews zu den Themen Künstliche Intelligenz, Storage und Multi-Cloud führen.

Zum Abschluss des vorletzten Monats des Jahres 2018 begab ich mich noch auf eine IoT-Veranstaltung, die die Uniscon GmbH gemeinsam mit dem TÜV Süd veranstaltet hatte. Auch dort konnte ich interessante Gesprächspartner vor die Kamera locken:

„Mit LUCON lassen sich kritische von unkritischen Daten a priori unterscheiden“

„Der IoT Security Kongress soll das Projekt car-bits.de bekannter machen“

Dezember 2018: Dassault Systèmes Anwenderkonferenz

Den Abschluss des Jahres 2018 bildete eine Reise nach Hanau, wohin es mich wegen eines Fachartikels zum Thema Model-based Systems Engineering verschlug. Da ich aber schon mal dort war, habe ich mit meinem Interviewpartner auch noch ein Videogespräch geführt, in dem er kurz und knapp Wissenswertes zu dem Thema und zu der Akquisition der Firma No Magic erzählt hat.

Und klar, dass ich kurz nach Bekanntwerden des Aus‘ für die CEBIT meine Gedanken darüber in meinen Blog gekippt habe. Wofür betreibe ich diese Plattform schließlich…

Gauthier Fanmuy, Dassault Systèmes, über No Magic und MBSE

Videoblog: „Mit No Magic lassen sich sämtliche Design-Prozesse abbilden“

Model-based Systems Engineering ermöglicht den Übergang von der realen Welt in ein virtuelles Konzept. Sagt Gauthier Fanmuy von Dassault Systèmes, mit dem ich dieses Interview während der Dassault Systèmes-Anwenderkonferenz 2018 geführt habe. Darüber hinaus spricht er über die Akquisition des MBSE-Experten No Magic und was das für Dassault Systèmes bedeutet.

MBSE hilft vor allem, die Herausforderungen besser zu verstehen, die man mithilfe eines Produkts oder Systems lösen möchte. Denn es ermöglicht einen Blick auf sämtliche Funktionen und Aktionen, die beispielsweise für den Autonomen Verkehr und ähnliches erforderlich sind.

Genau diese Option hat bisher innerhalb des Software-Portfolios von Dassault Systèmes gefehlt. Also ein Tool, mit dessen Hilfe man die Abhängigkeiten und das Zusammenspiel unterschiedlicher Systeme und Produkte im Vorfeld simulieren und verstehen kann. Und das, ohne eine einzige Designstunde dafür aufgewendet zu haben.

No Magic schließt eine wichtige Lücke im DS-Software-Portfolio

Mithilfe der Software-Tools von No Magic wie MagicDraw steht Dassault Systèmes die Option zur Verfügung, vollständige Designkonzepte von Anfang an auf nur noch einer Plattform zu planen und zu realisieren. Damit lassen sich sämtliche Abhängigkeiten und Auswirkungen darstellen und bewerten. Zudem verfolgt Dassault Systèmes mit der Akquisition von No Magic einen vollständigen DevOps-Ansatz, was den Kunden eine agile und konsistente Integration aller Design-Schritte von Anfang bis Ende ermöglicht.

Dassault-Systèmes-Kunden profitieren von der „Heirat“ mit No Magic

Da eine komplette Top-to-Buttom-Verbindung der einzelnen Design-Abschnitte bisher nicht gegeben war, können Dassault Systèmes-Kunden dank der künftigen Integration der No Magic-Tools in die 3DExperience-Plattform den gesamten Engineering-Prozess vollständig orchestrieren. Das beginnt ganz oben auf der Konzeptebene und endet auf CAD- und Elektronik-Level. Damit schaffen Dassault Systèmes und No Magic einen Ende-zu-Ende-Prozess, mit dem eine ganz neue digitale Kontinuität auf einer einzigen Plattform möglich sein wird. Das reicht dann bis in die Lieferantenkette hinein.

Das komplette Interview mit Gauthier Fanmuy

Disclaimer: Für diesen Videoblogbeitrag hat mit Dassault Systèmes beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Cebit Brücke

Abgesang auf eine Messe: Lebe wohl, du Cebit!

2018 – 1992, das macht genau 27 Jahre. 27 mal Hin- und Rückfahrt nach Hannover. 27 mal Koffer ein- und wieder auspacken. 27 mal Cebit.

Ok, genau genommen waren es nur 26 mal Cebit, da ich tatsächlich 2013 nicht den Weg  in die niedersächsische Landeshauptstadt gefunden habe. Und schon dieses eine Mal war schmerzhaft für mich, und jetzt soll es ganz und gar vorbei sein?! Das kann und mag ich mir noch gar nicht vorstellen. Zumal die Cebit immer so etwas wie „nach Hause“ kommen bedeutete. Schließlich bin ich ganz in der Nähe von Hannover aufgewachsen.

Schmerzhaft? Da werden sicherlich die Augenbrauen des ein oder anderen Lesers noch oben wandern. Ja, ich mochte sie, diese viele Jahre lang größte Computermesse der Welt (auch wenn die Kolleg*innen von CES und Computex das auch nie so richtig glauben wollten). Und ich habe alle Phasen der Cebit mitgemacht. Die guten und die weniger guten.

1992: Für Intel als Spracherkennungsexperte

Angefangen hat das – wie gesagt – 1992. Damals habe ich noch studiert und war das erste Mal für Intel auf der Cebit. Dort habe ich eine Woche lang (zusammen mit meinem Bruder) die Faszination der PC-gestützten Spracherkennung zum Leben erweckt. So haben wir sieben Tage lang (inklusive Wochenende) immer und immer wieder den immer gleichen Text eingesprochen, und das Diktierprogramm (Dragon Dictate, das es in einer ähnlichen Form immer noch gibt) hat daraus Text gezaubert. Viele Besucher waren seinerzeit ziemlich beeindruckt ob der hohen Trefferquote. Was vor allem daran lag, dass die Software sehr gut trainiert war.

Das Jahr drauf habe ich das noch mal gemacht, und dieses Mal ganz alleine. Wieder habe ich eine Woche lang diktiert und diktiert und diktiert, sodass meine Stimme sieben Tage später eine ganze Oktave tiefer klang. Oder so ähnlich. Es hat auf jeden Fall wieder unfassbaren Spaß gemacht.

Das war übrigens die Zeit der legendären Standpartys. Da hat der Chef einer großen Elektronikmarktkette einfach mal so ein paar tausend D-Mark hingeblättert, damit die Fete weitergehen und die Leute weitertanzen konnten. Ja, auch das war immer mit sehr viel Spaß verbunden.

1995: Viele Tage und Nächte für Intel auf der Cebit

Ab 1995 war ich dann als festangestellter Intel-Mann auf der Cebit, und das war nicht immer Spaß. So waren ich und meine Kollegen (nur Männer) zwei Wochen lang in Hannover, um sicherzustellen, dass die komplette Hard- und Software nebst Netzwerktechnik am Intel-Stand funktionieren. Da waren viele Nachtschichten dabei, und am Ende lief immer alles wie am Schnürchen. Unvergessen sind auch hier die Partys, dieses Mal am eigenen Stand. Damals gab es diesen einen Spruch: „Work hard, dance hard!“. Und daran haben wir uns immer gehalten.

Die „Sunny Side“ der Cebit – als IT-Journalist

Dann, nach meinem Ausstieg bei Intel und meinem Einstieg in die Redaktionswelt, bot sich für mich  von der Cebit ein ganz neues Bild. Auf einmal gab es keine Nachtschichten mehr, auf einmal war ich der „Star“. Unvergessen sind die Toshiba-Zug-Fahrten nach Hannover, inklusive Verpflegung und Entertainment. Ok, die Unterkünfte waren bescheidener als zu meinen Intel-Zeiten, aber dafür wurde ich als Schreiberling hofiert und mit Geschenken bedacht. Ja, auch das war eine gute Zeit.

Das war auch die Zeit, als die Cebit noch so etwas wie ein alljährliches Klassentreffen war. So begab man sich im Laufe eines Tages mehrmals ins zentral gelegene Pressezentrum, um bei Kaffee oder Bier das ein oder andere Schwätzchen zu halten und sich mit den Kolleg*innen über die neuesten Neuigkeiten auf der Cebit auszutauschen. Das hatte immer etwas sehr Verbindendes.

Klar, das wurde nicht weniger, aber es hat sich in all den Jahren doch zusehends verändert. Die Kolleg*innen kamen immer seltener auf nach Hannover, weil die Redaktionen kleiner und kleiner wurden. Schon damals (ich spreche hier von Anfang/Mitte 2000) wurde der schleichende Abstieg bei den Besucherzahlen deutlich, was sich auch im abnehmenden Interesse seitens der IT-Verlage und -Journalist*innen widerspiegelte.

Cebit-Besucherzahlen 1986 bis 2013

Cebit-Besucherzahlen 1986 bis 2013

2006: Mein Leben als IT-Blogger und wieder eine neue Cebit-Zeitrechnung

Cebit Presseausweis2006 war ich dann zum ersten Mal als Blogger auf der Cebit, und es war großartig! Wir (Richard Joerges und ich) stellten unsere neu gegründete Blogplattform insight-infonet diversen Firmen vor, und es kam insgesamt sehr gut an. Richtig verdient haben wir damit zwar nie etwas, aber vor allem für mich war es der perfekte Einstieg in die Bloggerei. Von der ich ja bis heute seht gut leben kann.

Ein weiterer Wendepunkt in meiner Cebit-Historie war das Jahr 2014. Da war ich für IBM zum ersten Mal auf der Messe in Hannover und durfte dort zahlreiche Videointerviews mit IBM-Partnern und -Experten führen. Das war immer großartig und ich habe immer eine Menge gelernt. Dieser Trend ließ sich die Jahre danach weiter fortsetzen, und so war für mich die Cebit immer eine wichtige Veranstaltung, wenn es um das Akquirieren neuer Themen und neuer Kunden ging. Und ja, die Unterkünfte wurden in der Zeit auch wieder ein ganzes Stück besser. Auch dank AirBnB.

Cebit Unterkunft

2018 als Neuanfang – und dann doch das schnelle Aus

Um so erfreulicher und mutiger fand ich dann den Neuanfang der Cebit in diesem Jahr. Damit sollte so eine Art South by Southwest in Niedersachsen etabliert werden. Klar knirschte es noch an einigen Stellen, doch die ersten Schritte und Versuche in eine neue Cebit-Ära fand ich sehr ermutigend und richtig. Was sich vor allem im Zentralbereich rund um den EXPO Plaza widerspiegelte. Aber letzten Endes war das der Messegesellschaft wohl zu wenig – vor allem in Sachen Besucher- und Ausstellerzahlen. Aber so ist das halt, wenn man nur die Quantität, und nicht die Qualität einer Veranstaltung im Blick hat.

Mach’s gut, Cebit! War immer schön mit dir!

So bleibt mir nur noch zu sagen: Ich werde dich vermissen, Cebit, mit all deinen zahllosen Zufuß-Kilometern, deinen zu schlecht belüfteten Hallen, deinem zu ungesunden Essen. Und vor allem werde ich die zahlreichen Gespräche mit tollen und interessanten Menschen vermissen. Aber die treffe ich ja hoffentlich in Zukunft auf anderen Events.

Stefan Roth von Fujitus über NVMe und KI-Storage

Videoblog: „NMVe-Storage wird künftig eine noch wichtigere Rolle spielen“

Dieses Interview habe ich mit Stefan Roth von Fujitsu auf dem Fujitsu Forum 2018 geführt. Themen waren der Einsatz der NVMe-Technik und welche Rolle die Künstliche Intelligenz im Storage-Umfeld spielt.

Das Fujitsu-Storage-Rad dreht sich weiter und weiter

Im Oktober erst hat Fujitsu mit der ETERNUS DX8900 S4 ein Storage-System auf den Markt gebracht, das von Hause aus mit NVMe-Cache ausgestattet ist. Die Speicherlösung lässt sich mit bis zu 24 Compute-Knoten ausstatten und bietet einen Maximalspeicher von gut 141 Terabyte. Ein besonderes Merkmal des ETERNUS DX8900 S4 ist die FPGA-basierte Datenkomprimierung, was mehr Spielraum für aufwändige Applikationen lässt, da die Serverprozessoren von den FPGA-Chips entlastet werden.

NVMe kommt in unterschiedlichen Ausprägungen zum Einsatz

Das Besondere an der NVMe-Technik ist ja dessen einfache Handhabe, womit es viel mehr ist als nur ein ergänzendes Protokoll zu SCSI. Das äußert sich vor allem in reduzierten Latenzzeiten zwischen Speichereinheiten, weshalb es aktuell bevorzugt für Cache-Speicher eingesetzt wird. Darüber hinaus taugt NVMe auch als Verbindungstechnik zu SSD-Storage-Einheiten und ersetzt damit SCSI und SAS.

Die Königsdisziplin stellt allerdings NVMe over Fabric dar, also die NVMe-basierte Anbindung von Storage-Einheiten über das lokale Netzwerk, also zB via Broacade Gen 6. Das vereinfacht zum einen die Verbindung zu den vorhandenen Servern und erlaubt zum anderen eine höhere Zahl an Maschinen, die sich mit den Storage-Systemen verbinden lassen.

Mit NVMe macht Fujitsu 2019 so richtig ernst

Im nächsten Jahr wird Fujitsu eine ganz neue Serie ins ETERNUS-Portfolio aufnehmen, die dem Thema NVMe noch mehr Rechnung trägt als dies bisher der Fall ist. Detaillierte Infos dazu wird es auf den Fujitsu Storage Days 2019 geben, die vom 22. Januar 2019 an in zahlreichen Städten stattfinden und die das Thema ETERNUS in den Vordergrund rücken.

Die Künstliche Intelligenz erfordert unterschiedliche Speichersystemen

Spricht man über das Thema Künstliche Intelligenz, kommt man um das Thema Big Data bzw. große Datenmengen nicht herum. Daten werden hierfür nämlich im großen Stil gesammelt und gespeichert, aber auch in Echtzeit verarbeitet. Hinzu kommt die Notwendigkeit, bestimmte Daten zu archivieren, und so fort. Das stellt an die hierfür notwendigen Speichersysteme ganz unterschiedliche Anforderungen. Das beginnt bei möglichst kurzen Antwortzeiten und endet bei einem maximal hohen Datendurchsatz. Aber, und auch das will bei der KI berücksichtig werden, rücken zB bei unstrukturierten Daten neue Konzepte wie Objektspeicher in den Vordergrund.

Das komplette Interview mit Stefan Roth

DSAG-Kongress 2018

Mit Axians auf dem DSAG-Kongress 2018: vPack für SAP HANA-Cloud

„Business ohne Grenzen – Architektur der Zukunft“, so lautete das Motto des diesjährigen Jahreskongress der deutschsprachigen SAP-Anwendergruppe e.V. (DSAG). Neben dem Teilnehmerrekord mit über 5.000 interessierten Besuchern zählten sicherlich die über 300 Fachvorträge zu den Highlights der Veranstaltung im schönen Leipzig.

Im Zentrum des Geschehens stand unter anderem das Thema Digitalisierung, das im Vorfeld des Events per Umfrage der DSAG abgeklopft wurde. So bestätigten darin mehr als ein Drittel der Befragten, dass sie sich durchaus gut vorbereitet sehen in Sachen digitale Prozesse und Arbeitsabläufe.

SAP-Architektur der Zukunft: HANA, oder was?

Eines der Themen auf dem DSAG-Kongress lautet: Wie sieht die SAP-Architektur der Zukunft aus, was können also alternative Betriebsmodelle zu HANA sein.

S4/HANA setzen rund 78 Prozent der DSAG-Mitgliedsunternehmen ein, was die enorme Relevanz dieser Plattform belegt. Trotzdem sind sich nur rund 41 Prozent der Befragten sicher, dass sie die Businesssuite bis 2025 durch ein alternatives Modell ablösen werden. Die Umfrage zeigt zudem, dass neben den bekannten Applikationsthemen die IT-Infrastruktur eine große Rolle spielt. Allerdings haben viele der befragten Unternehmen noch keine Entscheidung darüber getroffen, ob sie in die Enterprise Cloud von SAP oder in eine alternative Public Cloud migrieren.

Darum prüfe, wer sich an die SAP-Cloud binde

Naheliegend dabei ist natürlich, den Quasi-Standard von SAP zu nutzen. Wer diese Möglichkeit prüft, stößt jedoch auf einige Herausforderungen. Dazu gehört zum Beispiel die Sicherstellung eines wirtschaftlichen Betriebs, aber auch die Komplexität der Migration ist nicht zu unterschätzen. Darüber hinaus hält das oft diskutierte Public-Cloud-Thema viele Unternehmen vom Gang in die HANA Enterprise Cloud ab. So scheuen sich viele IT-Verantwortliche davor, unternehmenskritische Daten auf einer geteilten Infrastruktur zu verarbeiten. Warum also nicht die Infrastruktur gleich selbst aufbauen?

Das mag für zahlreiche Anwender ein verlockender Gedanke sein, allerdings ist hierbei darauf zu achten, dass die Infrastruktur-Komponenten komplett von SAP zertifiziert sein müssen. Ansonsten kann später möglicherweise der SAP-Support nicht in vollem Umfang in Anspruch genommen werden. Hinzu kommt, die benötigte Hardware in der richtigen „Größe“ auszuwählen. Denn überdimensionierte Infrastrukturen verursachen zu hohe Anschaffungskosten. Daher ist es empfehlenswert, auf ein flexibel skalierbares Modell zu setzen, bei dem man zunächst „klein“ anfängt, das dann sukzessive wachsen kann. 

Wie sich dieser Herausforderung sinnvoll begegnen lässt, zeigte das IT-Haus Axians. Die eigens hierfür entwickelte Lösung vPack ist für SAP HANA und S/4 HANA zertifiziert und bietet in drei Ausprägungen die Möglichkeit, eine dediziert skalierbare Infrastruktur aufzubauen.

SAP HANA als Managed Private Cloud im Rechenzentrum

Diese Lösung ist für den Betrieb von SAP-Produktivsystemen konzipiert und wird anhand der individuellen Unternehmensanforderungen dimensioniert. Die Hardware steht im Rechenzentrum des Anwenderunternehmens. Es handelt sich also um eine reine Private Cloud, die Axians vollständig remote administriert. Für die Anschaffung zahlt das Anwenderunternehmen nichts – berechnet wird lediglich ein monatlicher Basispreis für eine Mindestmenge an CPU-Rechenzeit sowie für den benötigten Arbeits- und Festplattenspeicher. Damit werden CAPEX zu OPEX, also aus Anlageinvestitionen reine Betriebskosten, was sich natürlich günstig auf die Bilanz eines Unternehmens auswirken kann.

Darüber hinaus werden die Ressourcen nutzungsbasiert abgerechnet. Diese Lösung ist also äußert flexibel und skalierbar und kombiniert die Bezahlmodalitäten einer Public Cloud mit der Sicherheit einer Private Cloud, da sich die Daten zu jeder Zeit ausschließlich im Unternehmen befinden.

SAP HANA als Managed Hosted Private Cloud

Diese Variante baut auf der vorherigen auf und sieht zusätzlich eine voll zertifizierte Backup-as-a-Service-Anbindung vor. Die Hardware steht nicht beim Anwender selbst, sondern als Private Cloud bei einem Colocator.  Somit bietet diese Lösung den Vorteil eines vollumfänglichen Disaster Recovery-Ansatzes, ohne dabei einen weiteren eigenen Standort einbinden zu müssen.

SAP HANA als Managed Hosted Hybrid Cloud

Diese vPack-Variante basiert auf den beiden vorherigen Optionen. Hier steht die Lösung ebenfalls bei einem Colocator und die Überwachung übernimmt Axians. Zusätzlich zum Produktivsystem auf der Private Cloud und einem Backup as a Service lassen sich ergänzend Entwicklungssysteme und weitere Workloads auf der Shared-Plattform von Axians über eine Public Cloud betreiben.

Zur eigenen vPack-SAP-HANA-Cloud in nur 45 Tagen

Der IT-Dienstleister konfektioniert vPack anhand der individuellen Anforderungen des Anwenders. Von der Beauftragung bis zur Inbetriebnahme der individualisierten Lösung vergehen maximal 45 Tage. Es fallen keine Anschaffungskosten an, und vPack lässt sich per Plug & Play unkompliziert starten. Das IT-Haus gewährleistet eine Verfügbarkeit von mindestens 99,95% Prozent, während die Abrechnung nach Verbrauch die Kosten für jede einzelne virtuelle Maschine transparent macht. Bei der gemanagten Lösung steht den Anwendern 24 Stunden an sieben Tagen in der Woche eine deutschsprachige Hotline zur Verfügung. 

Mit diesem Ansatz kommt der Anbieter den Forderungen der SAP-Community nach, die nach Alternativen für die ERP-Transformation sucht. Hierbei will vPack die Anwender als Infrastrukturumgebung unterstützen. Praktischerweise erleichtert die integrierte Management-Oberfläche den Umgang mit der Umgebung. Axians bietet vPack als OPEX-basiertes Gesamtpaket an. Es enthält die Infrastruktur inklusive Software als auch integrierte Managed Services für Plattform, Hypervisior und Betriebssystem bis hin zur SAP-Basis.

Diese Ansätze und alternativen Modelle stießen laut Axians während des Kongresse bei den Teilnehmern und Anwendern auf große Zustimmung.

Linktipps:

Disclaimer: Dieser Blogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Chris Cook, President und CEO von Delphix

Videoblog: „Mit unserer Masking-Technik sind sensible Daten DSGVO-konform“

Chris Cook ist seit 2016 President & CEO des Sicherheitsexperten Delphix aus dem schönen Redwood City, Kalifornien, USA. Mit ihm durfte ich dieses Videointerview führen, dass „DataOps“ zum Thema hatte und wie Delphix seinen Kunden in Zeiten von DSGVO & Co. hilft, so sicher, gesetzeskonform und simpel wie möglich ihre Daten vor ungebetenen Zugriffen zu schützen.

„DataOps“ steht für automatisierte, wertvolle und sichere Daten

Datenbank-Administratoren und Datenbank-Anwender fechten jeden Tag aufs Neue ihre teilweise kontroversen Ansprüche an die Technik aus: Die einen (die Admins) müssen aus Gründen der Gesetzeskonformität auf sichere Daten achten, und die anderen (die Benutzer) wollen schnell und unkompliziert darauf zugreifen. Im „normalen“ IT-Alltag ist das ein Dilemma, das sich nur schwer auflösen lässt. Und genau an dieser Stelle kommt der Begriff „DataOps“ ins Spiel.

Mit DataOps-Ansätzen und -Konzepten soll vor allem die digitale Transformation beschleunigt werden, wie die folgende Infografik belegt:

Infografik DataOps von Delphix

Die Grafik zeigt vor allem eins: Mit neuen DataOps-Konzepten gelingt die Bereitstellung von Daten schneller (und zwar im Rechenzentrum UND in der Cloud), steigt die Qualität der Daten, nimmt die Sicherheit zu und gleichzeitig nehmen die Speicherkosten ab, da Daten komprimiert und virtualisiert abgelegt werden.

Delphix Dynamic Data Platform maskiert Daten für mehr Sicherheit und mehr Agilität

Doch die neuen DataOps-Ansätze erfordern aufgrund ihrer hohen Verknüpfungen zwischen allen Beteiligten zusätzliche Anforderungen an die Sicherheit. Diese stellt Delphix mithilfe einer Technik her, die sich „Masking“ nennt. Hierbei werden vor allem die sicherheitskritischen Teile eines Datensatzes für Außenstehende unkenntlich gemacht. Damit können sie nur von den Anwendern genutzt werden, die legalen Zugriff auf die Delphix Dynamic Data Plattform (DDDP) haben. So stellt Delphix beispielsweise für die DSGVO spezielle Discovery-Templates zur Verfügung, mit deren Hilfe ausschließlich personenbezogene Daten maskiert und damit für Unbefugte unleserlich gemacht werden.

Die Maskierungstechnik von Delphix kommt oft in Nicht-Produktivumgebungen zum Einsatz, also überall dort, wo Analysten, Software-Entwickler und ähnliche Anwendergruppen ihre Daten ablegen und diese relativ ungesichert handhaben, da für sie Agilität vor Sicherheit geht. Damit stellen vor allem diese IT-Umgebungen aus Datenschützersicht eine besondere Herausforderung dar. Und genau dort werden die bestehenden Daten auf ihre Sensibilität hin untersucht und derart maskiert, dass Außenstehende damit nichts anfangen können, selbst wenn sie unrechtmäßig Zugriff darauf erlangten.

Unternehmen wie T-Systems setzen auf die Delphix Dynamic Data Platform

T-Systems und andere namhafte Unternehmen setzen bereits seit Jahren auf die Sicherheit der Delphix Dynamic Data Platform. Dazu sagt beispielsweise Bernd Wagner, seines Zeichens SVP Sales Germany bei T-Systems:

Die Zusammenarbeit mit Delphix resp. der Einsatz der DDDP fußt auf drei Säulen: Zum einen arbeitet T-Systems damit vollkommen DSGVO-konform, zum anderen ermöglichen wir aufgrund des hohen Automatisierungsgrads unseren Kunden, ihre eigenen Entwicklungsumgebungen zu implementieren. Und drittens können wir damit erhebliche Infrastrukturkosten einsparen und Prozesse deutlich beschleunigen.

 

Und warum ist das für T-Systems und andere große Firmen so unternehmensentscheidend? Nun, auch hierzu hat Herr Wagner eine klare Meinung:

Wir sehen aktuell einen Trend weg von SAP-Installationen hin zu HANA-Umgebungen. Auch an dieser Stelle kommt Delphix mit seiner Dynamic Data Platform zum Zug, indem sie uns und unseren Kunden helfen, innerhalb kürzester Zeit von SAP auf die HANA-Plattform zu migrieren, und das völlig gesetzeskonform. Das erlaubt uns beispielsweise, aufwändige Softwaretests außerhalb der EU durchführen zu lassen, ohne die DSGVO-Regeln oder andere Bestimmungen zu verletzten.

Das vollständige Interview mit Chris Cook und Bernd Wagner

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Christian Beedgen, CTO und Mitgründer vomn Sumo Logic

Videoblog: „Unsere Monitoring Services sorgen für bessere Server und Apps“

Seit der Gründung seiner Firma Sumo Logic im Jahre 2010 beschäftigt sich Christian Beedgen mit dieser einen entscheidenden Frage: Wie schaffen wir es, die Webserver und -anwendungen dieser Welt ein bisschen sicherer und zuverlässiger zu machen? Die Antwort finden seine Kunden wie AirBnb, Adobe und viele andere in den Monitoring Services seines Unternehmens.

Genau darüber durfte ich mit Christian vergangenen Freitag in München reden. Herausgekommen ist das nachfolgende Interview, in dem ich so manch Wissenswertes zum Thema Monitoring erfahren habe.

Sumo Logic betreibt Log Management „as a Service“

Sumo Logic betrachte ihre Monitoring Management-Lösung als „Software as a Service“, was dem Ganzen wohl ziemlich nahe kommt. Damit lassen sich sowohl Anwendungen als auch komplette Server überwachen. Und natürlich kann Sumo Logic auch auftretende Fehler lokalisieren und beheben.

Der Vorteil für die Kunden liegt auf der Hand: Anstatt mithilfe eines dedizierten Servers oder einer speziellen Anwendung im Hintergrund sämtliche Aktivitäten selbst zu beobachten (wie das zum Beispiel mit Paessler-Tools der Fall ist) , übernimmt Sumo Logic diese Aufgabe für seine Kunden, und das ohne jegliche Software-Installation. Okay, ein kleiner Agent muss einmal beim Anwender installiert werden. Das kann aber sogar der Kunde selbst erledigen, womit er die Kontrolle darüber behält, wo der Agent läuft und was er an Daten nach draußen schicken darf.

Praktisch an diesem Monitoring-Service ist auch die mögliche Skalierung, die bei Sumo Logic direkt auf dem Cloud-Server vorgenommen wird. Damit spielt es keine Rolle, ob ein, zwei oder mehr Rechner bzw. Anwendungen oder Dienste überwacht werden sollen. Diese kann das Unternehmen von Christian Beedgen beliebig dazu schalten, je nachdem, was der installierte Agent vorsieht.

Log-Daten helfen bei der Überwachung von Webservern und -applikationen

Gerade für Unternehmen wie AirBnB oder Adobe steht ein wesentliches Merkmal im Vordergrund des unternehmerischen Tuns: Die permanente Verfügbarkeit ihrer Webserver, auf denen ihre Kunden 24/7 unterwegs sind und sich informieren und buchen und Inhalte auf den Rechner laden. Da können Wartezeiten von wenigen Sekunden schon zu einem Transaktionsabbruch des Kunden führen. Und genau hier setzt Sumo Logic mit seinen Services an. Denn jeder noch so kleine „Schluckauf“ eines Webservers oder unvorhergesehene Komplikationen werden identifiziert und möglichst schnell behoben.

Sumo Logic überwacht Anwendungen und Webserver auf Anomalien hin

Doch nicht nur das unnatürliche Verhalten von Webservern steht bei Sumo Logic im Fokus. So kann das Unternehmen mithilfe seines Monitoring genau sehen, wer sich auf den überwachten Servern anmeldet, was er dort tut, und so fort. Treten dabei Unregelmäßigkeiten auf, kann darauf sofort reagiert und die entsprechenden Maßnahmen eingeleitet werden. Das betrifft übrigens auch den Zugriff auf Applikation innerhalb des Netzwerks, da auch hier Bedrohungen lauern.

Was die Sumo Logic-Studie zeigt

Eine von Sumo Logic in Auftrag gegebene Untersuchung der aktuellen Kundenstruktur zeigt dreierlei: Multi-Cloud-Umgebungen nehmen zu und Lambda-Funktionen erfreuen sich immer größerer Beliebtheit, was sich auch über Container-Techniken wie Kubernetes & Co. sagen lässt. Was natürlich mittel- und unmittelbare Auswirkungen auf die Monitoring Services von Sumo Logic hat.

Das vollständige Videointerview mit Christian Beedgen von Sumo Logic

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit Eloquenza PR entstanden.

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Scott Tease über das weltweite Lenovo HPC-Geschäft

[Videoblog] Scott Tease über das weltweite HPC-Geschäft von Lenovo

Scott Tease verantwortet das weltweite HPC-Geschäft bei Lenovo (High-Performance Computing) und hat demzufolge eine ganze Menge zu diesem Thema zu sagen. Aus diesem Grund habe ich mit ihm während der International Supercomputing Conference 2018 ein Videointerview geführt. Darin spricht er über das HPC-Business von Lenovo im Allgemeinen, über die Besonderheiten der Warmwasser-Kühlungstechnologie Lenovo Neptune und über einen aktuellen HPC-Trend.

Lenovo stellt den führenden HPC-Anbieter dar

Betrachtet man die zweimal jährlich erscheinenden Top-500-Liste der 500 schnellsten Supercomputer der Welt, taucht dort Lenovo aktuell öfter auf als alle anderen Anbieter von Superrechnern, nämlich genau jedes vierte Mal. Das entspricht rein rechnerisch knapp 25 Prozent, worauf Lenovo mächtig stolz ist.  Das gilt ganz besonders für die Vielzahl an unterschiedlichen Konfigurationen, die das Unternehmen an seine Kunden verkauft.

So bekommen diese Firmen genau den Supercomputer, den sie für ihre Zwecke benötigen. Ob das der SuperMUC-NG mit seiner Warmwasser-gekühlten Anlage ist, der Marconi-Supercomputer in Italien, der MareNostrum4 des Barcelona Supercomputing Center oder der Niagara, der leistungsstärkste Supercomputer in Kanada mit gut 3 Petaflops – diese und andere Lenovo-Kunden setzen Supercomputing-System ein, die auf sie abgestimmt wurden.

Doch nicht nur bei Großkunden wie dem Leibniz-Rechenzentrum ist Lenovo gut im Geschäft. Denn auch mit kleineren Unternehmen und wissenschaftlichen Einrichtungen, die nicht unbedingt einen Supercomputer der Marke SuperMUC-NG brauchen, macht Lenovo aktuell gute Abschlüsse. So profitieren all diejenigen, die nur kleinere Recheneinheiten im Server benötigen, genauso von der zugrunde liegenden Lenovo Supercomputing-Technik.

Lenovo Neptun: Warmwasserkühlung zu diversen Zwecken

Bereits seit 2012 arbeitet Lenovo gemeinsam  mit dem Leibniz-Rechenzentrum an einem Kühlungssystem, das auf der Warmwassertechnik basiert. Dabei handelte es sich um den ersten SuperMUC, der von dieser seinerzeit noch ziemlich neuen Technik profitierte. Das Ziel damals (und heute) war eine deutliche Reduktion der Stromkosten, die solch ein Supercomputing verantwortet. Und genau diese Ideen und Konzepte, die daraus entstanden sind, werden heute unter der Bezeichnung Lenovo Neptun zusammengefasst. Gemeint ist damit eine Warmwasserkühlung für Großrechner, die Lenovo in den nächsten Jahren in einer Vielzahl von HPC-Systemen verbauen will.

Neben dieser direkten Warmwasserkühlung hat Lenovo aber auch kleinere Wärmeableitersysteme in petto. Dazu gehört zum Beispiel Rear Door Heat eXchanger. Damit lässt sich ebenfalls sehr effizient die Wärme eines Rechnersystems ableiten. Der Supercomputer MareNostrum4 des Barcelona Supercomputing Center setzt beispielsweise auf diese Technik. Dabei handelt es sich um eine Art Heizung, die anstelle der Serverrack-Tür am Rechner angebracht wird.

Darüber hinaus hat Lenovo eine Kühlungstechnik namens Thermal Transfers Module (TTM) im Programm. Damit lassen sich ganz im Sinne von Lenovo Neptun Systeme mithilfe von warmen Wasser kühlen, allerdings nicht auf System-, sondern auf CPU-Ebene. Dabei handelt sich um ein Hybridsystem, das einerseits die klassische Luftzirkulierung und andererseits die neuartige Warmwasserkühlung einsetzt. TTM kommt vor allem in kleineren Rechnereinheiten zum Einsatz, in denen aus Platzgründen Techniken wie Lenovo Neptun keine Option ist. Dies sorgt für mehr Rechnerleistung bei weniger Abwärme – und für weniger Lärm.

Aktuelle HPC-Trend: GPU statt CPU

Einer der wesentlichen HPC-Trends betrifft die Prozessortechnik, die verstärkt in Supercomputern zum Einsatz kommt. So findet nämlich gerade eine Transformation vom traditionell CPU-lastigen Rechnermodell hin zu GPU-Systemen steht. Das bedeutet konkret, dass vor allem Spezialanwendungen mehr und mehr von der Multicore-Architektur der Hochleistungsgrafikkarten wie einer NVIDIA V100 profitieren. Dazu gehört beispielsweise das riesige Themenfeld der Künstlichen Intelligenz, das aufgrund seiner hohen Rechneranforderungen verstärkt auf GPUs setzen wird. HPC at its best, sozusagen.

Das komplette Interview mit Scott Tease (auf Englisch)

Sergej Schlotthauer, Matrix42, über aktuelle Sicherheitssthemen

[Videoblog] Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Sergej Schlotthauer von Matrix42 geführt. Darin spricht er über das „Center of Excellence for Security“, über Endpoint Management und die wichtigsten, aktuellen Security-Themen.

Sergej Schlotthauer verantwortet „Center of Excellence for Security“

Mit dem Zusammenschluss der beiden Firmen Matrix42 und EgoSecure entstanden für Matrix42 ganz neue Möglichkeiten, die im „Center of Excellence for Security“ mündeten. Dieser neuen Einrichtung steht Sergej Schlotthauer vor, in der unter anderem die Themen Endpoint Security und Software Management im Vordergrund stehen. Und genau mit diesen Schwerpunkten wollen und werden Matrix42 und EgoSecure künftig den Markt mit neuen Lösungen versorgen.

So gibt es beispielsweise gemeinsame Aktivitäten im Kontext der DSGVO, denn hierfür müssen Daten verschlüsselt und Zugriffe darauf verhindert werden. Und genau darum kümmert sich künftig Matrix42 mit der Expertise von EgoSecure.

Endpoint Management wird immer wichtiger

In Zeiten, in den Daten eine wahre Goldgrube darstellen, wird der Schutz derselben immer wichtiger. Daher müssen künftig vor allem die möglichen Einfalltore noch besser geschützt werden. Neben den klassischen Desktop- und Notebook-Rechnern sind das verstärkt Smartphones, Tablets und andere Geräte, auf denen Daten liegen oder die ihre Daten auf dem Firmenserver speichern wollen. Hierfür sind erprobte Managementlösungen und sichere Verschlüsselungsverfahren erforderlich.

Aktuelle Sicherheitsthemen: externe Angriffe und Datenschutz

Sieht man sich die aktuellen Sicherheitsrisiken an, mit denen IT-Beauftragte konfrontiert werden, lassen sich vor allem zwei Themen nennen: Angriffe von außen und der Datenschutz im Geiste der DSGVO.

Im Falle der externen Bedrohungen ist es zwingend erforderlich, mehr und mehr über die Automatisierung von Sicherheitsmaßnahmen nachzudenken. Denn die Bedrohungen von außen werden immer intelligenter und zielgerichteter, sodass es nicht mehr reicht, einen IT-Adminstrator vor eine Konsole zu setzen in der Hoffnung, dass er die Angriffe abwehren kann. Daher sind intelligente Systeme erforderlich, die vollautomatisch Angriffe erkennen und diese eliminieren können.

Beim zweiten Thema Datenschutz fällt auf, dass die Akzeptanz der hierfür notwendigen Maßnahmen verbessert werden sollte. Denn immer noch herrscht bei vielen Anwendern der Eindruck vor, dass Datenschutzmaßnahmen ihre Effizienz negativ beeinträchtigen – was zwar eine sehr subjektive, aber durchaus ernstzunehmende Wahrnehmung ist. Um dem vorzubeugen, sind die richtigen Mittel und Wege erforderlich, um den Anwendern das Gefühl zu geben, dass ihr Arbeitsplatz einerseits sicher und andererseits genauso produktiv wie vorher ist. Oder vielleicht sogar noch sicherer und noch produktiver als vorher.

Das vollständige Interview mit Sergej Schlotthauer