Prof. Dr. Dieter Kranzlmüller vom LRZ Garching über den SuperMUC-NG

Videochat: „Der SuperMUC-NG ist ein weiterer Meilenstein für das LRZ“

Am 24.9.2018 war es soweit: Da wurde die dritte Ausbaustufe des Supercomputers mit der Bezeichnung SuperMUC-NG am Leibniz Rechenzentrum in Garching bei München in Betrieb genommen. Warum der neue Rechner für das LRZ und seine Kunden wichtig ist und ob KI-Anwendungen darauf zum Laufen kommen werden, darüber habe ich mit einem der verantwortlichen Köpfe, Prof. Dr. Dieter Kranzlmüller, gesprochen.

Profiteure des SuperMUC-NG: Wissenschaftler mit hohem Rechenbedarf

Schon bei SuperMUC und SuperMUC 2 stand eine möglichst große Bandbreite an Anwendern und Anwendungen im Vordergrund. So verteilten sich beispielsweise beim SuperMUC etwa 7,5 Milliarden Rechenzyklen auf 700 verschiedene Nutzer, die ihrerseits die Charakteristik des Supercomputers am LRZ in Garching mitbestimmen.

Natürlich sind dabei möglichst hohe Leistungswerte wichtig, und davon hat der SuperMUC-NG eine ganze Menge zu bieten. Trotz dieser enormen Rechenleistung ist der LRZ-Rechner ein äußerst energieeffizienter Supercomputer, der dank seiner Heißwasserkühlung im Gegensatz zu vielen anderen Supercomputern wesentlich ressourcenschonender mit Strom umgeht.

Hierfür beschreitet das LRZ Garching – wie bereits bei seinen Vorgängern – ganz eigene Wege: So wird zum einen die Abwärme des SuperMUC-NG zum Beheizen der LRZ-Gebäude genutzt, und zum anderen sorgen Absorptionskältemaschinen dafür, dass das heiße Kühlwasser der SuperMUC-NG-Kühlung in kaltes Wasser umgewandelt wird. Damit wird das scheinbar nutzlose Abwasser in den Wasserkreislauf rücküberführt und kann so ein zweites Mal genutzt werden.

Der SuperMUC-NG stellt einen logischen Evolutionssprung dar

Zwei Gründe sprachen für die dritte Ausbaustufe des SuperMUC: Zum einen war es in diesem Fall sinnvoller, eine neue Anlage wie den SuperMUC-NG bauen zu lassen als das „alte“ System mithilfe neuer Komponenten „upzugraden“. Das wirkt sich nämlich auf die möglichen Leistungswerte und auf die Betriebskosten äußerst positiv aus. Zudem führen neue Wissenschaftsbereiche dazu, dass immer mehr Anwender immer mehr Rechenleistung benötigen. Und auch hier bietet der SuperMUC-NG deutlich verbesserte Werte, und das nicht nur in absoluten Zahlen, sondern auch relativ, wenn man sich das Preis-Leistungsverhältnis ansieht.

Der SuperMUC-NG ist noch nicht vollends KI-tauglich

Für das Thema Künstliche Intelligenz ist der SuperMUC-NG noch nicht vollständig ausgerüstet. So setzt das LRZ Garching für Machine Learning und Deep Learning eigene neuronale Systeme ein, die mit den komplexen KI-Berechnungen einfach besser zurecht kommen als die im SuperMUC-NG verbauten Komponenten. Allerdings bietet der riesige Speicher des LRZ-Supercomputers ausreichend Platz für die großen Datenmengen, die bei KI-Anwendungen anfallen. Damit leistet der SuperMUC-NG dann doch einen wichtigen KI-Beitrag.

Aber, und da wagte Herr Kranzlmüller einen Ausblick, wird der nächste SuperMUC wohl seine eigenen KI-Komponenten aufweisen, womit dann Berechnungen und Daten auf einem einzigen System stattfinden bzw. gespeichert werden können.

Die Zusammenarbeit mit den Hardware-Lieferanten des SuperMUC-NG: sehr zufriedenstellend

Da solch ein System wie der SuperMUC-NG stets eine über viele Jahre angelegte Kooperation darstellt, kommt es für den Erfolg solch einer Installation maßgeblich auf eine kontinuierliche und partnerschaftliche Zusammenarbeit an. Und diese war im Falle des neuen LRZ-Supercomputers von großem Vertrauen geprägt. Und klar, es ging alles pünktlich vonstatten, andernfalls wäre der heutige Start des SuperMUC-NG nicht möglich gewesen.

Das komplette Interview mit Prof. Dr. Kranzlmüller vom LRZ Garching

Rick Koopman about Lenovo and AI

[Videoblog] Darum ist Künstliche Intelligenz für Lenovo so wichtig

Dieses Interview habe ich mit Rick Koopman von der Lenovo Data Center Group auf der International Supercomputing Conference 2018 geführt. Darin spricht er über das Thema KI (Künstliche Intelligenz) und warum es so wichtig für Lenovo ist. Darüber hinaus ließ er mich an den aktuellen KI-Entwicklungen teilhaben und zeigte auch, was Lenovo-Kunden in nächster Zeit in Sachen KI von Lenovo erwarten können.

Künstliche Intelligenz ist für Lenovo ein wichtiges Thema

Lenovo-Lösungen und das Thema KI passen zwangsläufig gut zusammen, weil sich beide Seiten sehr gut ergänzen. Damit ermöglicht Lenovo seinen Kunden, deren Arbeit und Projekte noch besser realisieren als ohne KI. Davon profitieren zahlreiche Bereiche wie die Wissenschaften und das Gesundheitswesen, wo Bilderkennungsalgorithmen eine wichtige Rolle spielen. Und genau dort kommt die KI zum Einsatz, und das häufig in Form von Machine Learning und Deep Learning. Das erfordert natürlich optimierte und auf den Kunden zugeschnittene Lösungen und Algorithmen, die Lenovo bieten kann und will.

NVIDA V100-CPU-Lösung und Warmwasserkühlung sind auf dem Vormarsch

Sieht man sich die aktuellen Algorithmen und Anwendungen an, wird schnell klar, dass ein Großteil immer noch sehr prozessor-lastig ist, da sich die Software-Entwickler immer noch stark an der Prozessor-basierten Programmierung orientieren. Allerdings verschieben sich hier die Grenzen zunehmend, sodass neue Ansätze und Techniken erforderlich sind. Eine Möglichkeit ist der Einsatz von Spezialhardware, die auf einer großen Zahl von Grafikchips beruht, was sich in einer leistungsfähigen und parallel arbeitenden Multicore-Architektur widerspiegelt.

Das führt dann zu KI-Hardware-Lösungen wie NVIDIA V100. Dieser Hochleistungsgrafikprozessor wurde speziell für die Bereiche KI, HPC und Co. entwickelt und beruht auf der NVIDIA Volta-Technologie. Laut NVIDIA entspricht die Rechenleistung eines einzigen Grafikprozessors der von 100 herkömmlichen CPUs. Darüber hinaus ist der V100-Prozessor mit einem eigenen Speicher von 16 bzw. 32 Gigabyte ausgestattet, was den Zugriff auf häufig benötigte Daten deutlich beschleunigt.

Klar ist aber auch, dass diese hohe Dichte an CPU- und GPU-Komponenten die Wärmeentwicklung innerhalb eines KI-Systems deutlich erhöht, was ganz neue Kühlungsmethoden erfordert. Daher wird Lenovo künftig verstärkt auf die Warmwasserkühlung setzen, was sich sehr gut anhand der neuen Technologie Lenovo Neptune zeigt. Diese soll sowohl in kleineren Systemen wie auch in kompletten Rechenzentren zum Einsatz kommen. Dass das sehr gut funktioniert, zeigt das Leibniz-Rechenzentrum (LRZ) bereits seit vielen Jahren.

KI-Algorithmen „wandern“ auf IoT-Geräte – zur Entlastung des Zentralrechners

Zweifellos werden und müssen die Kapazitäten in Sachen KI deutlich erhöht werden. Dazu gehört auch eine spezielle Form der Dezentralisierung von Rechenleistung, die unmittelbar mit dem aufstrebenden Internet der Dinge (IoT) verknüpft ist. Damit lässt sich die bisher zentrale Rechenpower eines einzelnen Supercomputers auf angeschlossene Recheneinheiten „transferieren“, sodass die CPU-GPU-Power näher an die Anwender rückt.

Damit kann beispielsweise die notwendige Bild-/Audio-/Videoerkennung direkt vom IoT-Gerät selbst durchgeführt werden, das die Daten erfasst hat. Dazu gehören unter anderem Kameras sowie Audio- und Infrarotsensoren, die den Zentralrechner von den maßgeblichen Rechenarbeiten entlasten können. Was dazu führt, dass der Supercomputer permanent mit den IoT-Geräten Zwischenergebnisse austauscht und daraus nur noch das finale Ergebnis erstellt.

Das Videointerview mit Rick Koopman in voller Länge

 

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

IBM Blue Gene/P Supercomputer

Künstliche Intelligenz: Wieviel Rechenleistung ist tatsächlich nötig?

Im Jahr 2016 gelang einer Software namens AlphaGo eine mittlere Sensation: Sie besiegte den damals besten Go-Spieler der Welt, den Südkoreaner Lee Sedol, und das sehr klar und eindeutig mit 4:1. Dieser Erfolg war umso erstaunlicher, als dass es bis dahin für einen Computer unmöglich schien, im komplexesten Spiel der Welt gegen einen Menschen überhaupt zu bestehen. Und doch war dieser Sieg möglich, wozu allerdings eine enorme Rechenleistung vonnöten war. So kam während der Partien mit Lee Sedol ein Rechnerverbund zum Einsatz, der aus insgesamt 1.920 Prozessoren (CPU) und 280 Grafikprozessoren (GPU) bestand.

Allerdings hat AlphaGo bereits seinen Meister gefunden, und das im Nachfolgeprogramm selbst namens AlphaZero. So konnte sich AlphaZero im Maschine-gegen-Maschine-Duell in 60 von 40 Fällen gegen AlphaGo durchsetzen, und das trotz der wesentlich kürzeren Lernphase von gerade einmal acht Stunden. AlphaGo benötigte dafür immerhin drei Tage.

  • Supercomputer wie der IBM BlueGene schaffen 1 PetaFLOPS und mehr
  • Selbstlernende Krypto-Systeme sind erst der Anfang
  • Wenn die starke KI die schwache KI ablöst...

Doch es geht noch leistungsstärker: So schaffte es der Supercomputer IBM BlueGene im Jahr 2013 die Aktivitäten des menschlichen Gehirns zu simulieren, allerdings nur zu einem Prozent, und das auch nur eine Sekunde lang. Hierfür benötigte der Supercomputer straffe 40 Minuten, wofür 82.944 CPUs und eine Billiarde Berechnungen pro Sekunde erforderlich waren, was 1 PetaFLOPS entspricht. Das ist aber auch nicht wirklich erstaunlich: So wurden während der Simulation rund 1,7 Milliarden Nervenzellen generiert, die ihrerseits mithilfe von 10,4 Billionen Synapsen miteinander verbunden waren.

IBM Blue Gene/P Supercomputer

Von Argonne National Laboratory’s Flickr page – originally posted to Flickr as Blue Gene / PFrom Argonne National LaboratoryUploaded using F2ComButton, CC BY-SA 2.0

Dass diese enorme Rechenleistung weiter zunehmen wird, offenbart ein Blick auf die aktuelle Top-500-Liste der schnellsten Computer der Welt. So rangiert dort der Sunway TaihuLight, der im National Supercomputing Center in Wuxi, China, seine enorme Rechenpower von 93 PetaFLOPS zur Verfügung stellt. Hierfür stehen dem Supercomputer mehr als zehneinhalb Millionen Prozessorkerne zur Verfügung. Und noch in diesem Jahr soll der erste Rechner gebaut werden, der die ExaFLOPS-Marke knacken soll, also eine Trillionen Berechnungen pro Sekunde durchführen kann. Sein Name: Tianhe-3.

Wohin diese enorme Rechenleistung führen kann, lässt sich anhand diverser Beispiele sehr gut belegen. So sorgte Google mit einem Experiment für Furore, bei dem verschlüsselte Nachrichten verschickt wurden, die gehackt werden sollten. Allerdings schafften es Absender und Empfänger quasi „on-the-fly“, ein eigenes Krypto-System zu entwickeln, das den Angriffsversuchen Stand halten konnte. Die Leistung daran lag im Verschlüsselungssystem, das während des Experiments entstand: Selbst die Google-Experten, die das Experiment initiiert hatten, konnten den neu geschaffenen Verschlüsselungscode weder entschlüsseln noch richtig verstehen.

Und das alles ist erst der Anfang. Denn das alles sind Bespiele der schwachen KI, die die Vorstufe zur starken KI darstellt. Denn erst mit der starken KI werden selbstlernende Systeme möglich sein, die nicht nur innerhalb einer Disziplin stark sind, sondern interdisziplinär interagieren und selbstständig lernen können. Und bis dahin ist es ein noch ziemlich weiter Weg.

Zudem stellt sich die Frage, ob die heutigen Prozessoren für Dinge für die Künstliche Intelligenz überhaupt konzipiert sind. Denn mit der Von-Neumann-Architektur aus dem vorherigen Jahrhundert sind die Rechenaufgaben dieses Jahrhunderts wohl kaum zu lösen. Hierfür muss man eher ganz neue Wege beschreiten, wie das der IBM TrueNorth-Prozessor von IBM bereits vormacht.

 

Der SuperMUC-NG wird wie seine Vorgänger wieder mit warmen Wasser gekühlt

SuperMUC-NG: Der nächste Supercomputer aus München

26,7 PetaFLOPS, das ist eine gewaltige Zahl. Sie besteht nämlich aus 17 Stellen – und zwar vor dem Komma! Diese enorme Rechenleistung, gemessen in Fließpunktoperationen pro Sekunde, kommt auf das Landesrechenzentrum (kurz: LRZ) Garching zu, wenn es den nächsten Supercomputer der Markt „SuperMUC“ einweihen darf. Sein genauer Name lautet SuperMUC-NG, wobei die Buchstaben „NG“ für „Next Generation“ stehen.

6.400 Lenovo-Server für Big-Data-Analysen und Erdbeben-Simulationen

Und genau darum geht es beim nächsten SuperMUC, dessen dritte Generation bereits zum Einsatz kommen wird. Denn in Zeiten von Big Data-Analysen und Echtzeitsimulationen sind Großrechner wie der SuperMUC-NG erforderlich, die mit riesigen Datenmengen, wie sie heute und morgen entstehen, auch zurecht kommen. Hierfür werden im Herzen des SuperMUC-NG gut 6.400 Hochleistungsrechner vom Typ Lenovo ThinkSystem SD 650 DWC werkeln, in denen der Intel Xeon Scalable-Prozessor das Berechnen bekannter und künftiger HPC-Applikationen unterstützt. In Summe sind das mehr als 300.000 CPU-Kerne, die die eingangs erwähnten 26,7 PetaFLOPS schaffen.

Warmwasserkühlung spart Energie und schafft gleichzeitig neue

Bei dieser unfassbar hohen Rechenleistung darf in Zeiten von Global Warming der Umweltschutzgedanke natürlich nicht zu kurz kommen. Daher setzt man im LRZ auch beim SuperMUC-NG wieder auf die Warmwasserkühlung, die seit Anfang an für eine sehr effiziente „Kühlung“ der gesamten Supercomputeranlage eingesetzt wird. Das führt nicht nur zu enorm reduzierten Energiekosten um bis zu 45 Prozent, sondern ermöglicht gleichzeitig das Recyceln der Abwärme in Form von Warmwasser für umliegende Einrichtungen und Gebäude. Doppeltes Energiesparen, sozusagen.

Erdbeben- und Klimawandel-Simulationen stehen auf der SuperMUC-NG-Liste

Doch was macht man mit dieser geballten Rechenpower, damit sie auch sinnvoll und zum Wohle der Gesellschaft eingesetzt werden kann? Nun, hierfür kommen zahlreiche Anwendungen infrage, wie die Vergangenheit bereits gezeigt hat. So konnte beispielsweise mithilfe des SuperMUC 2 das große Sumatra-Erdbeben simuliert werden, das im Dezember 2004 einen gewaltigen Tsunami auslöste. Hierfür erhielt das LRZ Garching sogar einen Preis, verliehen auf der diesjährigen Supercomputing Conference 2017. Aber auch der Klimawandel und die damit in Verbindung stehenden Auswirkungen auf Mensch und Umwelt können künftig mithilfe des SuperMUC-NG noch besser analysiert und bewertet werden.

Video-Rückblick: Prof. Dr. Bode im Interview

Dreieinhalb Jahre ist es schon wieder her, da habe ich mit Professor Dr. Arndt Bode vom LRZ Garching dieses Interview zum SuperMUC 2 geführt.

Ältere Informationen zu den Vorgängern des SuperMUC-NG

https://www.hightech-computing.de/supermuc-schafft-der-erdbebensimulation-mehr-als-1-petaflops/

https://www.hightech-computing.de/supercomputer-mit-super-kuehlung-der-supermuc-von-ibm/

https://www.hightech-computing.de/isc14-klaus-gottschalk-ibm-ueber-den-geplanten-ausbau-des-supermuc/