Rick Koopman about Lenovo and AI

[Videoblog] Darum ist Künstliche Intelligenz für Lenovo so wichtig

Dieses Interview habe ich mit Rick Koopman von der Lenovo Data Center Group auf der International Supercomputing Conference 2018 geführt. Darin spricht er über das Thema KI (Künstliche Intelligenz) und warum es so wichtig für Lenovo ist. Darüber hinaus ließ er mich an den aktuellen KI-Entwicklungen teilhaben und zeigte auch, was Lenovo-Kunden in nächster Zeit in Sachen KI von Lenovo erwarten können.

Künstliche Intelligenz ist für Lenovo ein wichtiges Thema

Lenovo-Lösungen und das Thema KI passen zwangsläufig gut zusammen, weil sich beide Seiten sehr gut ergänzen. Damit ermöglicht Lenovo seinen Kunden, deren Arbeit und Projekte noch besser realisieren als ohne KI. Davon profitieren zahlreiche Bereiche wie die Wissenschaften und das Gesundheitswesen, wo Bilderkennungsalgorithmen eine wichtige Rolle spielen. Und genau dort kommt die KI zum Einsatz, und das häufig in Form von Machine Learning und Deep Learning. Das erfordert natürlich optimierte und auf den Kunden zugeschnittene Lösungen und Algorithmen, die Lenovo bieten kann und will.

NVIDA V100-CPU-Lösung und Warmwasserkühlung sind auf dem Vormarsch

Sieht man sich die aktuellen Algorithmen und Anwendungen an, wird schnell klar, dass ein Großteil immer noch sehr prozessor-lastig ist, da sich die Software-Entwickler immer noch stark an der Prozessor-basierten Programmierung orientieren. Allerdings verschieben sich hier die Grenzen zunehmend, sodass neue Ansätze und Techniken erforderlich sind. Eine Möglichkeit ist der Einsatz von Spezialhardware, die auf einer großen Zahl von Grafikchips beruht, was sich in einer leistungsfähigen und parallel arbeitenden Multicore-Architektur widerspiegelt.

Das führt dann zu KI-Hardware-Lösungen wie NVIDIA V100. Dieser Hochleistungsgrafikprozessor wurde speziell für die Bereiche KI, HPC und Co. entwickelt und beruht auf der NVIDIA Volta-Technologie. Laut NVIDIA entspricht die Rechenleistung eines einzigen Grafikprozessors der von 100 herkömmlichen CPUs. Darüber hinaus ist der V100-Prozessor mit einem eigenen Speicher von 16 bzw. 32 Gigabyte ausgestattet, was den Zugriff auf häufig benötigte Daten deutlich beschleunigt.

Klar ist aber auch, dass diese hohe Dichte an CPU- und GPU-Komponenten die Wärmeentwicklung innerhalb eines KI-Systems deutlich erhöht, was ganz neue Kühlungsmethoden erfordert. Daher wird Lenovo künftig verstärkt auf die Warmwasserkühlung setzen, was sich sehr gut anhand der neuen Technologie Lenovo Neptune zeigt. Diese soll sowohl in kleineren Systemen wie auch in kompletten Rechenzentren zum Einsatz kommen. Dass das sehr gut funktioniert, zeigt das Leibniz-Rechenzentrum (LRZ) bereits seit vielen Jahren.

KI-Algorithmen „wandern“ auf IoT-Geräte – zur Entlastung des Zentralrechners

Zweifellos werden und müssen die Kapazitäten in Sachen KI deutlich erhöht werden. Dazu gehört auch eine spezielle Form der Dezentralisierung von Rechenleistung, die unmittelbar mit dem aufstrebenden Internet der Dinge (IoT) verknüpft ist. Damit lässt sich die bisher zentrale Rechenpower eines einzelnen Supercomputers auf angeschlossene Recheneinheiten „transferieren“, sodass die CPU-GPU-Power näher an die Anwender rückt.

Damit kann beispielsweise die notwendige Bild-/Audio-/Videoerkennung direkt vom IoT-Gerät selbst durchgeführt werden, das die Daten erfasst hat. Dazu gehören unter anderem Kameras sowie Audio- und Infrarotsensoren, die den Zentralrechner von den maßgeblichen Rechenarbeiten entlasten können. Was dazu führt, dass der Supercomputer permanent mit den IoT-Geräten Zwischenergebnisse austauscht und daraus nur noch das finale Ergebnis erstellt.

Das Videointerview mit Rick Koopman in voller Länge

 

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

IBM Blue Gene/P Supercomputer

Künstliche Intelligenz: Wieviel Rechenleistung ist tatsächlich nötig?

Im Jahr 2016 gelang einer Software namens AlphaGo eine mittlere Sensation: Sie besiegte den damals besten Go-Spieler der Welt, den Südkoreaner Lee Sedol, und das sehr klar und eindeutig mit 4:1. Dieser Erfolg war umso erstaunlicher, als dass es bis dahin für einen Computer unmöglich schien, im komplexesten Spiel der Welt gegen einen Menschen überhaupt zu bestehen. Und doch war dieser Sieg möglich, wozu allerdings eine enorme Rechenleistung vonnöten war. So kam während der Partien mit Lee Sedol ein Rechnerverbund zum Einsatz, der aus insgesamt 1.920 Prozessoren (CPU) und 280 Grafikprozessoren (GPU) bestand.

Allerdings hat AlphaGo bereits seinen Meister gefunden, und das im Nachfolgeprogramm selbst namens AlphaZero. So konnte sich AlphaZero im Maschine-gegen-Maschine-Duell in 60 von 40 Fällen gegen AlphaGo durchsetzen, und das trotz der wesentlich kürzeren Lernphase von gerade einmal acht Stunden. AlphaGo benötigte dafür immerhin drei Tage.

  • Supercomputer wie der IBM BlueGene schaffen 1 PetaFLOPS und mehr
  • Selbstlernende Krypto-Systeme sind erst der Anfang
  • Wenn die starke KI die schwache KI ablöst...

Doch es geht noch leistungsstärker: So schaffte es der Supercomputer IBM BlueGene im Jahr 2013 die Aktivitäten des menschlichen Gehirns zu simulieren, allerdings nur zu einem Prozent, und das auch nur eine Sekunde lang. Hierfür benötigte der Supercomputer straffe 40 Minuten, wofür 82.944 CPUs und eine Billiarde Berechnungen pro Sekunde erforderlich waren, was 1 PetaFLOPS entspricht. Das ist aber auch nicht wirklich erstaunlich: So wurden während der Simulation rund 1,7 Milliarden Nervenzellen generiert, die ihrerseits mithilfe von 10,4 Billionen Synapsen miteinander verbunden waren.

IBM Blue Gene/P Supercomputer

Von Argonne National Laboratory’s Flickr page – originally posted to Flickr as Blue Gene / PFrom Argonne National LaboratoryUploaded using F2ComButton, CC BY-SA 2.0

Dass diese enorme Rechenleistung weiter zunehmen wird, offenbart ein Blick auf die aktuelle Top-500-Liste der schnellsten Computer der Welt. So rangiert dort der Sunway TaihuLight, der im National Supercomputing Center in Wuxi, China, seine enorme Rechenpower von 93 PetaFLOPS zur Verfügung stellt. Hierfür stehen dem Supercomputer mehr als zehneinhalb Millionen Prozessorkerne zur Verfügung. Und noch in diesem Jahr soll der erste Rechner gebaut werden, der die ExaFLOPS-Marke knacken soll, also eine Trillionen Berechnungen pro Sekunde durchführen kann. Sein Name: Tianhe-3.

Wohin diese enorme Rechenleistung führen kann, lässt sich anhand diverser Beispiele sehr gut belegen. So sorgte Google mit einem Experiment für Furore, bei dem verschlüsselte Nachrichten verschickt wurden, die gehackt werden sollten. Allerdings schafften es Absender und Empfänger quasi „on-the-fly“, ein eigenes Krypto-System zu entwickeln, das den Angriffsversuchen Stand halten konnte. Die Leistung daran lag im Verschlüsselungssystem, das während des Experiments entstand: Selbst die Google-Experten, die das Experiment initiiert hatten, konnten den neu geschaffenen Verschlüsselungscode weder entschlüsseln noch richtig verstehen.

Und das alles ist erst der Anfang. Denn das alles sind Bespiele der schwachen KI, die die Vorstufe zur starken KI darstellt. Denn erst mit der starken KI werden selbstlernende Systeme möglich sein, die nicht nur innerhalb einer Disziplin stark sind, sondern interdisziplinär interagieren und selbstständig lernen können. Und bis dahin ist es ein noch ziemlich weiter Weg.

Zudem stellt sich die Frage, ob die heutigen Prozessoren für Dinge für die Künstliche Intelligenz überhaupt konzipiert sind. Denn mit der Von-Neumann-Architektur aus dem vorherigen Jahrhundert sind die Rechenaufgaben dieses Jahrhunderts wohl kaum zu lösen. Hierfür muss man eher ganz neue Wege beschreiten, wie das der IBM TrueNorth-Prozessor von IBM bereits vormacht.

 

Der SuperMUC-NG wird wie seine Vorgänger wieder mit warmen Wasser gekühlt

SuperMUC-NG: Der nächste Supercomputer aus München

26,7 PetaFLOPS, das ist eine gewaltige Zahl. Sie besteht nämlich aus 17 Stellen – und zwar vor dem Komma! Diese enorme Rechenleistung, gemessen in Fließpunktoperationen pro Sekunde, kommt auf das Landesrechenzentrum (kurz: LRZ) Garching zu, wenn es den nächsten Supercomputer der Markt „SuperMUC“ einweihen darf. Sein genauer Name lautet SuperMUC-NG, wobei die Buchstaben „NG“ für „Next Generation“ stehen.

6.400 Lenovo-Server für Big-Data-Analysen und Erdbeben-Simulationen

Und genau darum geht es beim nächsten SuperMUC, dessen dritte Generation bereits zum Einsatz kommen wird. Denn in Zeiten von Big Data-Analysen und Echtzeitsimulationen sind Großrechner wie der SuperMUC-NG erforderlich, die mit riesigen Datenmengen, wie sie heute und morgen entstehen, auch zurecht kommen. Hierfür werden im Herzen des SuperMUC-NG gut 6.400 Hochleistungsrechner vom Typ Lenovo ThinkSystem SD 650 DWC werkeln, in denen der Intel Xeon Scalable-Prozessor das Berechnen bekannter und künftiger HPC-Applikationen unterstützt. In Summe sind das mehr als 300.000 CPU-Kerne, die die eingangs erwähnten 26,7 PetaFLOPS schaffen.

Warmwasserkühlung spart Energie und schafft gleichzeitig neue

Bei dieser unfassbar hohen Rechenleistung darf in Zeiten von Global Warming der Umweltschutzgedanke natürlich nicht zu kurz kommen. Daher setzt man im LRZ auch beim SuperMUC-NG wieder auf die Warmwasserkühlung, die seit Anfang an für eine sehr effiziente „Kühlung“ der gesamten Supercomputeranlage eingesetzt wird. Das führt nicht nur zu enorm reduzierten Energiekosten um bis zu 45 Prozent, sondern ermöglicht gleichzeitig das Recyceln der Abwärme in Form von Warmwasser für umliegende Einrichtungen und Gebäude. Doppeltes Energiesparen, sozusagen.

Erdbeben- und Klimawandel-Simulationen stehen auf der SuperMUC-NG-Liste

Doch was macht man mit dieser geballten Rechenpower, damit sie auch sinnvoll und zum Wohle der Gesellschaft eingesetzt werden kann? Nun, hierfür kommen zahlreiche Anwendungen infrage, wie die Vergangenheit bereits gezeigt hat. So konnte beispielsweise mithilfe des SuperMUC 2 das große Sumatra-Erdbeben simuliert werden, das im Dezember 2004 einen gewaltigen Tsunami auslöste. Hierfür erhielt das LRZ Garching sogar einen Preis, verliehen auf der diesjährigen Supercomputing Conference 2017. Aber auch der Klimawandel und die damit in Verbindung stehenden Auswirkungen auf Mensch und Umwelt können künftig mithilfe des SuperMUC-NG noch besser analysiert und bewertet werden.

Video-Rückblick: Prof. Dr. Bode im Interview

Dreieinhalb Jahre ist es schon wieder her, da habe ich mit Professor Dr. Arndt Bode vom LRZ Garching dieses Interview zum SuperMUC 2 geführt.

Ältere Informationen zu den Vorgängern des SuperMUC-NG

https://www.hightech-computing.de/supermuc-schafft-der-erdbebensimulation-mehr-als-1-petaflops/

https://www.hightech-computing.de/supercomputer-mit-super-kuehlung-der-supermuc-von-ibm/

https://www.hightech-computing.de/isc14-klaus-gottschalk-ibm-ueber-den-geplanten-ausbau-des-supermuc/