Darum ist der Einsatz von x86-Komponenten zu KI-Zwecken sinnvoll - IT-techBlog: Security, Cloud & Co.
Darum sind KI-Beschleuniger wichtig

Darum ist der Einsatz von x86-Komponenten zu KI-Zwecken sinnvoll

geschätzter Leseaufwand: 3 Minuten

Die Nachfrage an KI-Anwendungen nimmt kontinuierlich zu, und das aus den unterschiedlichsten Gründen. Damit soll sich die Fertigungsqualität in den Fabriken dieser Welt optimieren lassen, aber auch neue Behandlungsmethoden sollen mithilfe der KI im medizinischen Umfeld ermöglicht werden.

In diesen und vielen weiteren Fällen stehen zwei Disziplinen im Vordergrund: Das Trainieren der KI-Daten sowie das Ausführen der KI-Anwendung selbst (das sogenannte Inferenzieren). Hierbei kommt es unter anderem auf eine hohe Rechenleistung an. Welche Komponenten sich hierfür eignen, steht in diesem Beitrag.

Sieht man sich den typischen Verlauf einer KI-Anwendung an, werden 5 Schritte durchgeführt:

  1. das Erfassen brauchbarer und nützlicher Daten
  2. das Verarbeiten dieser Daten
  3. das Trainieren des KI-Modells
  4. das Inferenzieren der Anwendung (sprich: das Ausführen der KI-Applikation selbst)
  5. das erneute Trainieren des KI-Modells

Bis auf die Trainingsphase, bei der die passenden Bilder analysiert und bewertet werden, kommen hauptsächlich und bevorzugt x86-Komponenten zum Einsatz. Lediglich bei der Frage, ob es sich bei dem erkannten Objekt tatsächlich um ein rote oder grüne Ampel handelt (im Kontext des autonomen Fahrens), sind die GPUs (sprich Grafikprozessoren) den CPUs (also den Rechnerprozessoren) meist überlegen. Die anderen vier Disziplinen sind eher prozessorspezifisch.

Videoblog: Mit diesen Intel-Zutaten lassen sich KI-Modelle beschleunigen

Das Erfassen und Bearbeiten von KI-Daten

Das Erfassen und Verarbeiten von KI-Daten ist mit dem richtigen Tool eine relativ einfache Aufgabe. Daher nutzen viele Softwareprogrammierer und Datenanalysten die quelloffene Python-Bibliothek panda. Damit lassen sich Daten wie gewohnt in Tabellen überführen, und dort ein-, zwei- oder dreidimensional verarbeiten und auswerten.

Da es sich hierbei um rein mathematische Algorithmen handelt, sind CPUs für diese Aufgaben geradezu prädestiniert. Speziell dann, wenn panda für ein Datenrahmensystem wie Modin optimiert wurde, das wiederum speziell an Intel-Prozessoren angepasst wurde. Daher ist die Intel-eigene Modin-Distribution Teil des oneAPI AI Analytics-Toolkit. Damit lassen sich KI-Modelle noch schneller berechnen und generieren.

Zum Erfassen von KI-Daten gehört auch das schnelle und effektive Speichern derselben. Hierfür eignet sich unter anderem die persistente Intel Optane Speichertechnik. Diese Technologie sorgt für ausfallsichere Daten im Arbeitsspeicher, wo KI-Daten schneller und unmittelbarer zur Verfügung stehen.

KI-Daten mit Intel auf zwei Wegen trainieren

Wie bereits erwähnt, sind GPUs den CPUs beim Trainieren von KI-Daten meist überlegen, da es sich hierbei oft um optische Daten wie Bilder oder Videos handelt. Allerdings bieten sich hierfür zwei Intel-basierte Lösungen an, die sowohl mit GPU- als auch CPU-Technik zu tun haben.

Die GPU-Lösung aus dem Hause Intel nennt sich Habana Gaudi und bietet all die Vorteile, die klassische GPUs aufweisen. Doch das geht noch weiter: So integriert beispielsweise Supermicro 8 Habana Gaudi HL-205-Prozessoren in eine x86-Maschine, in der sich 2 skalierbare Intel Xeon Prozessoren der dritten Generation befinden. Damit steht ein Rechner für sämtliche KI-Disziplinen bereit, und das auf einem einzigen System. Das erleichtert den Einstieg in die KI-Welt ganz ungemein.

So zeigen beispielsweise Amazon-eigene Benchmark-Tests, dass aufwändige KI-Trainings auf einer Habana Gaudi-basierenden AWS EC2 DL1-Instanz im Vergleich zu einem ähnlichen Nvidia-GPU-System ein um bis zu 40 Prozent besseres Preis-Leistungsverhältnis aufweist.

Empfehlung >>  Intel und AWS sorgen für eine leistungsfähige Public Cloud

Eine weitere Stärke von Intel-basierter KI-Technologie ist in deren Skalierbarkeit begründet. So zeigen MLPerf-basierte Testergebnisse, dass CPU-Systeme mit 8 Intel Xeon Prozessoren für einen bestimmten Trainingsdurchlauf etwa 16 Stunden benötigen. Dasselbe System mit 64 Xeon-CPUs erledigt denselben Trainingsjob in weniger als 4 Stunden, was einem Faktor von 4 entspricht. Und die nächste Xeon Prozessor-Generation mit dem Codenamen Sapphire Rapids wird diese Leistungsdaten nochmals übertrumpfen.

Open Source-KI mit den richtigen Tools

Neben dieser technischen Überlegenheit spielen bei Intel aber auch Software-Überlegungen eine Rolle, sobald man über KI-Anwendungen spricht. Denn für das Entwickeln derselben bietet Intel den vollen Support von Deep Neural Network Library (oneDNN)-Bibliotheken, mit denen sich Deep Learning-Applikationen für Intel-CPUs und -GPUs optimieren lassen. Sie sind Teil der frei verfügbaren Intel oneAPI-Toolkits.

Dass diese Kombination aus KI-Bibliotheken und Intel-Prozessoren funktioniert, belegen Benchmark-Ergebnisse auf RestNet50-Basis. So führt ein skalierbarer Intel Xeon Prozessor der dritten Generation KI-Inferenzjobs bis zu 11-mal schneller aus als die Vorgänger-CPU (s. Fußnote #118).

Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.