Volle Power für die KI in der Cloud mit Grafikprozessor

Sie müssen einen Chatbot auf komplexe Kundenfragen hin trainieren? Oder autonomen Fahrzeugen beibringen, auf die Verkehrsregeln zu achten? Dann sind Sie wahrscheinlich Data Scientist und haben definitiv eine spannende Berufswahl getroffen! Um solche Aufgaben, die mit Künstlicher Intelligenz und somit mit großen Datenmengen verbunden sind, zu bewältigen, braucht es Hochleistungscomputer (HPC).

Doch wie kann man diese nötige Performance erzielen?  Auch wenn bei Server Chips die CPU Performance immer noch ansteigt, sind die Sprünge hier nicht mehr so groß, wie es noch vor einigen Jahren der Fall war. Gerade für Anwendungen mit KI ist jedoch Geschwindigkeit ein entscheidender Faktor. Deshalb werden verstärkt Accelerators und Prozessoren verwendet, die für spezialisierte Aufgaben besser geeignet sind als allgemeine CPUs.

Zusammenarbeit von IBM und NVIDIA

Künstliche Intelligenz ist jedoch nicht nur auf on-Premise-Lösungen beschränkt. Vielmehr gibt es immer mehr KI-Anwendungen in der Cloud. Und auch hier braucht es leistungsfähige Prozessoren. Und wo sind diese traditionellerweise besonders leistungsfähig? Genau: Im Gaming-Bereich, wo sie immer realistischere Grafiken und Spielabläufe ermöglichen. Diese erfordern ebenfalls eine immense Rechenleistung. Deshalb erobern Grafik-Prozessoren, die ursprünglich für diesen Bereich entwickelt wurden, immer mehr den Cloud-Service-Bereich für Unternehmensanwendungen. So auch der Grafikprozessor (GPU) NVIDIA Tesla V100. IBM und NVIDIA bringen diesen jetzt in die Cloud.

 Eweek schreibt dazu:

“And accelerate workloads is precisely what it does. The Nvidia V100 GPU is the fastest GPU accelerator to date, and when combined with the performance of IBM Cloud is designed to enable enterprises, data scientists and researchers to create innovative cloud-native applications that generate new value.”

IBM Cloud Bare Metal Servers können dabei mit bis zu zwei Nvidia Tesla V100 PCIe GPU Accelerators ausgestattet werden. Eweek zitiert John Considine, IBM General Manager of Cloud Infrastructure Services:

“The combination of IBM high-speed network connectivity and bare metal servers with the Tesla V100 GPUs provides the performance and speed that enterprises need. That means AI models that once needed weeks of computing resources can now be trained in just a few hours.”

KI, die in Rekordgeschwindigkeit lernt – das ist wahrscheinlich eine gute Nachricht für einige Data Scientists.

One comment

Kommentare sind sehr willkommen

This site uses Akismet to reduce spam. Learn how your comment data is processed.