GPU (Graphics Processing Unit)
Spezialprozessor für parallele Berechnungen — unverzichtbar für Training und Betrieb von KI-Modellen.
Definition
GPUs (ursprünglich für Grafik-Rendering entwickelt) sind die Hardware-Grundlage der modernen KI. Ihre Stärke liegt in massiver Parallelverarbeitung: Tausende einfache Berechnungen gleichzeitig ausführen, was perfekt für neuronale Netze ist. NVIDIA dominiert den KI-GPU-Markt mit Chips wie A100, H100 und Blackwell. Das Training großer Modelle erfordert tausende GPUs über Wochen — GPT-4 hat geschätzt 25.000+ GPUs für Monate benötigt. Auch der Betrieb (Inferenz) von Modellen benötigt GPUs, wobei kleinere Modelle (7–13B Parameter) auf einzelnen Consumer-GPUs laufen können. GPU-Verfügbarkeit und -Kosten sind ein zentraler Engpass der KI-Entwicklung.
Verwandte Begriffe
KI-Wissen vertiefen?
KI-Überblick liefert täglich eingeordnete KI-Trends, Lernpfade und Deep Dives — 14 Tage kostenlos.
Kostenlos starten