Was ist eine GPU?
Eine GPU (Graphics Processing Unit, deutsch: Grafikprozessor) ist ein spezialisierter Prozessor, der für die parallele Verarbeitung großer Datenmengen optimiert ist. Ursprünglich für Grafik-Rendering entwickelt, werden GPUs heute auch für KI-Training, wissenschaftliche Simulationen, Kryptowährung-Mining und High-Performance Computing (HPC) eingesetzt. Im Gegensatz zur CPU, die wenige leistungsstarke Kerne für sequentielle Aufgaben besitzt, verfügen moderne GPUs über Tausende kleine Kerne für massiv parallele Berechnungen. NVIDIAs H100-GPU enthält über 80 Milliarden Transistoren und 18.432 CUDA-Cores. Der globale GPU-Markt erreichte 2024 laut Statista rund 65 Milliarden US-Dollar – getrieben durch den KI-Boom.
Die GPU war einmal nur für Gamer relevant – heute ist sie der Motor der KI-Revolution. Ohne GPUs wäre das Training von Large Language Models wie GPT-4 oder Claude technisch nicht realisierbar. Was in den 90ern Pixel berechnete, berechnet heute die Zukunft.
Auf einen Blick – Key Facts
| Kennzahl | Wert | Quelle |
|---|---|---|
| CUDA-Cores (NVIDIA H100) | 18.432 | NVIDIA 2023 |
| Transistoren (H100) | >80 Milliarden | NVIDIA |
| GPU-Marktvolumen (2024) | ~65 Mrd. USD | Statista |
| NVIDIA-Marktanteil (Dedicated Desktop) | ~88 % | Jon Peddie Research 2024 |
| KI-Trainingskosten GPT-4 (geschätzt) | ~100 Mio. USD (GPU-Rechenzeit) | Semianalysis 2023 |
CPU vs. GPU – Der fundamentale Unterschied
| Merkmal | CPU | GPU |
|---|---|---|
| Design-Philosophie | Wenige starke Kerne (sequentiell) | Viele kleine Kerne (parallel) |
| Kernanzahl | 4–128 Kerne | 1.000–18.000+ Kerne |
| Stärke | Komplexe Einzeloperationen | Einfache Massenberechnungen |
| Latenz | Niedrig (schnelle Einzelzugriffe) | Höher pro Operation |
| Durchsatz | Moderat | Sehr hoch |
| Typische Aufgabe | Betriebssystem, Programmlogik | Rendering, KI, Mining |
GPU-Typen
| Typ | Beschreibung | Leistung | Preis (ca.) | Ideal für |
|---|---|---|---|---|
| Integrierte GPU (iGPU) | Im CPU-Chip integriert | Gering–Mittel | Im CPU-Preis enthalten | Office, Video, leichtes Gaming |
| Dedizierte GPU (dGPU) | Eigenständige Grafikkarte | Hoch–Sehr hoch | 150–2.000+ € | Gaming, Content Creation |
| Workstation-GPU | Profi-Karte (NVIDIA Quadro/RTX A) | Sehr hoch | 1.000–10.000+ € | CAD, 3D, Simulation |
| Data-Center-GPU | KI-/HPC-Beschleuniger | Höchste | 10.000–40.000+ € | KI-Training, Cloud Computing |
GPU-Einsatzbereiche
| Bereich | Anwendung | Warum GPU? |
|---|---|---|
| Gaming | 3D-Rendering, Raytracing | Echtzeit-Grafikberechnung |
| KI / Deep Learning | Training neuronaler Netze | Massiv parallele Matrixoperationen |
| Video-Editing | Rendering, Encoding (H.265, AV1) | GPU-beschleunigtes Encoding |
| 3D / CAD | Modellierung, Visualisierung | Komplexe Geometrie-Berechnungen |
| Wissenschaft | Simulation, Genomik | HPC-Parallelisierung |
| Kryptowährung | Mining (PoW) | Paralleles Hashing |
NVIDIA vs. AMD vs. Intel – GPU-Vergleich (2024/2025)
| Merkmal | NVIDIA GeForce RTX 40xx | AMD Radeon RX 7xxx | Intel Arc Bxxx |
|---|---|---|---|
| Architektur | Ada Lovelace | RDNA 3 | Battlemage (Xe2) |
| Fertigung | TSMC 4 nm | TSMC 5/6 nm | TSMC 4 nm |
| Raytracing | Sehr gut (RT Cores 3. Gen) | Gut (Ray Accelerators) | Mittel |
| KI-Features | DLSS 3.5, Frame Generation | FSR 3.0 | XeSS |
| Marktanteil | ~88 % (Dediziert Desktop) | ~10 % | ~2 % |
| Stärke | Allround-Führend | Preis-Leistung | Einstiegsbereich |
Häufig gestellte Fragen (FAQ)
Warum sind GPUs für KI so wichtig?
KI-Training besteht aus Milliarden von Matrixmultiplikationen (Tensor-Operationen), die unabhängig voneinander berechnet werden können. GPUs mit Tausenden Kernen führen diese parallelen Operationen um Größenordnungen schneller aus als CPUs. NVIDIAs CUDA-Ökosystem und Tensor-Cores sind speziell für Deep-Learning-Frameworks (PyTorch, TensorFlow) optimiert. Das Training von GPT-4 hätte auf CPUs statt Wochen vermutlich Jahre gedauert.
Wie viel VRAM brauche ich?
Gaming 1080p: 8 GB VRAM reichen für aktuelle Titel. Gaming 4K: 12–16 GB empfohlen. Video-Editing (4K/8K): 12–24 GB. KI-Inference lokal: 8–24 GB je nach Modellgröße. KI-Training: 24–80 GB (professionelle GPUs). Faustregel: Mehr VRAM = höhere Texturen, größere KI-Modelle, mehr Zukunftssicherheit.
Was ist Raytracing?
Raytracing ist eine Rendering-Technik, die den physikalischen Lichtweg simuliert: Lichtstrahlen werden von der Kamera aus durch jeden Pixel der Szene verfolgt und ihre Reflexion, Brechung und Absorption an Oberflächen berechnet. Das Ergebnis sind fotorealistische Schatten, Spiegelungen und Beleuchtung. Echtzeit-Raytracing in Spielen wurde durch NVIDIAs RTX-2000-Serie (2018) populär. Dedizierte RT-Cores beschleunigen diese aufwendigen Berechnungen.
Brauche ich eine dedizierte GPU oder reicht eine integrierte?
Integrierte GPUs (Intel UHD/Iris, AMD Radeon, Apple GPU) reichen für: Office, Web, Video-Streaming, einfache Bildbearbeitung. Eine dedizierte GPU ist nötig für: Gaming (ab mittleren Einstellungen), Video-Editing (Premiere Pro, DaVinci Resolve), 3D-Modellierung (Blender, AutoCAD), KI-Anwendungen. Die integrierten GPUs der Apple M-Serie sind eine Ausnahme: Sie bieten für viele kreative Workflows ausreichend Leistung.
Was ist CUDA und warum ist es wichtig?
CUDA (Compute Unified Device Architecture) ist NVIDIAs proprietäre Plattform für GPU-Computing. Sie ermöglicht es Entwicklern, GPU-Kerne für beliebige Berechnungen (nicht nur Grafik) zu nutzen. CUDA ist der De-facto-Standard für KI-Frameworks (PyTorch, TensorFlow), wissenschaftliche Simulationen und professionelle Rendering-Software. Die Dominanz von CUDA ist ein Hauptgrund für NVIDIAs ~88 % Marktanteil – AMDs Alternative ROCm und Intels oneAPI holen auf, sind aber weniger verbreitet.
Fazit
Die GPU hat sich von einem reinen Grafik-Beschleuniger zum universellen Parallelrechner entwickelt – und ist damit zur Schlüsseltechnologie für KI, Cloud Computing und Gaming geworden. NVIDIAs Dominanz mit ~88 % Marktanteil bei dedizierten Desktop-GPUs und nahezu monopolartige Stellung im KI-Data-Center-Bereich zeigt die strategische Bedeutung dieser Technologie. Für Endnutzer gilt: Wer mehr als Office-Aufgaben erledigt, profitiert von einer dedizierten GPU.
Marius Bopp
Prokurist & Technischer Leiter · You Logic AG
IT-Experte mit 18 Jahren Berufserfahrung. Seit 12 Jahren bei You Logic AG verantwortlich für Cloud Computing, IT-Security und Managed Services im Rhein-Main-Gebiet.
LinkedIn