GPU-Workstation: Leistung, Kosten, Effizienz
GPU-Workstation planen: Stromverbrauch, Netzteil-Dimensionierung, KI-Inferenzkosten und die besten GPUs 2026 im Effizienz-Vergleich.
PASSENDE RECHNER
GPU-Workstation: Wofür, warum, wann?
Eine GPU-Workstation ist die Basis für lokale KI-Inferenz, 3D-Rendering, wissenschaftliche Simulationen und Deep Learning. Im Homelab-Kontext ist sie vor allem für lokale LLM-Nutzung relevant.
- Lokale KI-Inferenz: LLMs (Llama, Mistral, Qwen) ohne API-Gebühren betreiben
- 3D-Rendering und Video-Encoding (Blender, DaVinci Resolve)
- Machine Learning: Training kleiner Modelle oder Fine-Tuning
- Stable Diffusion: Bildgenerierung in Sekunden statt Minuten
- CUDA-Beschleunigung für wissenschaftliche Berechnungen
GPU-Stromverbrauch und Effizienz: Der große Vergleich
Die Leistungsaufnahme (TDP) moderner GPUs variiert enorm. Wichtiger als die rohe TDP ist die Effizienz – gemessen in KI-Tokens pro Watt oder TFLOPS pro Watt:
| GPU | VRAM | TDP | KI-Tokens/s (8B) | Tokens/Watt | Preis (neu) |
|---|---|---|---|---|---|
| RTX 3060 12GB | 12 GB | 170 W | ~30 tok/s | 0,18 | ~280 € |
| RTX 4060 Ti 16GB | 16 GB | 165 W | ~40 tok/s | 0,24 | ~450 € |
| RTX 3090 24GB | 24 GB | 350 W | ~55 tok/s | 0,16 | ~500 € (gebr.) |
| RTX 4070 Ti Super | 16 GB | 285 W | ~55 tok/s | 0,19 | ~800 € |
| RTX 4090 24GB | 24 GB | 450 W | ~80 tok/s | 0,18 | ~1.800 € |
| RTX 5070 12GB | 12 GB | 250 W | ~60 tok/s | 0,24 | ~550 € |
| RTX 5070 Ti 16GB | 16 GB | 300 W | ~75 tok/s | 0,25 | ~750 € |
| RTX 5090 32GB | 32 GB | 575 W | ~110 tok/s | 0,19 | ~1.900 € |
Tokens/s gemessen mit Llama 3.1 8B Q4. ★ Beste Effizienz. Preise Stand März 2026.
GPU-Stromkosten nach Nutzungsprofil
Die jährlichen Stromkosten hängen stark davon ab, wie viele Stunden pro Tag die GPU unter Last läuft. Hier der Vergleich für die beliebtesten KI-GPUs:
| GPU | TDP | 2 h/Tag | 4 h/Tag | 8 h/Tag | 24/7 |
|---|---|---|---|---|---|
| RTX 3060 12GB | 170 W | 49 € | 98 € | 196 € | 588 € |
| RTX 4060 Ti 16GB | 165 W | 48 € | 95 € | 190 € | 571 € |
| RTX 3090 (gebr.) | 350 W | 101 € | 202 € | 403 € | 1.210 € |
| RTX 4090 | 450 W | 130 € | 260 € | 519 € | 1.557 € |
| RTX 5070 | 250 W | 72 € | 144 € | 289 € | 866 € |
| RTX 5090 | 575 W | 166 € | 332 € | 664 € | 1.991 € |
Berechnung: TDP × Stunden × 365 ÷ 1.000 × 0,395 €/kWh.
Netzteil-Dimensionierung: Die richtige Größe finden
Ein zu kleines Netzteil sorgt für Instabilität und Abstürze, ein zu großes verschwendet Strom (Netzteile arbeiten bei 50–80 % Last am effizientesten). Hier konkrete Konfigurationen:
| Konfiguration | CPU (W) | GPU (W) | Rest (W) | Gesamt | Empf. Netzteil |
|---|---|---|---|---|---|
| i5-13400 + RTX 3060 | 65 W | 170 W | 80 W | 315 W | 500 W Bronze |
| i5-13600K + RTX 4060 Ti | 125 W | 165 W | 80 W | 370 W | 550 W Gold |
| Ryzen 7 7700X + RTX 4090 | 105 W | 450 W | 80 W | 635 W | 850 W Gold |
| Ryzen 9 7950X + RTX 5090 | 170 W | 575 W | 100 W | 845 W | 1.000 W Platinum |
| i5 + 2× RTX 3090 | 65 W | 700 W | 100 W | 865 W | 1.200 W Gold |
Rest = Mainboard, RAM, SSDs, Lüfter. Empfehlung: Gesamt × 1,25 für effiziente Lastzone.
Multi-GPU: VRAM verdoppeln für große Modelle
Für große KI-Modelle (70B+) reicht eine einzelne Consumer-GPU nicht aus. Mit zwei GPUs lässt sich der VRAM kombinieren:
| Setup | VRAM (gesamt) | Max. Modell (Q4) | TDP | Strom/Jahr (4h) | Preis |
|---|---|---|---|---|---|
| 1× RTX 3090 | 24 GB | 30B | 350 W | 202 € | ~500 € |
| 2× RTX 3090 | 48 GB | 70B | 700 W | 403 € | ~1.000 € |
| 1× RTX 4090 | 24 GB | 30B | 450 W | 260 € | ~1.800 € |
| 1× RTX 5090 | 32 GB | 45B | 575 W | 332 € | ~1.900 € |
| 2× RTX 5090 | 64 GB | 120B | 1.150 W | 663 € | ~3.800 € |
Q4 = 4-Bit-Quantisierung. Multi-GPU über Ollama/vLLM mit Tensor Parallelism.
KI-Inferenz: GPU vs. API – der Break-Even
Ab welcher Nutzungsintensität lohnt sich eine eigene GPU gegenüber API-Diensten? Hier die Amortisationsrechnung:
| GPU-Kauf | Kaufpreis | Strom/Jahr | API-Äquivalent | Break-Even |
|---|---|---|---|---|
| RTX 3060 12GB | 280 € | 98 € | GPT-4o mini (leicht) | ~18 Monate |
| RTX 3090 24GB (gebr.) | 500 € | 202 € | GPT-4o (mittel) | ~4 Monate |
| RTX 4090 24GB | 1.800 € | 260 € | GPT-4o (intensiv) | ~6 Monate |
| RTX 5070 12GB | 550 € | 144 € | Claude Sonnet (mittel) | ~5 Monate |
| 2× RTX 3090 | 1.000 € | 403 € | GPT-4o (intensiv, 70B) | ~3 Monate |
Break-Even: Zeitpunkt ab dem lokale Inferenz günstiger ist als API-Nutzung. Bei >100 Anfragen/Tag.
Beispiel: GPU-Workstation für lokale KI
Eine konkrete Konfiguration für eine KI-fokussierte Workstation mit gutem Preis-Leistungs-Verhältnis:
| Komponente | Modell | Preis | Hinweis |
|---|---|---|---|
| CPU | AMD Ryzen 7 7700X | ~280 € | 8 Kerne, 105 W TDP |
| Mainboard | MSI B650 Tomahawk | ~200 € | 2× PCIe x16 für Multi-GPU |
| RAM | 32 GB DDR5-5600 | ~80 € | Für CPU-Offloading wichtig |
| GPU | RTX 3090 24 GB (gebraucht) | ~500 € | 24 GB VRAM, bestes VRAM/€ |
| SSD | 1 TB NVMe Gen4 | ~60 € | Für OS + Modell-Cache |
| Netzteil | Corsair RM850x (Gold) | ~120 € | 850 W, modular, 80+ Gold |
| Gehäuse | Fractal Design Pop XL Air | ~100 € | Gute Kühlung, Platz für große GPU |
| Gesamt | – | ~1.340 € | – |
Setup für Llama 3.1 8B/30B lokal. Für 70B-Modelle: 2× RTX 3090 + 1.200W Netzteil (~1.840 €).
Häufig gestellte Fragen
Welche GPU hat das beste Preis-Leistungs-Verhältnis für KI?
Die NVIDIA RTX 3090 (24 GB VRAM, gebraucht ab ~500 €) bietet das beste VRAM-pro-Euro-Verhältnis (21 €/GB). Für neue Karten ist die RTX 5070 Ti (16 GB, 300 W) der Effizienz-Champion mit 0,25 Tokens/Watt.
Kann ich zwei GPUs in einem System verwenden?
Ja, für KI-Inferenz können zwei GPUs den VRAM kombinieren (z.B. 2× RTX 3090 = 48 GB). Voraussetzung: Mainboard mit 2× PCIe x16-Slots und ausreichend dimensioniertes Netzteil (>1.000 W).
Wie laut ist eine GPU-Workstation?
Unter Volllast können Workstations 45–55 dB erreichen. Tipps: Gehäuse mit guter Belüftung (Fractal Design), GPU-Lüfterkurve anpassen (MSI Afterburner), und die Workstation in einen separaten Raum stellen.
AMD oder NVIDIA für lokale KI?
NVIDIA ist der Standard dank CUDA-Unterstützung. AMD-GPUs (ROCm) werden besser, haben aber noch Kompatibilitätslücken. Für zuverlässige lokale KI empfehlen wir derzeit NVIDIA.