Hva er GPU og TPU?

Kort forklartConcept

GPU og TPU er maskinvaren som driver all AI – fra trening til inference. Lær hva de er, NVIDIAs dominans, Google TPU, og hvorfor AI-chips er geopolitikk.

Også kjent som:AI-chipgrafikkort for AIAI maskinvare

Hva er GPU og TPU?

GPU (Graphics Processing Unit) og TPU (Tensor Processing Unit) er de spesialiserte prosessorene som driver all AI – fra trening av gigantiske modeller til inference når du bruker ChatGPT. NVIDIA dominerer markedet og har blitt verdens mest verdifulle selskap.

Kort forklart En vanlig CPU (prosessor) gjør én ting om gangen, veldig raskt. En GPU gjør tusenvis av ting samtidig – perfekt for AI som krever milliarder av parallelle beregninger. NVIDIAs H100/H200/B200 er gullstandarden for AI-trening. Googles TPU er designet spesifikt for tensor-operasjoner (AI-matematikk). AI-kappløpet er i bunn og grunn et chip-kappløp – den som har flest GPU-er trener de beste modellene. USA har innført eksportrestriksjoner på AI-chips til Kina – det er geopolitikk.

Hva betyr begrepet

CPU (Central Processing Unit) er din datamaskins generelle prosessor – ekstremt rask på sekvensielle oppgaver (1 ting om gangen). GPU (Graphics Processing Unit) ble opprinnelig designet for å rendere grafikk (tusenvis av piksler parallelt). AI-trening krever nøyaktig den samme typen parallell beregning – det er derfor GPU-er er perfekte for AI. TPU (Tensor Processing Unit) er Googles egendesignede chip, spesialbygd for tensor-operasjoner (matrisemultiplikasjon – kjernen i nevrale nettverk), og bare tilgjengelig via Google Cloud.

NVIDIAs AI-chips har utviklet seg fra A100 (2020, den første dedikerte AI-GPU-en) til H100 (2023, «gullstandarden» – ~300 000 kr per chip), H200 (2024, mer minne for store modeller), og B200/GB200 (2024–2025, neste generasjon – 2,5× raskere enn H100).

Alternativ maskinvare er Google TPU v5e/v6 (billigere enn NVIDIA for Google Cloud-brukere), AMD MI300X (NVIDIAs sterkeste konkurrent – brukt av Microsoft), Intel Gaudi (tredje alternativ, voksende), Groq LPU (spesialisert for inference – 800+ tokens/sek), og Apple Neural Engine (on-device AI i iPhone/Mac).

Hvordan fungerer det

GPU-er gjør milliarder av parallelle beregninger – perfekt for AI.

CPU: 1 beregning om gangen, ekstremt raskt
  → Bra for: kontorprogramvare, nettlesing, spill-logikk

GPU: 10 000+ beregninger samtidig, litt tregere per beregning
  → Bra for: AI-trening (milliarder parallelle matriseoperasjoner)

AI-trening av GPT-4:
  ~25 000 NVIDIA A100 GPU-er × ~3 måneder
  Kostnad: ~$100 millioner bare i compute
  Resultat: 1,8 billioner parametere trent

AI-inference (ChatGPT-svar):
  1 GPU prosesserer din forespørsel
  ~50-100 tokens per sekund
  Kostnad: brøkdeler av et øre per svar

Hvorfor er det viktig

AI-chips er den mest strategisk viktige teknologien i verden akkurat nå. NVIDIAs markedsverdi har passert 3 billioner dollar – verdens mest verdifulle selskap. AI-kappløpet er fundamentalt et chip-kappløp: den som har flest og raskest GPU-er trener de beste modellene.

Det er også geopolitikk: USA har innført eksportrestriksjoner på avanserte AI-chips (H100, A100) til Kina. Det tvang kinesiske selskaper (DeepSeek, Baidu) til å innovere med eldre, svakere chips – og DeepSeek beviste at effektivitet kan kompensere for maskinvare.

For vanlige brukere: en modern laptop med NVIDIA RTX 4060+ eller Apple M2+ kan kjøre lokale AI-modeller (Llama 8B). Dedikert GPU er nøkkelen til lokal AI.

Eksempler

xAIs Colossus: 100 000 NVIDIA H100 GPU-er i én klynge – verdens største AI-treningsinfrastruktur. Kostet milliarder å bygge. Brukt til å trene Grok 3.

Lokal AI: Du har en laptop med NVIDIA RTX 4090 (24 GB VRAM). Du kjører Llama 70B kvantisert – lokal AI uten internett, uten API-kostnad.

DeepSeek-effektivitet: Trent med begrenset tilgang til toppchips pga eksportrestriksjoner. Oppnådde topp-resultater med MoE og smart treningsmetodikk – beviste at chips ikke er alt.

Vanlige spørsmål

Trenger jeg en GPU for å bruke AI?

For å BRUKE AI (ChatGPT, Claude): nei – det kjøres i skyen. For å kjøre AI LOKALT: ja – NVIDIA GPU med 8+ GB VRAM eller Apple Silicon M-chip.

Hva koster en AI-GPU?

Forbruker: RTX 4060 ~5 000 kr, RTX 4090 ~20 000 kr. Profesjonell: H100 ~300 000 kr. Leie: ~$2-3/time for H100 i skyen.

Hvorfor dominerer NVIDIA?

CUDA – NVIDIAs programmeringsrammeverk – er industristandarden for AI. Alle AI-verktøy er optimalisert for CUDA. Det er en enorm lock-in-effekt. AMD og Google forsøker å utfordre, men CUDA-økosystemet er vanskelig å slå.

Hva er VRAM?

GPU-minne – bestemmer hvor stor modell du kan kjøre. 8 GB VRAM = Llama 8B. 24 GB = Llama 70B kvantisert. 80 GB (H100) = store modeller uten kvantisering.

Relaterte begreper

Se også

Oppsummering

GPU og TPU er maskinvaren bak all AI. NVIDIA dominerer med H100/B200 og CUDA-økosystemet – verdens mest verdifulle selskap. AI-kappløpet er et chip-kappløp. Google TPU og AMD MI300X utfordrer. Eksportrestriksjoner gjør AI-chips til geopolitikk. For lokal AI: NVIDIA RTX 4060+ eller Apple M-chip. For trening: tusenvis av H100-er til milliarder av kroner.