Hva er Anthropic?
Anthropic er et amerikansk AI-sikkerhetsselskap grunnlagt i 2021 med misjonen om å bygge AI-systemer som er pålitelige, tolkbare og styrbare. Selskapet utvikler Claude – en av verdens mest avanserte AI-assistenter – og er kjent for sin forskningsdrevne tilnærming til AI-sikkerhet. Anthropic skiller seg fra konkurrentene ved å ha sikkerhet som kjernemisjon, ikke bare en funksjon.
Kort forklart Anthropic er selskapet som lagde Claude. De ble grunnlagt av tidligere OpenAI-forskere som ville bygge AI med sikkerhet som førsteprioritet – og har blitt en av de ledende AI-leverandørene i verden.
Grunnleggelsen
Anthropic ble grunnlagt av Dario Amodei (CEO) og Daniela Amodei (President) sammen med flere andre forskere som forlot OpenAI. Motivasjonen var en bekymring for at AI-utvikling gikk for raskt uten tilstrekkelig fokus på sikkerhet, og et ønske om å bygge et selskap der sikkerhetsforsknisg var kjernevirksomheten – ikke et tillegg.
Dario Amodei var tidligere VP of Research hos OpenAI, og teamet inkluderte flere av de mest erfarne AI-sikkerhetsforskerne i verden.
Constitutional AI
Anthropics mest kjente forskningsbidrag er Constitutional AI – en metode for å trene AI-modeller til å være hjelpsomme, ærlige og ufarlige uten å stole utelukkende på menneskelig feedback.
I tradisjonell RLHF (Reinforcement Learning from Human Feedback) vurderer menneskelige bedømmere modellens svar. Constitutional AI utvider dette ved å gi modellen et sett skrevne prinsipper (en «grunnlov») som den selv bruker til å evaluere og forbedre sine egne svar.
Prosessen har to faser. I selvkritikkfasen genererer modellen et svar, vurderer det mot prinsippene, og reviderer det. I RL-fasen trenes modellen med en belønningsmodell basert på de konstitusjonelle prinsippene i stedet for bare menneskelige preferanser.
Resultatet er en modell som er mer konsekvent i sine etiske vurderinger, mer transparent om sine begrensninger, og bedre til å nekte skadelige forespørsler uten å være unødvendig restriktiv.
Produkter
Claude
Claude er Anthropics flaggskipprodukt – en AI-assistent tilgjengelig via claude.ai, mobilapper og API. Claude tilbys i tre varianter. Claude Opus er den mest intelligente modellen for de mest krevende oppgavene. Claude Sonnet er balansen mellom kvalitet og hastighet for de fleste oppgaver. Claude Haiku er den raskeste og rimeligste for enklere oppgaver.
Claude er kjent for det lengste kontekstvinduet i bransjen med 200 000 tokens, grundig resonnering og nyanserte svar, ærlighet om usikkerhet, og sterk ytelse på norsk.
Claude API
Anthropics API gir utviklere tilgang til Claude-modellene med verktøybruk, streaming, systemprompts og multimodal input. API-et er enkelt å bruke og godt dokumentert.
Claude Code
Claude Code er et kommandolinjeverktøy der Claude opererer som en agentisk kodingsassistent – den kan navigere kodebaser, skrive og redigere filer, kjøre kommandoer og iterere basert på resultater.
MCP (Model Context Protocol)
Anthropic utviklet MCP – en åpen standard for å koble AI-modeller til eksterne verktøy og datakilder. MCP lar Claude koble seg til Gmail, Google Calendar, Slack, databaser og hundrevis av andre tjenester via et standardisert grensesnitt.
Forskning
Anthropic publiserer betydelig AI-sikkerhetsforskning. Viktige bidrag inkluderer Constitutional AI som allerede nevnt, mekanistisk tolkbarhet med forskning på å forstå hva som foregår inne i nevrale nettverk, skaleringslovforskning med studier av hvordan modellytelse utvikler seg med størrelse, og sikkerhetsevaulering med utvikling av metoder for å teste AI-systemers sikkerhet.
Anthropic publiserer forskningen sin åpent og bidrar til det akademiske fellesskapet – en tilnærming som bygger tillit og fremmer feltet.
Finansiering og vekst
Anthropic har hentet over 10 milliarder dollar i investering fra blant andre Google som har investert flere milliarder og er den viktigste skypartneren, Amazon som har investert opptil 4 milliarder med integrasjon i AWS, Spark Capital og andre venturekapital-fond, og Salesforce og andre strategiske investorer.
Selskapet har vokst raskt i antall ansatte, omsetning og modellkapasitet, men forblir fokusert på sikkerhet som kjerneprioritet.
Anthropics filosofi
Det som skiller Anthropic fra konkurrentene er en dyp overbevisning om at AI-sikkerhet er et teknisk problem som krever tekniske løsninger. Selskapet tror at de mest kapable AI-systemene bør bygges av de som tar sikkerhet mest alvorlig, at å bygge kapable modeller og trygge modeller ikke er motstridende mål, at åpen forskning og samarbeid er nødvendig for å løse sikkerhetsutfordringer, og at regulering bør informeres av teknisk forståelse.
Denne filosofien reflekteres i selskapets produkter – Claude er designet for å være hjelpsom uten å være farlig, ærlig uten å være unyttig, og trygg uten å være begrenset.
Anthropic og konkurransen
Anthropic konkurrerer med OpenAI, Google DeepMind, Meta og andre om å bygge de mest kapable AI-modellene. Anthropics differensiering er sikkerhetsfokus som den dypeste sikkerhetsforskningsagendaen i bransjen, forskningskvalitet med banebrytende bidrag til AI-forskning, produktkvalitet der Claude er konsekvent blant de best vurderte AI-assistentene, og utviklerverktøy der MCP og Claude Code setter standarder for AI-integrasjon.
Anthropic og Norge
Anthropic har ingen norsk tilstedeværelse, men Claude er tilgjengelig for norske brukere via claude.ai og API. Claude håndterer norsk godt og brukes av norske bedrifter, utviklere og privatpersoner. For norske bedrifter tilbyr Anthropic databehandlingsgarantier som er relevante for GDPR-compliance.
Ofte stilte spørsmål
Hva er forskjellen mellom Anthropic og OpenAI?
Begge bygger avanserte AI-modeller, men Anthropic har sikkerhet som eksplisitt kjernemisjon. OpenAI er mer kommersielt orientert med et bredere produktspekter. I praksis produserer begge modeller av svært høy kvalitet.
Er Anthropic et ideelt selskap?
Anthropic er organisert som en Public Benefit Corporation (PBC) – en kommersiell selskapsform som krever at selskapet vurderer samfunnsnytte i tillegg til profitt. Det er ikke ideelt, men har et sterkere samfunnsansvar enn et vanlig aksjeselskap.
Hvorfor forlot grunnleggerne OpenAI?
Ifølge grunnleggerne var det uenighet om prioriteringen av sikkerhet vs. kommersialisering. De ønsket å bygge et selskap der sikkerhetsforsknisg var kjernevirksomheten.
Er Claude bedre enn ChatGPT?
For noen oppgaver ja – spesielt lange dokumenter, analyse og resonnering. For andre oppgaver er ChatGPT sterkere. Begge er blant de beste AI-assistentene tilgjengelig, og valget avhenger av brukstilfelle.