2.–8. mars: Uken da AI og krigens etikk kolliderte
Hva er egentlig grensen for hva en AI-modell kan og bør brukes til? Den spørsmålstillingen har lenge ulmet i bakgrunnen av den store AI-entusiasmen — men denne uken smalt det ordentlig. Uke 10 ble en av de mest dramatiske i AI-historien på lenge, og sjokkoverskriftene kom tett. Samtidig har det skjedd mye hjemme i Norge også, som fortjener mer oppmerksomhet enn det får. La oss ta det hele fra toppen. ☕
Den store showdownen: Anthropic vs. Pentagon
Hvis du bare har tid til å lese én sak fra denne uken, er det denne.
Bakgrunnen er egentlig ganske enkel: Det amerikanske forsvarsdepartementet (DoD) ønsket ubegrenset tilgang til Anthropics AI-modell Claude. Anthropic satte foten ned og krevde at DoD bekreftet skriftlig at teknologien ikke ville bli brukt til masseovervåking av egne borgere eller autonome våpensystemer. Det ville ikke DoD. Og så gikk det galt.
Pentagon erklærte Anthropic som en "supply chain risk" — altså en sikkerhetsrisiko i leverandørkjeden — og svartelistet selskapet fra føderale kontrakter. Det er en dramatisk avgjørelse som sjelden brukes mot amerikanske teknologiselskaper.
Antropics CEO Dario Amodei reagerte sterkt. I et internt notat til ansatte, som siden har lekket til pressen, beskrev han OpenAIs tilsvarende avtale med forsvaret som "safety theater". OpenAI aksepterte nemlig en lignende kontrakt — og dermed oppsto det en svært offentlig og bitter splid mellom de to selskapene som tidligere jobbet skulder ved skulder for ansvarlig AI-utvikling.
Det pikante i alt dette? Anthropics Claude-modell viste seg allerede å være i bruk. Ifølge rapporter ble den integrert i Palantirs Maven Smart System, et AI-drevet målidentifikasjonssystem som det amerikanske militæret skal ha benyttet under operasjoner mot Iran — og som angivelig komprimerte planleggingsprosesser fra uker til nær sanntid.
Anthropic, som insisterer på at de aldri godkjente denne bruken, har nå varslet rettssak mot DoD-beslutningen.
Over 900 teknologiansatte i Google og OpenAI signerte et åpent brev som ba arbeidsgiverne sine sette tydeligere grenser for militær AI-bruk. Både Microsoft, Google og Amazon har i etterkant forsikret sine kunder om at Claude-modeller fortsatt er tilgjengelige gjennom skytjenestene deres — unntatt til forsvarskunder.
Dette er ikke bare en intern amerikansk krangel. Det er den første store offentlige konfrontasjonen mellom AI-sikkerhetsidealister og statsmakt — og den kommer til å sette standarden for lignende diskusjoner verden over.
MWC 2026: Samsung viser fremtidens AI-mobil
Mens dramakjeden mellom Pentagon og Silicon Valley utspilte seg, gikk Mobile World Congress 2026 av stabelen i Barcelona (2.–5. mars). Samsung tok stor plass med sin Galaxy S26-serie — tredje generasjon AI-mobiltelefoner.
Det mest interessante er ikke selve hardware, men retningen: Samsung kaller det "agentbasert AI". Tankegangen er at AI-en på telefonen din ikke bare skal svare på spørsmål, men aktivt handle på vegne av deg — på tvers av apper og enheter. Kombinert med Galaxy Buds 4 og helseintegrasjoner fra oppkjøpet av Xealth, tegner Samsung et bilde av telefonen som en helhetlig personlig assistent som følger deg gjennom hverdagen.
I det litt større bildet viser dette en klar tendens: AI beveger seg fra noe du bruker, til noe som er der — integrert, usynlig og alltid på.
OpenAI: Pengene ruller inn
Litt mer edruelig, men verdt å nevne: OpenAI rapporterte en annualisert omsetning på snaue 25 milliarder dollar mot slutten av februar — opp 17 prosent fra årsavslutningen. De har satt seg mål om 30 milliarder dollar for hele 2026.
Disse tallene hjelper til å sette ting i perspektiv. Diskusjonene om etikk, militærbruk og regulering skjer mot et bakteppe av nærmest astronomiske summer. Det handler ikke lenger om teknologi-entusiaster i garasjer. Dette er industrier av enorm skala.
MCP: USBen for AI tar av
Et mer stille, men viktig signal fra uken: Anthropics Model Context Protocol (MCP) — litt uoffisielt kalt "USB-C for AI" — holder på å bli standarden for hvordan AI-agenter kommuniserer med omverdenen. OpenAI og Microsoft har offentlig omfavnet protokollen, og Anthropic har nylig donert den til Linux Foundation. Google har begynt å bygge egne MCP-servere.
Hva betyr dette i praksis? At 2026 kan bli året der AI-agenter faktisk gjør ting, ikke bare snakker om dem. Bestille møtetider, lese e-post, sjekke databaser — alt i en sømløs flyt. Mange har spådd dette lenge. Nå begynner infrastrukturen å komme på plass.
Norge: Milliardkronene er fordelt
Nok om utlandet. Hjemme i Norge skjedde det to ting denne uken som burde glede alle som er opptatt av at Norge ikke henger etter i den globale AI-kappeløpet.
Norges seks nye nasjonale forskningssentre for kunstig intelligens er klare.
Forskningsrådet mottok over 50 søknader fra mer enn 600 aktører — universiteter, bedrifter og offentlige virksomheter. Nå er seks vinnere kåret, og de får inntil 200 millioner kroner hver over fem år. Det er en solid investering. Sentrene skal dekke alt fra ansvarlig og bærekraftig AI, KI i helse og industri, kreativitet og opphavsrett, til robotikk og såkalt "Embodied AI" — altså AI integrert i fysiske kropper, som roboter.
Blant partnerne finner vi store navn som Equinor, Kongsberg Maritime, Norsk Hydro, DNV, SINTEF, NTNU, UiO og St. Olavs hospital. Dette er ikke grunnforskning i elfenbenstårn — dette er forskning med tett kobling til norsk næringsliv.
«Samlet bidrar disse sentrene til å dekke tre spor: samfunnskonsekvenser, teknologi og innovasjon», sier administrerende direktør i Forskningsrådet, Mari Sundli Tveit.
Norges 50 fremste tech-kvinner 2026
Abelia og ODA-Nettverk lanserte i uken sin tiende utgave av listen over Norges 50 fremste tech-kvinner. At kåringen nå er ti år gammel er i seg selv et lite jubileum, men tallene bak gir grunn til ettertanke.
SSB viser at 58 prosent av norske menn bruker generativ KI, mot 49 prosent av kvinner. Blant ungdommer mellom 16 og 24 år har hele 80 prosent prøvd KI — men blant de over 75 er det bare 6 prosent. Kompetansegapet er reelt, og det å løfte frem rollemodeller er ikke bare symbolpolitikk, men faktisk viktig for at Norge skal lykkes i overgangen.
NHH advarer: Mange løper i feil retning
En tankevekkende kronikk fra to postdoktorer ved NHH fant veien til Finansavisen denne uken, og den er verdt å lese for alle norske ledere.
Poenget er enkelt: Norske virksomheter integrerer nå AI i beslutningssystemer i høyt tempo. Men i kappløpsfrykt hopper mange over det viktigste spørsmålet: Hva er egentlig problemet vi løser?
Forfatterne bruker Bulder Bank som et positivt eksempel — banken brukte AI til å hjelpe kundene med lavere rente automatisk når risikoprofilen deres ble bedre, fremfor å bruke samme teknologi til å maksimere egne marginer. Samme teknologi, to helt ulike effekter. Forskjellen lå i ledelse og strategi.
Moralen? AI-kappløpet ligner mer på orientering enn sprint. Det handler ikke om hvem som løper raskest, men hvem som faktisk vet hvor de skal.
Blikk fremover
Neste uke begynner NVIDIA GTC 2026 — en av årets største AI-konferanser. Jensen Huang er nok full av overraskelser. Samtidig nærmer seg EUs AI Act sin første store milepæl i norsk lovgivning, og det begynner å bli travelt for virksomheter som ennå ikke har tatt stilling til hva de gjør med sine høyrisiko-AI-systemer.
Det er mye å følge med på. Men én ting er klart etter uke 10: AI er ikke lenger bare et teknologispørsmål. Det er et spørsmål om makt, etikk og hvem som setter grensene.