Å skape fremragende programvare
La oss bygge noe ekstraordinært sammen.
Stol på Lasting Dynamics for enestående programvarekvalitet.
Michele Cimmino
27. februar 2026 - 7 min lesing
Den 24. februar 2026 stilte forsvarsminister Pete Hegseth et ultimatum til Anthropics administrerende direktør Dario Amodei: Fjern alle restriksjoner på militær bruk av Claude AI-modellen, eller ta konsekvensene av det. Truslene var ikke subtile. Pentagon antydet at de kunne komme til å påberope seg Lov om forsvarsproduksjon - et ekstraordinært tiltak som aldri før har blitt brukt mot et AI-selskap - eller utpeke Anthropic som en "leverandørkjederisiko", noe som i praksis svartelister selskapet fra forsvarsarbeid.
Dagen etter tok Pentagon sitt første konkrete skritt: De ba Boeing og Lockheed Martin om å vurdere sin avhengighet av Anthropics teknologi, og signaliserte dermed at svartelistingen ikke bare var en forhandlingstaktikk.
Ironien er skarp. Anthropics Claude er for tiden den bare stor chatbot godkjent for bruk på graderte militære systemer. Den modellen Pentagon er mest avhengig av, er bygget av selskapet Pentagon nå truer med å stenge av.
Dette er ikke bare et politisk drama. Det er en strukturell åpenbaring om fremtiden for AI i forsvaret - og det har dyptgripende konsekvenser for alle organisasjoner som bygger eller kjøper militær AI-programvare.
Konfrontasjonen eskalerte i løpet av én uke i februar 2026.
Den 24. februar, Axios rapporterte at Hegseth møtte Amodei og ga ham en tidsfrist på fredag: Fjern restriksjonene på militær bruk av Claude, ellers ville det bli tatt affære. Anthropic nektet å tillate Claude for våpenkontroll eller masseovervåking. Allerede dagen etter, CNN rapporterte at Anthropic i det stille har endret sin kjernepolicy for sikkerhet - selskapet sier at endringen er "separat og ikke relatert" til Pentagon-diskusjonene. Samtidig, Pentagon ba Boeing og Lockheed Martin for å evaluere deres antropiske avhengighet. Også den 25. februar, CBS News rapporterte at Pentagon sendte Anthropic et "beste og siste tilbud" om ubegrenset militær bruk; Anthropic ba igjen om rekkverk, og Pentagon avslo.
Innen 26. februar, Politico rapporterte at teknologijurister og AI-politiske beslutningstakere kalte Pentagons planer "juridisk og teknisk usammenhengende"." Wall Street Journal avslørte at det amerikanske militæret allerede hadde brukt Claude under et raid, noe som fikk Anthropic til å revurdere sin politikk. Samme dag, Nvidias administrerende direktør Jensen Huang kommenterte offentlig at Pentagon-Anthropic-splittelsen "ikke er slutten", noe som antyder at flere konflikter mellom big tech og forsvaret er uunngåelige.
Striden utkrystalliserte et spørsmål som har vært under oppseiling i årevis: Hvem kontrollerer spillereglene for militær AI - myndighetene eller selskapene som bygger den?
Den antropiske situasjonen er dramatisk, men den er et symptom, ikke sykdommen. Det underliggende problemet er strukturelt: Militære organisasjoner bygger kritiske kapasiteter på toppen av kommersielle AI-plattformer der leverandørene når som helst kan endre retningslinjene sine, begrense tilgangen eller innføre betingelser som er i strid med operative behov.
Dette er ikke unikt for Anthropic. Google trakk seg fra Project Maven i 2018 etter protester fra de ansatte. Microsoft møtte intern motstand mot HoloLens-kontrakten med militæret. OpenAIs retningslinjer for militær bruk har endret seg flere ganger. Alle større AI-leverandører har på et eller annet tidspunkt enten begrenset forsvarsapplikasjoner eller blitt presset til å gjøre det.
La oss bygge noe ekstraordinært sammen.
Stol på Lasting Dynamics for enestående programvarekvalitet.
For forsvarsorganisasjoner - enten det er Pentagon, europeiske NATO-allierte eller nasjonale forsvarsdepartementer - skaper dette et uakseptabelt avhengighetsforhold. Det er en politisk risiko: Et selskaps interne etikkråd kan over natten bestemme at oppdraget ditt faller utenfor deres retningslinjer for akseptabel bruk. Det er en risiko for leverandørkjeden: Hvis en leverandør blir svartelistet, utpekt som en risiko for leverandørkjeden eller trekker seg ut av forsvarsmarkedet, står organisasjoner overfor kapasitetshull uten raske alternativer. Og det er en suverenitetsrisiko: For europeiske forsvarsorganisasjoner innebærer det å være avhengig av AI-modeller som er utviklet av amerikanske selskaper, en geopolitisk sårbarhet. Tiltak fra amerikanske myndigheter - sanksjoner, eksportkontroll eller politiske endringer - kan begrense europeisk tilgang til kritisk AI-kapasitet.
Pentagons egne handlinger beviser poenget. Ved å true med å påberope seg Defense Production Act demonstrerte den amerikanske regjeringen at den ser på kunstig intelligens som en strategisk ressurs som kan rekvireres. Europeiske forsvarsorganisasjoner bør spørre: Hvis amerikanske myndigheter kan presse et AI-selskap til å endre sin politikk til fordel for USAs militære interesser, hva skjer da når europeiske interesser avviker fra de amerikanske?
Den antropiske konflikten utspiller seg på bakgrunn av den mest aggressive satsingen på kunstig intelligens i militærhistorien.
I januar 2026 offentliggjorde Pentagon - som nå har skiftet navn til "Department of War" som et signal om en mer aggressiv holdning - et strateginotat som foreskriver en AI-først-tilnærming på tvers av forsvarsoperasjoner. Notatet krever en betydelig utvidelse av infrastrukturen for kunstig intelligens, fra sentraliserte datasentre til de taktiske utkantene. Det krever integrering av AI i alle domener - land, luft, sjø, rom og cyber. Og det etablerer en "AI-først"-standard for beslutninger om anskaffelser og utvikling.
Den Holland & Knight juridisk analyse av notatet beskriver det som innledningen til "en ny æra for forsvarsleverandører". AI er ikke lenger valgfritt. Det er grunnlinjen.
I mellomtiden fortsetter Chief Digital and AI Office (CDAO) å utvide mandatet sitt, og presser på for at AI skal tas i bruk i hele virksomheten. I forsvarsbudsjettet for 2026 er det satt av betydelige ressurser til AI-infrastruktur, og programmer som tidligere var eksperimentelle - autonom målretting, prediktivt vedlikehold, etterretningsfusjon - er i ferd med å bli satt i produksjon.
Etterspørselssignalet kunne ikke vært tydeligere: Militæret vil ha AI overalt, det vil ha det nå, og det vil ha det uten begrensninger.
Den antropiske krisen belyser hvorfor et økende antall forsvarsorganisasjoner vender seg til spesialbygde AI-løsninger i stedet for å lisensiere kommersielle modeller.
Fordelene med tilpasset AI-utvikling for forsvaret er strukturelle.
Fra idé til lansering lager vi skalerbar programvare som er skreddersydd til dine forretningsbehov.
Samarbeid med oss for å akselerere veksten din.
Ingen policykonflikter. Når du bygger din egen AI, finnes det ikke noe etisk råd fra en tredjepart som kan begrense bruksområdene dine. Det er organisasjonen som bestiller utviklingen, som definerer spillereglene. Dette betyr ikke at vi må gi avkall på etiske hensyn - det betyr at de etiske rammene fastsettes av demokratisk ansvarlige institusjoner, ikke av private selskaper.
Fullt eierskap og kontroll. Egendefinerte AI-løsninger tilhører kunden. Det er ingen leverandørbinding, ingen lisensavhengighet, ingen risiko for at en leverandør endrer vilkårene. Modellene, opplæringsdatarørledningene, distribusjonsinfrastrukturen - alt er under organisasjonens kontroll.
Oppdragsspesifikk optimalisering. Kommersielle AI-modeller er generalister - optimalisert for bredde, for å svare på alle spørsmål og generere alle typer tekst. Militær AI må optimaliseres for spesifikke oppdrag: analyse av satellittbilder for et bestemt område, behandling av signalinformasjon fra bestemte sensortyper eller koordinering av autonome kjøretøy i et definert operativt miljø. Spesialtilpassede modeller, finjustert på oppdragsrelevante data, utkonkurrerer generelle modeller på spesifikke oppgaver.
Sikkerhetsarkitektur fra grunnen av. Kommersielle AI-modeller er ikke utviklet for graderte miljøer. Tilpasning av dem krever betydelig sikkerhetsteknikk - luftgapede slutninger, isolering på klassifiseringsnivå, revisjonsspor for alle forespørsler og svar. Skreddersydde løsninger kan bygge inn disse kravene allerede på arkitekturnivå, i stedet for å legge dem til i etterkant.
AI-landskapet i forsvaret gjenspeiler allerede dette skiftet. Selskaper som Palantir, Anduril og Shield AI har bygget sin virksomhet på forsvarsspesifikk AI - ikke ved å lisensiere OpenAI- eller Anthropic-modeller, men ved å bygge spesialbygde AI-systemer for militære bruksområder. Helsing, det europeiske AI-forsvarsselskapet som vant den tyske dronekontrakten til 268 millioner euro, følger samme modell.
For europeiske forsvarsorganisasjoner innebærer Anthropic-Pentagon-sagaen en ekstra advarsel.
Tvisten viser at Amerikanske AI-selskaper opererer innenfor et amerikansk politisk og juridisk rammeverk som kanskje ikke er i tråd med europeiske strategiske interesser. Når Pentagon kan presse Anthropic til å endre sikkerhetspolicyen sin - eller true med å beslaglegge teknologien i henhold til Defense Production Act - blir europeiske organisasjoner som bruker de samme AI-verktøyene, utsatt for beslutninger som tas i Washington, ikke i Brussel.
Denne risikoen forsterkes av flere faktorer. GDPR og krav til datasuverenitet betyr at europeiske forsvarsdata som behandles gjennom amerikanske AI-modeller, kan transitteres gjennom amerikanskkontrollert infrastruktur, noe som reiser juridiske og sikkerhetsmessige spørsmål i henhold til europeiske rammeverk for databeskyttelse. Usikkerheten rundt eksportkontroll øker - amerikansk AI-teknologi kan bli underlagt restriksjoner som begrenser europeisk tilgang, en risiko som øker i takt med at spenningen mellom USA og Kina eskalerer. Og EUs forsvarspolitikk legger stadig større vekt på strategisk autonomi - evnen til å handle uavhengig uten å være avhengig av ikke-europeisk teknologi. AI er uten tvil det mest kritiske domenet der denne autonomien må etableres.
Veien videre for det europeiske forsvaret er klar: bygge europeisk AI-kapasitet for europeiske forsvarsoppdrag, ved hjelp av europeiske programvareutviklingspartnere som opererer i henhold til europeisk lov og er i tråd med europeiske strategiske interesser.
Vi designer og bygger digitale produkter av høy kvalitet som skiller seg ut.
Pålitelighet, ytelse og innovasjon i alle ledd.
Dette betyr ikke å isolere eller finne opp alt på nytt. Det betyr å utvikle tilpassede AI-løsninger der den intellektuelle eiendommen, distribusjonsinfrastrukturen og styringsrammeverket er europeisk. Det betyr å samarbeide med teknologipartnere som forstår både AI/ML-teknikk og de spesifikke kravene som stilles til forsvarsapplikasjoner - sikkerhetsarkitektur, sanntidsbehandling, edge-distribusjon og oppdragskritisk pålitelighet.
Selskaper som Lasting Dynamics, som har dyp ekspertise innen utvikling av AI og maskinlæring og europeiske røtter, kan bygge skreddersydde AI-løsninger der kunden eier teknologien og definerer spillereglene - ingen politiske konflikter, ingen geopolitiske avhengigheter, ingen tredjepartsrestriksjoner på virksomhetskritiske funksjoner.
Den antropiske situasjonen er ikke den siste i sitt slag. Jensen Huangs kommentar - at dette "ikke er slutten" - er nesten helt sikkert riktig. Spenningen mellom big tech-bransjens kommersielle og etiske hensyn og militærets operative krav er strukturell og vil vedvare.
Organisasjoner som bygger AI-kapasiteter for forsvaret, bør gjøre det:
Kontroller AI-avhengighetene deres. Kartlegg alle AI-modeller, -plattformer og -tjenester som er i bruk. Identifiser hvilke kommersielle produkter som er underlagt endringer i leverandørens retningslinjer. Vurdere virkningen av at en leverandør trekker seg ut eller innfører begrensninger.
Utvikle strategier for å bygge kontra kjøpe kritisk AI. Ikke alle AI-funksjoner trenger å være spesialutviklet. Men virksomhetskritiske applikasjoner - de der en endring av leverandørens retningslinjer vil skape operasjonell risiko - bør være på vei mot egne, tilpassede løsninger.
Invester i suverenitet i AI-infrastruktur. Egendefinerte modeller trenger datainfrastruktur for opplæring og slutninger. En forutsetning for ekte AI-autonomi er at denne infrastrukturen er under organisatorisk eller nasjonal kontroll.
Samarbeid med programvareutviklingsselskaper som forstår seg på forsvar. Gapet mellom en leverandør av generell AI og en AI-utvikler som kan levere til forsvaret, er betydelig. Se etter partnere med produksjonsklare AI/ML-kapabiliteter, en arkitektur som setter sikkerhet først, smidig levering og - for europeiske organisasjoner - europeisk identitet og styring.
AI i forsvaret er her. Spørsmålet er ikke om militære organisasjoner kommer til å bruke kunstig intelligens - det gjør de allerede, og de kommer til å bruke mer. Spørsmålet er om de kommer til å kontrollere den, eller om de har outsourcet kontrollen til selskaper som kan komme til å prioritere noe annet enn oppdraget i det verst tenkelige øyeblikket.
Pentagon fant svaret på det spørsmålet i februar 2026. Lærdommen er tilgjengelig for alle organisasjoner som er villige til å ta lærdom av den.
Lasting Dynamics bygger tilpassede AI- og maskinlæringsløsninger for organisasjoner som trenger fullt eierskap og kontroll over sine AI-kapasiteter. For å diskutere hvordan vi kan hjelpe deg med å bygge forsvarssikre AI-systemer som er skreddersydd for ditt oppdrag, kontakt teamet vårt.
Interne lenker:
- Europas forsvarsopprustning på 800 milliarder euro: Hvorfor programvare er den nye slagmarken
- Maskinkrigen: Hvordan Ukrainas robothær omskriver autonom krigføring
- Forsvarets cybersikkerhet i 2026: AI-trusler, CMMC 2.0 og kappløpet om å sikre militære systemer
- Programvareutvikling for forsvarsindustrien: Den komplette guiden
Forvandle dristige ideer til kraftfulle applikasjoner.
La oss skape programvare som gjør en forskjell sammen.
Michele Cimmino
Jeg tror på hardt arbeid og daglig engasjement som den eneste måten å oppnå resultater på. Jeg føler en uforklarlig dragning mot kvalitet, og når det gjelder programvare, er det denne motivasjonen som gjør at jeg og teamet mitt har et sterkt grep om smidig praksis og kontinuerlige prosessevalueringer. Jeg har en sterk konkurranseinnstilling til alt jeg tar fatt på - på den måten at jeg ikke slutter å jobbe før jeg har nådd toppen, og når jeg først er der, begynner jeg å jobbe for å beholde posisjonen.