I slutningen af februar 2026 skete noget bemærkelsesværdigt i den amerikanske tech-verden. To af verdens førende AI-selskaber stod over for det samme valg: Pentagon ville have ubegrænset adgang til deres AI-teknologi. Det ene selskab sagde ja. Det andet sagde nej.
Forskellen mellem de to valg fortæller en hel del om, hvem vi giver vores data og penge til, når vi bruger AI i hverdagen.
OpenAI tog en Pentagon-kontrakt på $200 millioner — uden begrænsninger på overvågning eller autonome våben. Anthropic nægtede at fjerne sine sikkerhedsgarantier og blev af Trump-administrationen stemplet som "forsyningskæde-risiko for national sikkerhed." Over 2,5 millioner brugere har siden boykottet ChatGPT.
Kronologien: Fra nonprofit til Pentagon-kontrakt
For at forstå hvad der skete i februar 2026, skal vi spole lidt tilbage.
2015: OpenAI grundlægges som nonprofit
OpenAI blev stiftet med en klar mission: at udvikle AI der "safely benefits humanity, unconstrained by a need to generate financial return." Sikkert. Til gavn for menneskeheden. Ikke drevet af profit.
Januar 2024: Militærforbuddet fjernes stille
OpenAIs brugerpolitik forbød eksplicit brug til "military and warfare." Den 10. januar 2024 fjernede OpenAI stille og roligt denne passage. En talsperson forklarede at målet var at "give klarhed og tillade militære brugssager, som selskabet er enig i."
December 2024: Altman donerer til Trump
Sam Altman donerede personligt 1 million dollars til Trumps inaugurale fond. Den samme Sam Altman der i 2016 sammenlignede Trump med Hitler i 1930'ernes Tyskland. Efter donationen skrev Altman på X: "Watching [Trump] more carefully recently has really changed my perspective on him."
Januar 2025: Stargate og Det Hvide Hus
Dagen efter Trumps indsættelse stod Altman bag det præsidentielle segl i Det Hvide Hus og roste Trump for "Stargate"-initiativet — et $500 milliarder AI-infrastrukturprojekt. OpenAI indsender kort efter et white paper til Trump-administrationen der foreslår AI som et værktøj til at opretholde "American hegemony."
November 2025: "Safely" forsvinder
I forbindelse med overgangen til for-profit fjerner OpenAI ordet "safely" fra sin mission. Den nye formulering: "to ensure that artificial general intelligence benefits all of humanity." Ingen omtale af sikkerhed. Ingen garanti mod profit-styring. Fortune dokumenterede at missionen var blevet ændret 6 gange på 9 år.
Februar 2026: Pentagon-kontrakten
Pentagon ville have en AI-leverandør til klassificerede systemer. De henvendte sig først til Anthropic, der allerede havde en kontrakt fra juli 2025. Men Pentagon ville have mere: ubegrænset adgang til "ethvert lovligt formål" — inklusiv masseovervågning og autonome våben.
Anthropic sagde nej
Anthropic, ledet af CEO Dario Amodei, havde to "røde linjer":
1. Ingen masseovervågning af amerikanske borgere. Amodei forklarede: "Ting kan blive mulige med AI, som ikke var mulige før. Teknologien er ved at løbe foran lovgivningen."
2. Ingen fuldt autonome våbensystemer uden et menneske i beslutningskæden. AI er simpelthen ikke pålidelig nok til at tage liv-eller-død-beslutninger.
Pentagon gav Anthropic et ultimatum: Acceptér betingelserne inden kl. 17. Amodei svarede: "We cannot in good conscience accede to their request." Vi kan ikke med god samvittighed imødekomme deres krav.
Trump beordrede øjeblikkeligt alle føderale myndigheder til at stoppe brugen af Anthropics produkter. Forsvarsminister Pete Hegseth stemplede Anthropic som en "forsyningskæde-risiko for national sikkerhed" — en betegnelse der normalt er forbeholdt udenlandske fjender som Kina og Rusland. Det er første gang i historien, den er brugt mod et amerikansk firma — og første gang den er brugt som straf for et afslag på en kontrakt.
OpenAI sagde ja — og tog kontrakten
Timer efter at Anthropic blev blacklistet, annoncerede Sam Altman på X at OpenAI havde indgået en aftale med Pentagon. Den oprindelige aftale tillod brug til "ethvert lovligt formål" — uden eksplicitte begrænsninger på overvågning eller autonome våben.
Altman indrømmede selv at aftalen var "sloppy" (sjusket) og "looked opportunistic" (så opportunistisk ud). Efter massiv kritik reviderede OpenAI aftalen og tilføjede tekst om at AI'en "shall not be intentionally used for domestic surveillance of U.S. persons."
Men bemærk: begrænsningen gælder kun amerikanske borgere. Der er ingen tilsvarende beskyttelse for europæere, danskere eller andre.
Reaktionen: 2,5 millioner boykotter ChatGPT
Bevægelsen #CancelChatGPT og websitet quitgpt.org sprang frem i dagene efter aftalen. Over 2,5 millioner brugere har tilsluttet sig boykotten. App-sletninger steg 295% på én dag ifølge Sensor Tower.
Anthropics Claude-app gik direkte til førstepladsen i Apples App Store — drevet af brugere der aktivt skiftede fra ChatGPT.
OpenAI vs. Anthropic: En sammenligning
| OpenAI | Anthropic | |
|---|---|---|
| Stiftet | 2015 (som nonprofit) | 2021 |
| CEO | Sam Altman | Dario Amodei (tidl. VP hos OpenAI) |
| Selskabsform | For-profit PBC (siden 2025) | Public Benefit Corporation |
| Pentagon-kontrakt | Ja — op til $200 mio. | Nej — nægtede betingelserne |
| Masseovervågning | Tilføjet forbud efter kritik (kun for US-borgere) | Kategorisk afvist |
| Autonome våben | Ingen eksplicit begrænsning | Kræver menneskeligt opsyn |
| "Safely" i mission | Fjernet (november 2025) | Kerneprincip: "responsible scaling" |
| CEO-donation til Trump | $1 million (personligt) | Ingen |
| Militærforbud i politik | Fjernet januar 2024 | To eksplicitte røde linjer |
Hvad betyder det for europæere?
Det er vigtigt at forstå hvad der er på spil her. Når du bruger ChatGPT, giver du dine data til et selskab der:
- Aktivt samarbejder med det amerikanske militær
- Har fjernet sikkerhed fra sin mission
- Kun beskytter amerikanske borgere mod overvågning — ikke europæere
- Har en CEO der donerer til og samarbejder med Trump-administrationen
Anthropic er også amerikansk. Men de har demonstreret en vilje til at sætte principper over profit — selv når det koster $200 millioner og en blacklisting fra den amerikanske præsident. Det fortjener at blive anerkendt.
Vil du helt undgå amerikanske AI-selskaber, findes der europæiske alternativer:
Mistral AI — Le Chat
Fransk AI-selskab med åbne modeller. Le Chat er deres chatbot-app, tilgængelig på web og mobil. Mistral Large konkurrerer med GPT-4 på de fleste benchmarks. Al data forbliver i Europa. €6,2 mia. i finansiering.
Aleph Alpha
Tysk AI-selskab fokuseret på datasuverænitet og GDPR-compliance. Bruges af europæiske offentlige myndigheder og virksomheder. Deres modeller kører på europæiske servere og er designet til EU AI Act-compliance.
Hvad kan du gøre?
1. Vælg din AI bevidst. Hvis du bruger ChatGPT dagligt, så overvej alternativerne. Claude (Anthropic), Le Chat (Mistral) og Copilot (Microsoft/OpenAI) har alle gratis niveauer.
2. Forstå hvem du giver dine data til. Hver gang du skriver en prompt i ChatGPT, sendes den til et selskab med en aktiv Pentagon-kontrakt og ingen eksplicit beskyttelse af europæiske brugeres data.
3. Støt virksomheder der tør sige nej. Anthropic mistede $200 millioner og blev blacklistet af den amerikanske præsident — fordi de nægtede at lade deres AI bruges til masseovervågning. Det er ikke noget man ser ofte i Silicon Valley.
4. Hold øje med europæisk AI. Mistral, Aleph Alpha og andre europæiske aktører vokser. Jo mere efterspørgsel der er, jo hurtigere udvikler de sig.
Ofte stillede spørgsmål
Vil du vide hvem der ejer dine hverdagsbrands?
Scan Owner viser dig hvem der ejer de brands du køber i hverdagen. Med over 2 millioner stregkoder og 300.000 brands i vores database — og vi udvider løbende. Drevet af europæisk AI og egenudviklede systemer, under konstant videreudvikling.
Vi lever som vi prædiker: Scan Owner indsamler ingen personfølsomme oplysninger. Brugsdata kan ikke henføres til en enkelt person. Ingen tracking, ingen profiler, ingen videresalg af data.