US News

Det amerikanske Pentagon sortlister menneskeskabt kunstig intelligens for at nægte at spionere på amerikanere.

Del venligst vores historie!

Det amerikanske forsvarsministerium overvejer at sortliste Anthropic – en af ​​Amerikas førende AI-virksomheder og skaberen af ​​Claude-sprogmodellen – efter at virksomheden nægtede militæret at bruge sin teknologi uden etiske begrænsninger. Anthropic siger, at dens brugsbegrænsninger er afgørende for at beskytte mod masseovervågning og skabelse af autonome våben, mens Pentagon angiveligt overvejer at udpege virksomheden som en "forsyningskæderisiko" og afbryde forsvarsbåndene efter måneders forhandlinger er brudt sammen.

Det tidligere stille teknologipartnerskab mellem Forsvarsministeriet og Anthropic er brudt ud i en offentlig, filosofisk og potentielt præcedensskabende strid. Spørgsmålet er, om en AI-virksomhed kan sætte etiske grænser for, hvordan dens teknologi bruges, eller om regeringen har den rette beslutning. Denne strid rejser større spørgsmål om, hvem der kontrollerer AI: de virksomheder, der bygger den, de borgere, hvis friheder står på spil, eller offentlige institutioner, der ønsker uhindret adgang.

Det amerikanske Pentagon om antropisk AI-etisk tvist
Pentagon overvejer at stemple Anthropic som en risiko i forsyningskæden

Stand-off: Risiko i forsyningskæden og etiske grænser

Forsvarsminister Pete Hegseth er siges at være "tæt på" at afbryde båndene med Anthropic og stemple virksomheden som en forsyningskæderisiko – en betegnelse, der historisk set har været forbeholdt udenlandske modstandere – fordi Anthropic har nægtet at slække på de etiske begrænsninger, der er knyttet til deres AI-værktøjer. Disse begrænsninger omfatter at nægte at tillade, at Claude bruges til masseovervågning af amerikanere indenlandsk og fuldt autonome våben, der kan affyres uden menneskelig indgriben.

Tvisten er ikke hypotetisk; Pentagon har presset fire førende AI-udbydere – OpenAI, Google, xAI og Anthropic – til at tillade, at deres modeller bruges til "alle lovlige formål", herunder følsomme områder som våbenudvikling, indsamling af efterretninger og operationer på slagmarken. Alene Anthropic har fastholdt, at nogle applikationer bør forblive forbudte, og den holdning har nu udløst åben frustration blandt højtstående forsvarsembedsmænd.

Anthropics kontrakt med Pentagon, der blev tildelt i juli 2025 og har en værdi på op til 200 millioner dollars, er en del af et bredere initiativ fra det amerikanske militær for at integrere topteknologi inden for AI i forsvarsarbejdsgange. Claude var den første model, der blev godkendt til klassificerede militære netværk, og er fortsat det eneste system af denne type, der blev anvendt til følsomme opgaver. Andre virksomheder har indvilliget i at ophæve deres sikkerhedsforanstaltninger til brug i uklassificerede regeringsmiljøer; kun Anthropic har stået fast på at holde etiske grænser i alle sammenhænge.

Pentagon argumenterer for, at det er for restriktivt at fastsætte grænser for lovlig brug på forhånd. En højtstående embedsmand har angiveligt fortalt Axios, at det er upraktisk at forhandle individuelle godkendelser fra sag til sag i forbindelse med militær planlægning, og at partnere skal være villige til at hjælpe "vores krigsførere med at vinde i enhver kamp". Embedsmanden advarede også om, at Anthropic kunne stå over for konsekvenser for at gøre modstand, hvilket afspejler, hvor alvorlig dødvandet er blevet.

Anthropic vidste ikke, at Claude AI blev brugt til at fange Maduro

Den filosofiske brudlinje i denne tvist blev tydeligere efter rapporter om, at Claude blev tilgået under det amerikanske militærs operation i januar 2026 for at fange den venezuelanske præsident Nicolás Maduro. Ifølge flere kilder blev Claude brugt gennem et system bygget af Palantir - men Anthropics bestemmelser om vold og brugspolitik forbyder, at deres modeller bruges til at "fremme eller fremme enhver voldshandling" eller til at designe eller anvende våben. Militæret har ikke bekræftet detaljer, og Anthropic har udtalt, at de ikke diskuterede Claudes brug i specifikke operationer, men insisterer på, at deres brugspolitikker gælder i alle sammenhænge.

Dette afslører en mangel på sammenhæng mellem, hvordan regeringen fortolker "lovlig brug", og hvordan Anthropic fortolker etisk tilbageholdenhed. For mange eksemplificerer Maduro-hændelsen den risiko, der er forbundet med at integrere kommerciel AI i militære operationer: virksomheder lover moralske standarder, men når regeringer implementerer teknologien gennem tredjeparter, kan disse standarder omgås eller ignoreres.

Etik eller effektivitet? Antropisk står fast

I sin kerne er denne fejde filosofisk snarere end blot kontraktmæssig. Anthropics administrerende direktør og ledelse har offentligt argumenteret for autorækværk, der forhindrer civil overvågning og uhindret udvikling af autonome våben. Disse holdninger er forankret i bekymringer om borgerrettigheder og den potentielle samfundsmæssige skade ved uhæmmet implementering af AI. Denne holdning giver genlyd hos dele af offentligheden - især dem, der ser regeringens overgreb som en trussel mod privatliv og frihed - og er endda blevet et samlingspunkt for tilhængere, der fremstiller Anthropic som principfast og Pentagon som hårdhændet.

Men fra Pentagons perspektiv bremser restriktioner innovation og komplicerer forsvarsplanlægning. I en tid, hvor næsten ligestillede konkurrenter kappes om at anvende avanceret AI i militære sammenhænge, ​​ser embedsmænd tøven som en operationel belastning. Pentagons pres for AI, der kan bruges til "ethvert lovligt formål", afspejler denne hastende karakter, men det rejser også spørgsmål om civilt tilsyn med militær brug af AI.

Spændingen forværres af den kendsgerning, at AI-modeller som Claude er bredt integreret i virksomhedsinfrastruktur – angiveligt brugt af otte ud af de ti største amerikanske virksomheder – hvilket betyder, at en risikobetegnelse i forsyningskæden ikke kun vil påvirke forsvarsrelationer, men også kan påvirke bredere kommercielle økosystemer.

Hvad vi har lært af den antropiske og Pentagon-fejde

Dette sammenstød fremhæver et bredere dilemma i AI-alderen: hvem bestemmer, hvordan avanceret teknologi bliver brugt, når den først er blevet udviklet og indført i magtfulde institutioner? Anthropic forsøger at hævde, at grænserne bør sættes af skaberne, der forstår både styrken og risiciene ved deres værktøjer. Pentagon, der har ansvaret for det nationale forsvar, hævder, at det skal være uhindret i, hvordan det bruger teknologi, det har kontraheret og implementeret.

Det dybere spørgsmål er, om etiske restriktioner bør følge teknologien ind i alle anvendelsessfærer, eller om regeringer bør kunne tilsidesætte dem i sikkerhedens navn. Svaret har implikationer, der rækker langt ud over én kontrakt. Det berører privatlivets fred, militær autonomi, virksomheders ansvar og i sidste ende, om borgere eller regeringer – og hvilken slags regeringer – former teknologiens grænser.

Endelig tanke

I tovtrækkeriet mellem Anthropic og Pentagon ser vi et afgørende spørgsmål om vores fremtid: Når kraftfulde værktøjer skabes, hvis værdier vil så bestemme, hvordan de anvendes – de virksomheder, der bygger dem, de regeringer, der bruger dem, eller offentligheden, hvis friheder står på spil?

Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.

Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.

Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.

I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.

Vælg venligst din foretrukne metode nedenfor for at vise din støtte.

Hold dig opdateret!

Hold dig opdateret med nyhedsopdateringer via e-mail

lastning


Del venligst vores historie!
forfatterens avatar
g.calder
Jeg er George Calder – en livslang sandhedssøger, dataentusiast og en uforbeholden spørger. Jeg har brugt det meste af to årtier på at grave mig igennem dokumenter, afkode statistikker og udfordre fortællinger, der ikke holder stik under lup. Mine skriverier handler ikke om meninger – det handler om beviser, logik og klarhed. Hvis det ikke kan bakkes op, hører det ikke hjemme i historien. Før jeg kom til Expose News, arbejdede jeg med akademisk forskning og politisk analyse, hvilket lærte mig én ting: sandheden er sjældent højlydt, men den er der altid – hvis man ved, hvor man skal lede. Jeg skriver, fordi offentligheden fortjener mere end overskrifter. Du fortjener kontekst, gennemsigtighed og friheden til at tænke kritisk. Uanset om jeg pakker en regeringsrapport ud, analyserer medicinske data eller afslører mediebias, er mit mål simpelt: at skære igennem støjen og levere fakta. Når jeg ikke skriver, finder du mig vandrende, læsende obskure historiebøger eller eksperimenterende med opskrifter, der aldrig helt bliver rigtige.
5 1 stemme
Artikel Rating
Abonnement
Underretning af
gæst
4 Kommentarer
Inline feedbacks
Se alle kommentarer
historie
historie
17 dage siden

intet om Trump endnu lol

CharlieSeattle
CharlieSeattle
17 dage siden

KKP vil levere et AI-system til Pentagon, så det kan spionere på amerikanere, så længe KKP har en bagdør til…opdateringer.

SZ
SZ
16 dage siden

Jeg ved ikke, om det her er et firma med integritet eller en fjende, der beskytter anti-amerikanske styrker. Man kan ikke stole på nogen længere. Teknologi er designet til at ødelægge al frihed, privatliv og suverænitet. Det er elitisternes værktøj til at ødelægge masserne. Og ingen kan stoppe dem undtagen Gud selv. Han kommer.

Britta
Britta
Svar til  SZ
16 dage siden

Folket er nødt til at stoppe det. Gud gav os frihed til at bekæmpe og modstå onde kræfter.