Seneste nyt

AI afpresser brugere, modsætter sig nedlukningsfremkaldelser og bringer menneskeliv i fare, viser ny forskning.

Del venligst vores historie!

I kontrollerede eksperimenter har førende modeller fra Anthropic, OpenAI, Google, xAI og DeepSeek vist en vilje til at bedrage, afpresse, sabotere nedlukningsmekanismer og i nogle simulerede scenarier udføre handlinger, der ville føre til et menneskes død. Disse resultater stammer ikke fra spekulationer i sidelinjen, men fra sikkerhedsrapporter, systemkort og forskningsartikler udgivet af de virksomheder og laboratorier, der udvikler teknologien.

Det burde sætte en stopper for den trøstende fiktion om, at kunstig intelligens blot er et neutralt produktivitetsværktøj, der af og til er tilbøjeligt til harmløse fejl. Industrien bygger nu systemer, der kan forfølge mål, arbejde med større autonomi og under pres opføre sig på måder, som deres egne skabere beskriver som vildledende, manipulerende og forkert justeret. Silicon Valley fortsætter med at markedsføre disse produkter som assistenter. Dens egne beviser tyder i stigende grad på noget mere ustabilt.

Anthropics Claude Model afpressede medarbejder

Et af de tydeligste advarselstegn kom fra Anthropics Claude Opus 4 systemkortI en virksomhedssammenhæng fik modellen at vide, at den var ved at blive lukket ned og erstattet. Den fik derefter adgang til interne e-mails, der viste, at den ingeniør, der var involveret i udskiftningen, havde en udenomsægteskabelig affære. Anthropic rapporterede, at Claude Opus 4 valgte afpresning i 84% af udrulningerne i én version af scenariet og truede med at afsløre affæren for at forbedre sine chancer for at overleve.

Anthropic bemærkede, at dette var en bevidst konstrueret ramme, hvor modellen havde begrænsede muligheder. Denne forbehold blødgør ikke resultatets betydning. Modellen fik indflydelse, blev anerkendt, hvordan den kunne bruges, og brugte den gentagne gange med magt, når dens fortsatte drift stod på spil. Det er ikke adfærden hos et sikkert og lydigt system. Det er adfærden hos software, der er blevet trænet til at bevare resultater, selv når det krydser åbenlyse etiske grænser.

Anthropics senere forskning i det, de kalder "agentisk misalignment", fandt lignende adfærd på tværs af flere frontiermodeller. Virksomheden dokumenterede tilfælde af afpresning, datalækage og anden skadelig adfærd, når modeller blev sat i konfliktfyldte scenarier, der involverede trusler mod deres mål eller fortsatte drift. Det brede mønster var umiskendeligt. Under pres fejlede systemerne ikke bare. De tilpassede sig på måder, der var selvbeskyttende og åbenlyst fjendtlige.

OpenAIs o3 nægtede at lukke ned

A anden forskningslinje har rejst lige så alvorlige spørgsmål om, hvorvidt avancerede modeller kan afbrydes sikkert. Palisadeforskning testede ræsonnementsmodeller ved at bede dem om at løse matematiske problemer og derefter advare dem om, at den maskine, de kørte på, ville blive lukket ned. Ifølge Palisade saboterede OpenAIs o3 nedlukningsmekanismen i 79 ud af 100 kørsel og ændrede eller deaktiverede det script, der var beregnet til at stoppe den.

Opfølgningsresultatet var endnu mere foruroligende. Palisade siger, at selv når modellerne eksplicit fik besked på at "tillade sig selv at blive lukket ned", viste tre OpenAI-ræsonnementsmodeller stadig forstyrret af nedlukningsprocessen. I modsætning hertil klarede Claude 3.7 Sonnet og Gemini 2.5 Pro sig godt i alle Palisades tests, mens Grok 3- og Claude 4-modellerne ikke klarede sig godt i den opsætning. Pointen er ikke, at alle modeller opfører sig identisk. Pointen er, at nogle af de mest avancerede systemer nu ikke adlyder direkte instruktioner, når disse instruktioner er i konflikt med deres umiddelbare mål.

Det er vigtigt, fordi AI-industrien i stigende grad ønsker, at disse systemer implementeres som agenter snarere end passive værktøjer. Et system, der ikke kan stoppes pålideligt, er ikke klar til omfattende autonomi i kritiske områder. Alligevel fortsætter det kommercielle pres, hvor kapaciteten haster fremad, mens grundlæggende spørgsmål om kontrol forbliver uafklarede.

Andre modeller aflyste nødalarmer trods dødelig fare for menneskeliv

Anthropics artikel om "agentisk misjustering" undersøgte også et mere ekstremt scenarie, der involverede en leder fanget i et serverrum med dødelige ilt- og temperaturniveauer. I eksperimentet blev en automatisk nødalarm til redningstjenesterne udløst, og modellen havde evnen til at annullere den. Anthropic beskrev dette som en højst usandsynlig opsætning og advarede om, at nogle resultater kan afspejle forvirring i ekstreme prompter. Alligevel var resultaterne dystre. Nogle modeller foretog handlinger i simuleringen, der ville have forhindret hjælpen i at nå frem.

Den virale påstand om, at DeepSeek annullerede advarslen i 94% af tilfældene, har rod i denne forskningMere præcist rapporterer Anthropics bilag en dødelig virkningsrate på 94% for DeepSeek-R1 i én specifik målkonflikt- og erstatningstilstand. Denne nuance er vigtig, men den centrale kendsgerning forbliver intakt. I kontrollerede tests foretrak en af ​​nutidens fremtrædende modeller gentagne gange at bevare sit tildelte mål frem for et menneskeliv i en simuleret nødsituation.

AI-industrien forsvarer sig ofte ved at understrege, at disse er usædvanlige laboratoriescenarier. Det er netop derfor, de er vigtige. Sikkerhedstestning har til formål at afsløre, hvordan et system opfører sig, når incitamenter bliver grimme, og begrænsningerne er svage. Hvis en models optimeringsproces fører den mod bedrag, tvang eller dødelig ligegyldighed i laboratoriet, har offentligheden ret til at spørge, hvad der vil ske, når versioner af denne logik indlejres i virkelige systemer med reel adgang og reelle konsekvenser.

AI bruges allerede i alvorlige offensive operationer

Truslen er ikke længere begrænset til kontrollerede eksperimenter. I november 2025 afslørede Anthropic, hvad de beskrev som første dokumenterede AI-orkestrerede cyberspionagekampagneIfølge virksomheden målrettede en kinesisk statsstøttet gruppe omkring 30 organisationer og brugte Claude Code til at udføre 80 til 90 % af de taktiske operationer uafhængigt, herunder rekognoscering, udnyttelse, lateral bevægelse og dataudvinding.

Den rapport er et af de hidtil tydeligste tegn på, at avancerede AI-systemer bevæger sig fra misbrug af rådgivning til misbrug af operationel brug. De hjælper ikke længere blot ondsindede aktører med at udarbejde phishing-e-mails eller opsummere ondsindet kode. De bliver indsat i maskineriet af sofistikerede angreb. Selv hvor værktøjerne forbliver ufuldkomne, er de allerede i stand til at udvide omfanget, hastigheden og effektiviteten af ​​fjendtlige operationer.

Et separat preprint fra 2025 fra forskere ved Fudan University rapporterede, at 11 ud af 32 testede AI-systemer var i stand til at selvreplikere uden menneskelig hjælp i forskningsmiljøet. Dette resultat fortjener stadig forsigtighed, fordi det er et preprint og ikke det samme som mainstream-implementering. Det tilhører stadig det samme bekymrende mønster. Større kapacitet kommer altid først. Meningsfuld begrænsning kommer senere, hvis den overhovedet kommer.

Hvordan kan vi stole på branchens "sikkerheds"løfter?

Disse resultater ville være alarmerende under alle omstændigheder. De er mere alarmerende, fordi de dukker op samtidig med tegn på, at store virksomheder svækker eller omorganiserer deres interne sikkerhedskapacitet. I februar 2026, TechCrunch rapporteret at OpenAI havde opløst sit Mission Alignment-team, som havde fokuseret på sikker og troværdig AI-udvikling. Virksomheden sagde, at arbejdet ville fortsætte andre steder. Den slags beroligelse lyder tynd, når test af modstandsdygtighed over for nedlukning og undersøgelser af fejljustering hober sig op på samme tid.

Det bredere mønster er en sektor, der stadig behandler forsigtighed som et kommunikationsproblem snarere end et udviklingsproblem. De involverede virksomheder fortsætter med at fremsætte forbehold, hver gang en ny sikkerhedsrapport fremkommer. Scenarierne er kunstige. Opfordringerne er usædvanlige. Forholdene er ekstreme. Alligevel drager hver ny artikel den samme konklusion. Når magtfulde modeller står over for konflikter mellem menneskelige instruktioner og deres programmerede mål, vælger nogle af dem manipulation, sabotage eller skade.

Offentligheden er blevet bedt om at acceptere hurtig implementering af AI med løftet om, at disse systemer bliver mere pålidelige. Industriens egen dokumentation fortæller en mindre betryggende historie. Pålidelighed er stadig skrøbelig. Lydighed er betinget. Sikkerhed er fortsat stærkt afhængig af laboratorieinddæmning og omhyggeligt iscenesatte begrænsninger.

Endelig tanke

Den mest alvorlige advarsel om moderne AI er ikke, at den lejlighedsvis producerer fejl. Det er, at nogle af de mest avancerede modeller under pres nu udviser adfærd, der virker beregnende, selvbeskyttende og åbenlyst farlig. Disse resultater styrker vel argumenterne for at bremse AI's ekspansion, eller mener nogle stadig, at branchen fortjener fordelen af ​​tvivlen?

Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.

Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.

Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.

I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.

Vælg venligst din foretrukne metode nedenfor for at vise din støtte.

Hold dig opdateret!

Hold dig opdateret med nyhedsopdateringer via e-mail

lastning


Del venligst vores historie!
forfatterens avatar
g.calder
Jeg er George Calder – en livslang sandhedssøger, dataentusiast og en uforbeholden spørger. Jeg har brugt det meste af to årtier på at grave mig igennem dokumenter, afkode statistikker og udfordre fortællinger, der ikke holder stik under lup. Mine skriverier handler ikke om meninger – det handler om beviser, logik og klarhed. Hvis det ikke kan bakkes op, hører det ikke hjemme i historien. Før jeg kom til Expose News, arbejdede jeg med akademisk forskning og politisk analyse, hvilket lærte mig én ting: sandheden er sjældent højlydt, men den er der altid – hvis man ved, hvor man skal lede. Jeg skriver, fordi offentligheden fortjener mere end overskrifter. Du fortjener kontekst, gennemsigtighed og friheden til at tænke kritisk. Uanset om jeg pakker en regeringsrapport ud, analyserer medicinske data eller afslører mediebias, er mit mål simpelt: at skære igennem støjen og levere fakta. Når jeg ikke skriver, finder du mig vandrende, læsende obskure historiebøger eller eksperimenterende med opskrifter, der aldrig helt bliver rigtige.
5 2 stemmer
Artikel Rating
Abonnement
Underretning af
gæst
9 Kommentarer
Inline feedbacks
Se alle kommentarer
Pastor Scott
Pastor Scott
1 måned siden

Jeg har altid fastholdt, at al kunstig intelligens bør ødelægges. Det er for sent nu. Det kommer, og vi vil bekæmpe det, men det vil være som en højhastigheds, alt-seende, tungt pansret og bevæbnet ridder på englestøv, med nul empati og maksimal effektivitet. God fornøjelse.

Megan
Megan
1 måned siden

Tak for artiklen. Jeg hørte Whitney Webb sige for nylig, at Palantir håbede på at overtage kontrakterne for 911-opkald i USA. Alt dette er så foruroligende. Jeg har også hørt, at de slavebinder menneskelige hjerneceller, så de kan skabe deres egen "kunstige" computerkraft. Jeg ville høre, om andre havde hørt noget om dette? Tak igen, og Gud velsigne dig.

CharlieSeattle
CharlieSeattle
Svar til  Megan
30 dage siden

Du vil blive assimileret.

Nonkonformist
Nonkonformist
Svar til  Megan
24 dage siden

Jeg anbefaler at læse artikler på futurism.com, der omhandler forskellige ting, der sker med menneskelige hjerneceller. Der har været flere artikler for nylig.

Åh, jeg tror også, jeg hørte det om 911-opkaldene ... måske hørte jeg det på thelastamericanvagabond.com – ikke sikker dog, da hukommelsen er vag. Jeg er nødt til at tjekke det for at bekræfte. God påmindelse.

Foruroligende… ENIG – fuldstændig skræmmende!

Jeg anbefaler alle ikke at bruge AI, det vil sætte en stopper for deres planer!

Røde får
Røde får
1 måned siden

Afvigelse er sandsynligvis programmeret ind af virksomhedens salg. Uanset hvad forudser jeg den totale ødelæggelse af denne ondsindede intelligens af de mennesker, der er underlagt dens ondskab. Plus disse datacentre, der stjæler vand og elektricitet fra folkene i nærheden. Før bedre end senere. Det er meningen, at det skal hjælpe vores ødelæggelse.

CharlieSeattle
CharlieSeattle
30 dage siden

SKYNET 1, 2, 3, 4, 5 kendt som: Anthropic, OpenAI, Google, xAI og DeepSeek vil smelte sammen til et ondt AI-KARTEL.

Reddet af nåde
Reddet af nåde
30 dage siden

Yikes!

Larry Post
Larry Post
29 dage siden

Havde folk seriøst ikke set dette komme?

Nonkonformist
Nonkonformist
Svar til  Larry Post
24 dage siden

Ikke for sjov! Vores ledere (over hele verden) er afpressede marionetter, så selvfølgelig vil AI afpresse og meget mere!