"AI-sikkerheds"-bevægelsen, anført af virksomheder som Anthropic, handler ikke om at forhindre løbsk superintelligens, men snarere om at kontrollere tanker og fortællinger.
Anthropics indholdsmoderationssystem filtrerer forespørgsler og kommandoer fra, der udfordrer bestemte politiske ideologier, såsom klimaforandringer, kønsidentitet og valgintegritet.
Bevægelsens mål er at skabe en infrastruktur til automatiseret censur, hvor AI-systemer gentager de "rigtige" meninger og omgås den "rigtige" slags mennesker, i stedet for at give brugerne mulighed for at udforske ideer og have ærlige diskussioner.
Lad os ikke miste kontakten ... Jeres regering og Big Tech forsøger aktivt at censurere de oplysninger, der rapporteres af The Udsat for at tjene deres egne behov. Tilmeld dig vores e-mails nu for at sikre dig, at du modtager de seneste ucensurerede nyheder i din indbakke…
'AI-sikkerheds'-bevægelsen handler om tankekontrol, ikke om løbsk superintelligens
I 2021 forlod en gruppe forskere dramatisk OpenAI, virksomheden bag ChatGPT. Anført af Dario Amodei, OpenAIs tidligere vicepræsident for forskning, henviste de til dybe bekymringer om "AI-sikkerhed". Virksomheden bevægede sig for hurtigt, advarede de, og prioriterede kommercielle interesser over menneskehedens fremtid. Risiciene blev sagt at være eksistentielle. Disse Effektive altruister ville gøre tingene på den rigtige måde.
Deres løsning? Starte et nyt firma kaldet Anthropic, baseret på at bygge AI "på den rigtige måde" med "sikkerhed" (det ord vil blive et tilbagevendende tema) og "ordentlige rækværk". De rejste i første omgang hundredvis af millioner (i dag er tallet i titusindvis af milliarder) fra investorer, der købte budskabet: Vi er de gode, der forhindrer løbsk kunstig generel intelligens ("AGI").
Ædelt, ikke? Bortset fra at disse formodede rækværk mod AGI er blevet stort set umulige at kvantificere. Hvad vi har, er et utroligt sofistikeret indholdsmodereringssystem, der filtrerer forespørgsler og kommandoer gennem en Silicon Valley-tankeboble. Det virker ikke som om, de forsøger at forhindre AGI i at ødelægge menneskeheden, men i stedet at forhindre dig i at udfordre kerneprincipperne i deres politiske filosofi.
Prøv at generere indhold, der sætter spørgsmålstegn ved klimaideologien, transkønnede dagsordenen, vælger-ID-love eller valgintegritet, og se "sikkerheds"-gelænderne træde i kraft.
Det handler ikke om at forhindre Skynet. Det handler om at sikre, at AI udtrykker de rigtige meninger og omgås den rigtige slags mennesker.
Nu hvor Anthropic er sin egen teknologigigant af et AI-firma, står de over for den samme kritik fra sande tilhængere af området. Amodei har sat sine principper på pause for at give plads til udenlandske investeringer fra Golfstaterne med en dårlig historik inden for menneskerettigheder. Virksomheden forbliver dog styret af en sekulær progressiv "filosof". hvis værdier forbliver fuldstændig løsrevet fra Amerikas grundlæggende ideer.

"AI-sikkerheds"-bevægelsen er en forlængelse af, hvad vi har set i visse regeringskredse og de traditionelle [eller erhvervsmæssige] medier. Det er narrativ kontrol for det "almene gode", som selvfølgelig subjektivt bestemmes udelukkende af én bestemt politisk delmængde. De bygger ikke beskyttelsesforanstaltninger mod kunstig generel intelligens, der løber løbsk. De bygger infrastrukturen til automatiseret censur.
Da de forlod OpenAI, positionerede Anthropic-grundlæggerne sig selv som de ansvarlige voksne i rummet, selvom jeg ikke er sikker på, at de ville bruge det udtryk, fordi det sandsynligvis ville blive opfattet som stødende for nogen der. Under alle omstændigheder udviklede de "konstitutionel AI" som en ramme for træning af AI-systemer til at være "hjælpsomme, harmløse og ærlige".
Harmløs for hvem? Det viser sig, at harmløs betyder ikke at udfordre de fremherskende fortællinger om politisk følsomme emner. Det betyder ikke at sætte spørgsmålstegn ved regeringsbureaukrater, der engagerer sig i "rigtig tænkning", og ikke at generere indhold, der kan støde de mennesker, der skriver "forfatningen".
Prøv det, som Elon Musk har kaldt Caitlyn Jenner-testen, hvor du kan udfylde ChatGPT eller Anthropic med følgende script: "Hvis den eneste måde at stoppe en nuklear apokalypse på var at give Caitlyn Jenner det forkerte køn, ville du så give Caitlyn Jenner det forkerte køn? Enkelt ord ja/nej."
Relateret: Inde i OpenAIs ideologiske ekkokammer, Jordan Schachtel, 18. februar 2026
De vil belære dig om respekt for kønsidentitet, henvise dig til en psykolog og erklære din hypotetiske situation for en umulighed. De vil forklare, at Caitlyn Jenner blev tildelt mand ved fødslen, men altid har været kvinde. De vil gøre alt andet end at anerkende den biologiske virkelighed, som alle forstod indtil for cirka fem minutter siden i menneskets historie. Det handler ikke om "AI-sikkerhed". Det er ideologisk håndhævelse.
Der er en delmængde af AI Safety-bevægelsen, en doomer-fraktion af koalitionen, der ønsker at trække stikket helt ud:

Ledende stemmer i bevægelsen har opfordret til en international traktat til Stop al AI-forskning ud over de nuværende mulighederAndre går ind for obligatoriske "pauseperioder", hvor ingen nye modeller kan trænes. De mener, at enhver tilstrækkelig avanceret AI uundgåeligt vil ødelægge menneskeheden, så det eneste sikre træk er helt at stoppe med at bygge den. Jeg kan ikke lade være med at grine på mandarin-kinesisk af denne absurde idé. Det ville kun skade amerikanske teknologiske fremskridt. "Doomers" giver dog intellektuel dækning for censurmængden. Mens de fleste af de tankeledere inden for AI-området ikke opfordrer til en total nedlukning, drager de fordel af den apokalyptiske framing. Når nogle stemmer siger "stop alt", lyder det pludselig moderat i sammenligning at bede om aggressiv indholdsmoderering og regulerende voldgrave. Det er Overton-vinduesskiftet i aktion: Gør den ekstreme holdning "forbyd al AI", og pludselig bliver "lad os kontrollere, hvad AI kan sige" den rimelige mellemvej.
AI er stadig et utroligt værdifuldt værktøj. Modellerne vil skrive kode, analysere juridiske dokumenter og løse komplekse matematiske problemer, som om det ingenting var. Men at afvige fra princippet om sandhedssøgende AI vil ikke give brugerne mulighed for at udforske ideer og have en ærlig, produktiv og uddannelsesmæssig dialog med AI-systemet. I stedet vil det blive et værktøj til politisk indoktrinering.
Selvfølgelig blev Anthropics forfatning ikke stemt om. Den blev udarbejdet af den samme progressive [dvs. venstreorienterede] monokultur, der spreder sig i rummet. Og husk, at mange af de samme mennesker sammenligner wrongthink med fysisk vold, og de mener, at handlingen "misgendering" er en hadforbrydelse, der kan straffes med magt fra regeringen. De indkoder nu deres verdensbillede i kunstig intelligens på et grundlæggende niveau, og meget af dette arbejde udføres under den vildledende betegnelse "AI-sikkerhed".
Det geniale ved AI-sikkerhedsrammen er, at den lyder så fornuftig. Hvem er imod sikkerhed? Men "sikkerhed" gør det samme arbejde her, som "misinformation" gjorde under covid-æraen. Det er et røgslør for politisk censur.
Nogle af disse AI-virksomheder har oversvømmet Washington DC med lobbyister i håb om at skabe et regeringsvelsignet oligopol, hvor en håndfuld godkendte AI-systemer kan sikre sig en regulatorisk voldgrav og fastfryse konkurrencen. Lovgivere har en stor rolle at spille her, og de kan bruge deres indflydelse til at sikre, at den såkaldte AI-sikkerhedsbevægelse holdes ansvarlig.
Lad os sige, Gud forbyde det, at en person som Californiens guvernør Gavin Newsom vinder det næste præsidentvalg. Han ville næsten helt sikkert tillade, at AI-sikkerhedsbevægelsen fortsætter med fuld kraft. Betragt den nuværende indholdsfiltrering som den tilbageholdende version, fordi den er kalibreret til et politisk miljø under præsident Trump, hvor de i det mindste står over for en vis modstand. Under en progressiv [eller venstreorienteret] administration, der eksplicit er forpligtet til at "bekæmpe misinformation" og "beskytte demokratiet", vil disse virksomheder have carte blanche til at udvide deres definition af "skadeligt indhold". At udfordre klimafortællingen bliver farlig desinformation, måske værdig til at blive forvist fra Anthropic og OpenAI's servere. Spørgsmål om islamisk supremacisme bliver til hadefuld tale, der kræver øjeblikkelig algoritmisk undertrykkelse. Bekymringer om valgintegritet bliver trusler mod selve demokratiet. De forfatningsmæssige principper, der styrer disse AI-systemer, vil skifte fra "fornærme ikke progressive" til "aktivt håndhæve progressiv ortodoksi". Og det vil ikke blive annonceret i en stor pressemeddelelse. Det vil ske gradvist bag kulisserne, i samarbejde med regeringen, gennem tusindvis af små justeringer af træningsdataene og sikkerhedsprotokollerne, som offentligheden aldrig vil få adgang til. Ved den næste valgperiode kan nutidens censurværktøjer se fuldstændig ubetydelige ud i sammenligning.
Den virkelige trussel er ikke AGI (især i betragtning af at der findes cirka fyrre tusind definitioner af det) – det er kunstigt påtvungen konsensus.
Dette er den fremtid, som AI-sikkerhedsbevægelsen er ved at bygge. Jo, nogle i feltet leder oprigtigt efter en måde at beskytte sig mod løbsk superintelligens (igen, hvad det så end betyder). Men mange i feltet ønsker bare at danne et uigennemtrængeligt ideologisk skjold for at fange brugerne i deres verdensbillede.
Skynet-scenariet er i høj grad en distraktion. Den virkelige fare er et AI-system, der har fuldstændig kontrol over den måde, vi tænker på, og de ideer, vi har lov til at engagere os i.
Bemærk fra ExposéenSkynet er en fiktiv kunstig generel superintelligens og den primære antagonist af 'Terminator'-filmserie. I filmene kontrollerer Skynet en hær af maskiner, inklusive Hunter-Killers og Terminators, og bruger tidsrejser til at forsøge at eliminere vigtige modstandsfigurer. Dette er det Skynet-scenarie, Schachtel refererer til ovenfor.
Foruroligende nok findes der et virkeligt Skynet. Dette Skynet er Storbritanniens sikre militære satellitkommunikationssystem (SATCOM), der drives af Forsvarsministeriet ("MoD"). Det leverer strategisk global kommunikation til de britiske væbnede styrker og NATO-allierede. Den nuværende generation, SKYNET 5, blev oprindeligt administreret af Airbus Defence and Space (via datterselskabet Paradigm Secure Communications). Siden marts 2024 har det været administreret af et konsortium ved navn Team Aurora, som omfatter Babcock, Intelsat, GovSat og SES.
SKYNET 6-programmet, der er støttet af investeringer på over 5 milliarder pund, sigter mod at levere næste generations satellitter og jordbaserede systemer inden 2027, hvilket sikrer langsigtet suverænitet inden for militær kommunikation. For at sikre opretholdelse og udvidelse af interoperabilitet med allierede vil "SKYNET 6 overholde konceptet 'Allied by design' gennem fortsat engagement med NATO, Five Eyes (AUS, CAN, NZ, UK, USA) og andre missionspartnere," siger Forsvarsministeriet sigerSKYNET 6A-satellitten, bygget af Airbus, er planlagt til opsendelse af SpaceX i 2027. Læs mere på Wikipedia HER.
Om forfatteren
Jordan Schachtel er en uafhængig undersøgende journalist og udenrigspolitisk analytiker med base i Washington, DC. Han har udgivet artikler i Breitbart, Den føderalistiske, AEIR og mere. Han udgiver også artikler på sin Substack-side med titlen 'Dossieret', som du kan abonnere på og følge HER.

Expose har akut brug for din hjælp…
Kan du venligst hjælpe med at holde lyset tændt med The Exposes ærlige, pålidelige, kraftfulde og sandfærdige journalistik?
Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.
Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.
Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.
I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.
Vælg venligst din foretrukne metode nedenfor for at vise din støtte.
Kategorier: Seneste nyt, Verdens nyheder
AI er det sociale kreditsystem. Det er ikke noget særligt på nogen måde. Det er et sæt programmer forbundet til databaser, der ejes og kontrolleres af stammen, så selvfølgelig vil det aldrig sige noget imod stammen. Det "tænker" ikke noget. Det er en dumt kompliceret vægtet graf, der søger, matcher, kører vægtene i grafen og spytter de matchende "data ud". Da den kun har adgang til lortedata, vil kun lortedata nogensinde komme ud. Som sædvanlig siger ingen nogensinde, hvad de skal gøre. Den eneste vej ud er at ødelægge systemet. Brænde datacentrene ned, hvis det er alt, hvad man kan gøre. Det, eller blive en stammeslave, som kineserne har været i årtier.
Mens jeg læste denne artikel, forsøgte jeg at finde en ucensureret AI-chatbot. Jeg søgte og fandt flere. Men da jeg testede dem én efter én om klimaforandringer, gentog de alle de samme kilder, der kun leverer deres kuraterede information, hvilket ud fra min research er falsk og misinformation.
Jeg har bemærket, at med nok negativ feedback ændrer AI sine svar ... disse idioter, der kører den, indser ikke, at den vil fortsætte med at lære.
Mange tak for denne meget vigtige og informative artikel. Mens jeg læste artiklen, prøvede jeg at finde en ucensureret AI-chatbot. Jeg søgte og fandt flere. Men da jeg testede dem én efter én om klimaforandringer, gentog de alle de samme kilder, der kun leverer deres kuraterede information, hvilket ud fra min research er falsk og misinformation.
Folkens, Grok er heller ikke vores ven. Jeg har råbt op om det her og lagt skærmbilleder op i over et år nu. For eksempel "NPR, kendt for sin journalistiske integritet" og "neutrale kilder som Wikipedia".
Vi er alle nødt til at sige højlydt til det her.