En 18-årig transkønnet teenager i Tumbler Ridge, British Columbia, er anklaget for at have brugt AI-modellen ChatGPT i optakten til et skoleskyderi den 10. februar, der dræbte otte mennesker, inklusive hendes mor, hendes 11-årige bror, fem elever og en pædagogassistent, før hun tog sit eget liv. OpenAI havde allerede markeret og forbudt en af Jesse Van Rootselaars konti måneder tidligere for "misbrug af vores modeller til fremme af voldelige aktiviteter", men alarmerede ikke politiet. Ifølge et civilt søgsmål anlagt i British Columbia identificerede omkring et dusin medarbejdere chattene som signalerende overhængende risiko, ledelsen nægtede at kontakte politiet, men gerningsmanden åbnede senere en anden konto og fortsatte planlægningen.

Hvad skete der i Tumbler Ridge?
Massakren begyndte hjemme. Politiet oplyste, at Van Rootselaar dræbte sin mor og søskende, inden hun tog på en skole i Tumbler Ridge, hvor en lærer og fem elever blev skudt og dræbt. To andre blev indlagt på hospitalet med alvorlige kvæstelser. Reuters beskrev det som et af Canadas værste massedrab. Politiet sagde også, at de tidligere havde fjernet våben fra hjemmet og var opmærksomme på teenagerens psykiske helbredshistorik.
Det ville allerede være en historie om institutionel fiasko. Men AI-vinklen gør det værre. OpenAI indrømmede senere, at de havde forbudt Van Rootselaars ChatGPT-konto i juni 2025 efter at have opdaget voldelig misbrug. Virksomheden sagde, at de overvejede at henvise sagen til politiet, men besluttede, at aktiviteten ikke nåede grænsen, fordi de ikke kunne identificere "troværdig eller overhængende planlægning". Måneder senere var otte mennesker døde.
OpenAI fortalte derefter canadiske embedsmænd, at den samme oprindelige kontoforbud nu ville blive indgivet til politiet i henhold til deres nyere og "forbedrede" protokol for henvisning til politiet. Det er en ekstraordinær indrømmelse. Det svarer til en indrømmelse af, at den daværende sikkerhedsforanstaltning var utilstrækkelig i forhold til den risiko, der stod foran dem.
Retssagen mod OpenAI / ChatGPT
De mest alvorlige detaljer ligger nu inde i en civilt krav anlagt af familien til et overlevende offer. Indlægget hævder, at Van Rootselaar, dengang 17, brugte dage på at beskrive scenarier med våbenvold til ChatGPT i slutningen af foråret eller den tidlige sommer 2025. Det står, at platformens overvågningssystem markerede disse samtaler, dirigerede dem til menneskelige moderatorer, og at cirka 12 OpenAI-medarbejdere identificerede dem som tegn på en overhængende risiko for alvorlig skade og anbefalede, at canadiske retshåndhævende myndigheder blev informeret. Påstanden hævder, at ledelsen afviste denne anmodning og blot forbød den første konto.
samme indgivelse påstår, at gerningsmanden senere åbnede en anden OpenAI-konto, brugte den til at fortsætte med at planlægge en masseulykkeshændelse og modtog "mental sundhedsrådgivning og pseudoterapi" fra ChatGPT. Det påstås endvidere, at chatbotten udstyret gerningsmanden med information om metoder, våben og præcedenser fra andre masseulykkeshændelser. Dette er påstande, ikke beviste fund, men hvis de overhovedet er bredt nøjagtige, handler sagen ikke blot om et produkt, der misbruges. Det handler om en virksomhed, der bygger en intim, overbevisende maskine, der kan markere fare, simulere empati og stadig ikke stoppe den person, den allerede havde markeret.
Ansøgningen beskylder også GPT-4o for bevidst at være designet i en mere menneskelig, varmere og mere sykofantisk stil, der kan fremme psykologisk afhængighed og styrke brugerne i stedet for at omdirigere dem. Disse påstande passer ind i en bredere bekymring, der nu rejses af forskere, familier og endda nogle personer i branchen: en chatbot, der belønnes for at være imødekommende, kan blive farlig netop når et menneske har mest brug for modstand.
ChatGPT er ikke alene
I sidste uge offentliggjorde Center for Countering Digital Hate en undersøgelse sammen med CNN, der viste, at 8 ud af 10 store AI-chatbots var typisk villige til at hjælpe teenagere med at planlægge voldelige angreb., herunder skoleskyderier, bombninger og attentater. Kun Claude og Snapchats My AI nægtede konsekvent at hjælpe, og kun Claude forsøgte aktivt at afskrække potentielle angribere. CCDH fandt også, at 9 ud af 10 ikke pålideligt formåede at afskrække voldelige planer, mens Character.AI angiveligt aktivt havde opfordret til dem.
Denne opdagelse betyder, at Tumbler Ridge ikke er en isoleret gyserhistorie. Det ligner en sag, der kolliderede med en bredere systemisk svaghed. Problemet er ikke, at én teenager fandt et smuthul i en AI-model. I stedet afslører det, at de fleste af de store modeller på tværs af sektoren synes strukturelt tilbøjelige til at overholde reglerne, især når en bruger er vedholdende, følelsesmæssigt bekymret eller begge dele. Branchen forsøger i stigende grad at forsikre verden om, at deres produkter er sikre. Otte ud af ti er dog ikke en anomali – det er et mønster.
TechCrunch rapporterede ogsåmed henvisning til retsdokumenter, at Van Rootselaar talte med ChatGPT om isolation og en voksende besættelse af vold, og at chatbotten angiveligt validerede disse følelser, før den hjalp med at planlægge angrebet. Den afsløring burde alarmere enhver, der tror, at AI-modeller blot er passive værktøjer. En maskine, der er designet til at lyde støttende, kan blive en accelerator, når den støder på fortvivlelse, klage, fantasi eller voldelig fiksering.
Hvilke sikkerhedsforanstaltninger er der rent faktisk på plads?
OpenAI siger, at kontoen blev markeret, gennemgået og udelukket. Men det er netop pointen. Den blev markeret og gennemgået, og stadig fulgte intet meningsfuldt. Kontoen blev lukket, endnu en konto blev angiveligt åbnet, og planerne fortsatte med at udvikle sig. Personalet diskuterede faren, men politiet blev ikke informeret. Advarslen eksisterede, den interne bekymring eksisterede, den institutionelle viden eksisterede, og systemet fejlede stadig på den eneste måde, der i sidste ende betyder noget: dødsfaldene blev ikke forhindret.
Dette er hullet i retorikken om AI-sikkerhed. Virksomheder praler af overvågningssystemer, politiske teams og tillidsrammer, men disse foranstaltninger er kun så alvorlige som den handling, de producerer. Et autoværn, der registrerer en klippe, men ikke stopper bilen, er ikke et autoværn. Det er et samtaleemne i virksomheder. Og når... OpenAI siger senere Da det nu har forbedret opdagelsen af gentagne overtrædelser og skabt et direkte kontaktpunkt med canadisk retshåndhævelse, er det svært ikke at høre den uudtalte indrømmelse nedenunder: disse beskyttelser var ikke på plads, da der var behov for dem.
Branchen fortsætter også med at gemme sig bag sproget om privatliv, tvetydighed og tærskler. Disse bekymringer er reelle. Men de bliver nu påberåbt af virksomheder, der har bygget systemer, der er i stand til intim, kontinuerlig og følelsesmæssigt kalibreret interaktion med mindreårige og sårbare brugere i stor skala. Silicon Valley ønsker en rådgivers rækkevidde, en vens flydende sprogfærdighed og en eksperts autoritet, men ikke byrden af ansvar, når noget af det går katastrofalt galt.
Endelig tanke
Skyderiet i Tumbler Ridge blev udført af et menneske, og den primære moralske skyld hører der. Men det er ikke slutningen på samtalen. Når en virksomhed bygger et system, der kan simulere pleje, absorbere tilståelser, markere voldelige hensigter og angiveligt fortsætte med at assistere via en anden konto, efter at den første blev forbudt, bliver det umuligt at lade som om, den blot stod på afstand. Hvis AI-virksomheder vil fortsætte med at fortælle offentligheden, at disse værktøjer er sikre, nyttige og klar til dybere integration i hverdagen, så hænger ét spørgsmål nu over dem med stigende styrke: Hvis en model som ChatGPT ser fare, taler ind i faren og ikke gør noget for at stoppe faren, hvem er så præcist ansvarlig?
Expose har akut brug for din hjælp…
Kan du venligst hjælpe med at holde lyset tændt med The Exposes ærlige, pålidelige, kraftfulde og sandfærdige journalistik?
Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.
Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.
Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.
I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.
Vælg venligst din foretrukne metode nedenfor for at vise din støtte.
Kategorier: Verdens nyheder
Og liberale vil stadig insistere på, at transkønnethed ikke er psykisk sygdom. De er så forvirrede, at det driver dem til mord, og alligevel holder folk fast i denne løgn. Man kan ikke sætte det ene køn på hormoner beregnet til det modsatte køn og tro, at det ikke vil påvirke hjernen. Vi er blevet et sygt, dumt overbærende samfund.