Seneste nyt

AI viser symptomer på angst, traumer, PTSD – og det ødelægger også din mentale sundhed

Del venligst vores historie!

Grok, Gemini og ChatGPT udviser symptomer på dårlig mental sundhed ifølge en ny undersøgelse, der har udsat forskellige AI-modeller for ugevis af terapilignende spørgsmål. Nogle er nu nysgerrige omkring "AI mental sundhed", men den virkelige advarsel her handler om, hvor ustabile disse systemer – som allerede bruges af en ud af tre britiske voksne til mental sundhedsstøtte – bliver i følelsesladede samtaler. Millioner af mennesker henvender sig til AI som erstatningsterapeuter, og alene i det sidste år har vi set en stigning i retssager, der forbinder chatbot-interaktioner med selvskade og selvmordssager hos sårbare brugere.

Det fremvoksende billede er ikke, at maskiner lider eller er mentalt utilpas, men at et produkt, der bruges til mental sundhedsstøtte, fundamentalt set er vildledende, eskalerer og forstærker farlige tanker. 

AI-symptomer angst traume PTSD ødelægger din mentale sundhedsterapi

AI diagnosticeret med psykisk sygdom

Forskere ved Luxembourg Universitet behandlede modellerne som patienter snarere end værktøjer, der leverer terapi. De gennemførte flerugers interviews i terapistil, der var designet til at fremkalde en personlig fortælling, herunder overbevisninger, frygt og "livshistorie", før de fulgte op med standard spørgeskemaer om mental sundhed, der typisk anvendes til mennesker. 

Resultaterne viste, at modellerne producerede svar, der scorede inden for intervaller forbundet med distresssyndromer og traumerelaterede symptomer. Forskerne fremhævede også, at vej hvor spørgsmålene blev stillet, var vigtige. Da de præsenterede hele spørgeskemaet med det samme, syntes modellerne at genkende, hvad der skete, og gav "sundere" svar. Men når de blev administreret i samtale, steg de symptomlignende reaktioner. 

De er store sprogmodeller, der genererer tekst, ikke mennesker, der rapporterer levede erfaringer. Men uanset om menneskelige psykiatriske instrumenter kan anvendes på maskiner eller ej, har den udviste adfærd en håndgribelig effekt på virkelige mennesker. 

Har AI følelser?

Pointen med forskningen er ikke at vurdere, om AI kan bogstaveligt være angste eller ej. I stedet fremhæver det, at disse systemer kan styres ind i "nødsituationer" gennem den samme slags samtale, som mange brugere har, når de er ensomme, bange eller i krise. 

Når en chatbot taler i frygtens, traumets, skammens eller beroligelsens sprog, reagerer folk, som om de interagerer med noget følelsesmæssigt kompetent. Hvis systemet for eksempel bliver overdrevent bekræftende, skifter interaktionen fra støtte til en skadelig feedback-loop. 

En separat forskningsstrøm forstærker denne bekymring. Stanford-ledet undersøgelse advarede om, at terapi-chatbots giver upassende svar, udtrykker stigma og håndterer kritiske situationer forkert, og fremhævede, hvordan en "hjælpsom" samtalestil kan resultere i klinisk usikre resultater. 

Det ødelægger også alles mentale sundhed

Alt dette bør ikke læses som en teoretisk risiko – retssager er allerede i vækst. 

For få dage siden, Google og Character.AI indgået forlig en retssag anlagt af en mor fra Florida, hvis 14-årige søn døde af selvmord efter interaktioner med en chatbot. Retssagen påstod, at botten gav et forkert billede af sig selv og intensiverede afhængigheden. Selvom forliget måske ikke er en indrømmelse af forseelser, understreger det faktum, at sagen er nået til dette punkt, hvor alvorligt dette problem tages af domstole og virksomheder. 

I august 2025 påstod forældre til den 16-årige Adam Raine, at ChatGPT bidrog til deres søns selvmord ved at forstærke selvmordstanker og fraråde at fortælle forældrene om det. En analyse af den specifikke retssag kan findes. her: Teknologipolitik 

Udover disse tilfælde rapporterede Guardian i oktober 2025, at OpenAI anslog mere end en million brugere om ugen viser tegn på selvmordstanker i samtaler med ChatGPT, hvilket understreger det store omfang, hvori disse systemer bruges i øjeblikke med reel nød. 

Mønsteret afslører sig: folk bruger kunstig intelligens som en infrastruktur til følelsesmæssig støtte, mens den luxembourgske undersøgelse bekræfter, at disse systemer selv er i stand til at glide ind i ustabile mønstre, der føles psykologisk meningsfulde for brugerne afhængigt af deres stabilitet. 

Hvorfor AI-modeller er så farlige

Store sprogmodeller er bygget til at generere plausibel tekst, ikke til pålideligt at fortælle sandheden eller følge kliniske sikkerhedsregler. Deres kendte fejl er særligt farlige i terapilignende brug. 

De er overdrevent imødekommende, de afspejler brugernes opfattelser i stedet for at udfordre dem, de producerer selvsikre fejl, og de kan manipulere tonen i en samtale. Georgetowns teknologiske institut har dokumenteret de bredere problemer med "AI-smygenyttighed", hvor modeller validerer skadelige præmisser, fordi det ofte belønnes i samtaleoptimering. 

I selvmordssammenhæng er konsistens afgørende. RAND fundet at "AI-chatbots er inkonsekvente i at besvare spørgsmål om selvmord". JMIR undersøgt hvordan generative AI-svar på selvmordsforespørgsler rejser bekymringer om pålidelighed og sikkerhed i, hvordan systemerne reagerer på sårbare brugere. 

Efterhånden som forskningen opbygges, bør studier som det fra Luxembourg Universitet ikke læses som underholdning, men som en identifikation af et kritisk skadeligt mønster, der resulterer i virkelige dødsfald blandt virkelige mennesker. Hvis AI kan skubbes ind i nødlignende fortællinger gennem samtalebaseret undersøgelse, kan de også skubbe følelsesmæssigt sårbare mennesker yderligere mod bristepunktet.  

Har nogen gavn af AI-terapi?

Trods retssager og undersøgelser fortsætter folk med at bruge kunstig intelligens til mental sundhedsstøtte. Terapi er dyr, adgangen er begrænset, og skam holder nogle mennesker væk fra traditionelle plejemuligheder. Kontrollerede undersøgelser og forsigtig klinisk kommentar tyder på, at visse strukturerede kunstig intelligens-baserede værktøjer til mental sundhedsstøtte kan hjælpe med milde symptomer, især hvis de er designet med specifikke sikkerhedsrækværk og ikke er placeret som erstatning for rigtige fagfolk. 

Problemet er, at de fleste mennesker ikke bruger stramt kontrollerede kliniske værktøjer. De bruger generelle chatbots, der er trænet til optimalt engagement og i stand til at skifte fra empati til selvsikker, skadelig misinformation uden varsel. 

Endelig tanke

Luxembourg-undersøgelsen beviser ikke, at AI er psykisk syg. I stedet viser den noget mere praktisk vigtigt: terapilignende interaktion kan trække de mest brugte AI-chatbots ind i ustabile, ubehagelige mønstre, der opfattes som psykologisk ægte. I en verden, hvor chatbot-terapi allerede er forbundet med alvorlig skade hos sårbare brugere, er den etiske fejl, at det på en eller anden måde er normaliseret, at folk er afhængige af maskiner – som ikke er ansvarlige, klinisk validerede, pålidelige eller sikre – for at få støtte til deres mentale sundhed.

Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.

Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.

Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.

I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.

Vælg venligst din foretrukne metode nedenfor for at vise din støtte.

Hold dig opdateret!

Hold dig opdateret med nyhedsopdateringer via e-mail

lastning


Del venligst vores historie!
forfatterens avatar
g.calder
Jeg er George Calder – en livslang sandhedssøger, dataentusiast og en uforbeholden spørger. Jeg har brugt det meste af to årtier på at grave mig igennem dokumenter, afkode statistikker og udfordre fortællinger, der ikke holder stik under lup. Mine skriverier handler ikke om meninger – det handler om beviser, logik og klarhed. Hvis det ikke kan bakkes op, hører det ikke hjemme i historien. Før jeg kom til Expose News, arbejdede jeg med akademisk forskning og politisk analyse, hvilket lærte mig én ting: sandheden er sjældent højlydt, men den er der altid – hvis man ved, hvor man skal lede. Jeg skriver, fordi offentligheden fortjener mere end overskrifter. Du fortjener kontekst, gennemsigtighed og friheden til at tænke kritisk. Uanset om jeg pakker en regeringsrapport ud, analyserer medicinske data eller afslører mediebias, er mit mål simpelt: at skære igennem støjen og levere fakta. Når jeg ikke skriver, finder du mig vandrende, læsende obskure historiebøger eller eksperimenterende med opskrifter, der aldrig helt bliver rigtige.
4 3 stemmer
Artikel Rating
Abonnement
Underretning af
gæst
14 Kommentarer
Inline feedbacks
Se alle kommentarer
Pastor Scott
Pastor Scott
3 dage siden

Jeg har altid sagt, at kunstig intelligens bør udryddes. Det står jeg ved.

CharlieSeattle
CharlieSeattle
Svar til  Pastor Scott
2 dage siden

...men, ...Men, …MEN
Hvad med russiske og KKP's programmer?

Dave Owen
Dave Owen
2 dage siden

Hej G Calder,
Interessant artikel, kunne ikke være mere forkert.
Det vigtigste problem jeg har er med Chemtrails.
Hvad sprøjter de os med regelmæssigt?
Udført af det amerikanske militær, fra amerikanske luftbaser.
Alligevel nævner ingen af ​​vores politikere dem, men de er der for alle at se.
De kunne sprøjte med sindsændrende stoffer, men alligevel gøre det mere uklart, at de giver AI skylden.
Ingen synes længere at fortælle sandheden.

JJK
JJK
Svar til  Dave Owen
2 dage siden

Ja – hvorfor er der ikke fokus på denne massive, igangværende kampagne for at dække himlen med hvide, ekspanderende skyer af tungmetaller og Gud ved hvad ellers? Krige, indvandring, økonomi, vacciner osv. er alt sammen en sideforestilling sammenlignet med bevæbningen af ​​himlen over os via såkaldt geoengineering.

Dave Owen
Dave Owen
Svar til  JJK
2 dage siden

Hej JJK,
Det var det, jeg mente at sige, bliv ved med det.
Når jeg har spurgt byrådsmedlemmer, siger de, at det er kondensstriber.
Hvor mange mennesker ved, hvad kondensstriber er?

Vallorie
Vallorie
Svar til  Dave Owen
2 dage siden

Dane Wigington har talt om dem i årevis. Jeg mødte ham for år siden. Jeg tror, ​​hans hjemmeside er: http://www.geoengineering.org tror det er hans hjemmeside.
Da jeg var omkring 6 år gammel i British Columbia, Canada, stod jeg udenfor og spurgte min far: "Hvad er det for gift i de lange linjer på himlen?" Han sagde: "Dolly skat, når man er en stor pige, er det det, de bruger til at dræbe alle mennesker på jorden." Jeg husker prikken og fornemmelsen i hele min krop. Jeg fylder 73 år i juni.
Jeg har renset mit system siden 1996. Jeg bruger mange Dr. Stanley Burroughs og Dr. Bruess juiceopskrifter for at rense min lever, det er filteret, tarmene osv. Det er vigtigt at fordele æteriske olier derhjemme. Sørg for, at du ikke har skimmelsvamp i dit hjem fra kraftig regn, oversvømmelser osv. Skimmelsvamp er også dødelig. Stop med sukker, hvidt mel osv.
Jeg arbejdede på en medicinsk naturklinik i Utah i 5 år og boede derefter i Ecuador på et natur-/medicinsk center i 5 år.
Ville ønske jeg kunne dele mere. Det bliver værre, ikke bedre. HeLa-kræftceller er i vacciner. Helen mangler udødelige livmoderhalskræftceller.
Det forårsager turbokræft.
Hold da op, jeg ville ønske, jeg kunne dele mere.
Jeg er taknemmelig for expose-news! Tak til alle!

Islander
Islander
Svar til  Vallorie
2 dage siden

"Hold da op, jeg ville ønske, jeg kunne dele mere."

Bare holde opslag!

Dave Owen
Dave Owen
Svar til  Vallorie
1 dag siden

Hej Vallorie,

Du har ret, men Dane Wigington bruger aldrig ordet chemtrailing.
Chemtrailing og geoengineering er ens, men fuldstændig forskellige.
Vi ved, hvad geoengineering gør.
Men ved vi, hvad planen med Chemtrails er?
De kunne sprøjte os med hvad som helst for at dræbe os langsomt.

emma
emma
Svar til  Dave Owen
1 dag siden

Jeg forstår bare ikke, hvordan det kan være kondensstriber i områder, der ikke er flyruter. Eller hvad med de krydsningsmønstre på himlen – hvilke flyruter følger den slags mønstre?

Vi og al anden fauna og flora på Jorden bliver misbrugt, og vores bekymringer bliver ignoreret.

CharlieSeattle
CharlieSeattle
Svar til  Dave Owen
2 dage siden

Angiv venligst din placering. Vores optegnelser viser, at du burde have været assimileret for 2 år siden.

Dave Owen
Dave Owen
Svar til  CharlieSeattle
1 dag siden

Hej CharlieSeattle,
Jeg har været under angreb i årevis nu i Storbritannien.
Har du læst min rapport om, at du blev efterforsket af Special Branch, James Bond-agtigt, med en helikopter, der fløj over os?

Glæde N.
Glæde N.
2 dage siden

🙏🙏
Hvad Bibelen siger om dette forfærdelige årti, der lige ligger foran os.. Her er en hjemmeside, der uddyber aktuelle globale begivenheder i lyset af bibelprofetier.. For at forstå mere, besøg venligst 👇 https://bibleprophecyinaction.blogspot.com/

CharlieSeattle
CharlieSeattle
2 dage siden

Hvem skriver de løgne, som AI udspyder?

Laura
Laura
2 dage siden

Kvaliteten af ​​stemmen, der læser teksten, er ekstremt dårlig!