Vidste du?

AI vil spise sig selv; det er som kogalskab – Tech Insiders er ikke bekymrede over accelererende udvikling

Del venligst vores historie!

I takt med at kunstig intelligens accelererer ind i alle hjørner af det moderne liv, forbliver den dominerende fortælling en om uundgåelighed. Med smartere modeller og total automatisering føler mange sig katapulteret mod en fremtid, der er omformet af maskiner, der overgår mennesker i næsten alt. Men i stigende grad giver teknologieksperter udtryk for alternative synspunkter: at udviklingen hverken er sund, bæredygtig eller uundgåelig. Dan Houser – medstifter af Rockstar Games – sammenlignede for nylig den nuværende boom med Kogalskab og sagde, at det er et system, der lever af sig selv og i sidste ende vil blive fundamentalt ustabilt. Det er en provokerende analogi, der åbner et dybere spørgsmål, der kan bringe lindring for nogle – hvad nu hvis de fejl, der dukker op i AI, ikke er fejl, der skal rettes, men strukturelle begrænsninger, der vil forhindre teknologien i nogensinde virkelig at "overtage verden"? 

AI spiser sig selv som kogalskab Teknologi-insidere afslører skrøbelighed Ikke bekymret over udvikling

Kogalskabens analogi: Spiser AI sig selv?

Housers sammenligning hviler på en specifik historisk lektie. Kogalskab spredte sig, når kvæg blev fodret med forarbejdede rester af andet kvæg, hvilket skabte en lukket kredsløb af nedbrudt biologisk materiale, der i sidste ende forårsagede katastrofale neurologiske svigt. Hans argument er, at kunstig intelligens – snarere end at blive uovervindelig og overtage verden – faktisk glider ind i et lignende mønster. Modeller trænes i stigende grad på syntetiske output, der tidligere blev genereret af andre AI-systemer – ikke på menneskeskabt viden. 

I bund og grund genereres mere af det, vi ser på internettet, af de samme systemer, efterhånden som automatiserede modeller fortsætter med at vokse. Efterhånden som nye og eksisterende modeller træner yderligere, fordøjer de faktisk kun deres egne output. Forskere har allerede dokumenteret et fænomen kendt som model kollaps, hvor generative systemer, der gentagne gange trænes på AI-skabte data, bliver mindre præcise, mindre forskelligartede og mere løsrevet fra virkeligheden over tid. I stedet for at deres intelligens forstærkes, ender systemerne med at udhule sig selv, forstærke deres oprindelige fejl og udjævne nuancer. 

Et voksende problem, som teknologiledere ikke taler om

Offentligt rettet AI-markedsføring fokuserer på skala: mere data, mere integration, flere parametre. Hvad der dog ikke tales om, er den voksende mangel på menneskeskabt træningsmateriale af høj kvalitet. Meget af det åbne internet er allerede blevet optaget af eksisterende modeller, hvilket betyder, at det, der er tilbage, i stigende grad er forurenet af spam, automatiseret støj og andre former for AI-indhold. 

Store sprogmodeller uden adgang til kontinuerligt fornyet menneskelig input såsom kunst, ræsonnement, skrivning og ægte levet erfaring er i alvorlig risiko for stagnation eller regression. Ironien er barsk: Efterhånden som mere automatiseret indhold oversvømmer internettet, desto mindre pålideligt bliver internettet som en træningskilde. 

Housers kritik stikker dybere end blot den tekniske arkitektur. Han argumenterer for, at de, der presser hårdest på for fuldstændig implementering af AI, ofte er isolerede fra de intellektuelle og kulturelle omkostninger og i stedet prioriterer effektivitet frem for ordentlig forståelse. Med hans egne ord er disse ledere "ikke alsidige mennesker", der indsnævrer perspektivet inden for beslutningskredse. 

Hvad videospil lærer os om AI

Rockstar Games – som Houser var medstifter af – byggede sit ry på menneskeskabt kompleksitet, herunder satire, kulturel tekstur og generel kreativitet. Det er præcis de kvaliteter, som generativ AI kæmper med at gengive overbevisende.  

Selvom modeller kan generere dialog, teksturer og kodestykker, mangler de en intern følelse af mening, motivation eller konsekvens. Disse er kvaliteter, der er essentielle for historiefortælling og verdensopbygning, og spiludviklere har for længst stødt på AI's begrænsninger i praksis. De fremhæver et bredere problem: AI kan imitere form, men den forstår ikke kontekst. Den kan forudsige, hvad bør kom næste, men ikke hvorfor det burde overhovedet komme næste gang. 

Andre slår alarm med samme stemme

Houser er blot ét eksempel på et stigende antal bekymrede teknologichefer, der alle deler lignende synspunkter. De advarer ofte om, at AI-systemer er skrøbelige, overhypede og fundamentalt forkert afstemt med, hvordan intelligens fungerer. virkelig fungerer.  

Sikker, men falsk udgang kaldes ofte "hallucinationer". Disse fungerer som tegn på, at disse systemer faktisk ikke vide alt i menneskelig forstand. Der er også bekymringen for de skyhøje energiomkostninger, dataflaskehalse og aftagende afkast i takt med at modeller skaleres. Der cirkulerer rygter om, at brute-force-skalering og forsøg på at ekspandere så hurtigt som muligt faktisk nærmer sig økonomiske og fysiske grænser. 

Det er måske betryggende, at frygten for løbsk superintelligens begynder at ligne mindre en overhængende trussel og mere en distraktion fra de reelle risici: kulturel homogenisering, misinformation og institutionel overafhængighed af systemer, der aldrig kan fungere som mennesker. 

Er disse AI-begrænsninger en god ting?

Denne strukturelle svaghed kan være netop det, der forhindrer katastrofe. Hvis AI-systemer nedbrydes, når de isoleres fra menneskelig kontrol, kan de aldrig blive selvbærende intelligensformer. De forbliver parasitære på menneskelig kreativitet og dømmekraft, og denne afhængighed underminerer de populære science fiction-billeder af maskiner, der autonomt forbedrer sig selv uden for menneskelig kontrol. 

I den forstand kan AI være mere som en forstærker end en erstatning. Det kan være et kraftfuldt værktøj, men fundamentalt begrænset. Måske kan det accelerere mønstre, der allerede findes i samfundet, men det kan ikke generere mening, etik eller formål i sig selv. Det er måske ikke tilfældet. uskadelig, men det begynder at dukke op begrænset

Den reelle risiko bag det hele

Den mest alvorlige fare i dette tilfælde ville ikke være selve kunstig intelligens, men snarere hvordan institutioner reagerer på den. Virksomheder, medieorganisationer og endda regeringer behandler i stigende grad kunstig intelligens-output som autoritative, selv når nøjagtigheden er usikker. Over tid forringer dette menneskelig ekspertise, ansvarlighed og kritisk tænkning. 

Hvis AI-genereret materiale bliver standardreferencepunktet inden for f.eks. jura, journalistik, uddannelse eller politik, så holder fejl op med at være isolerede fejl og begynder at være systemiske fiaskoer. Dette er den sande "kogalskabs"-risiko: ikke at maskiner gør oprør, men at mennesker outsourcer dømmekraft, indtil feedback-loopen imploderer.  

Houser spørger blot, om samfundet forveksler automatisering med visdom og hastighed med fremskridt. 

Endelig tanke

Hvis AI virkelig går ind i sin "kogalskabsfase", så virker fantasien og frygten for total maskindominans mindre overbevisende. Det kan måske skuffe fremtidsforskere og alarmister, men det burde berolige alle andre.  

Fremtiden har bestemt brug for menneskelig dømmekraft, kreativitet og forståelse. Hvis vi tager argumenter som Housers, er faren ikke, at AI vil erstatte alle, og det ser ikke ud til, at AI nogensinde kan overtage verden. Men det betyder ikke, at vi ikke ender med at opgive den frivilligt ved at stole for meget på automatiserede modeller i mellemtiden. 

Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.

Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.

Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.

I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.

Vælg venligst din foretrukne metode nedenfor for at vise din støtte.

Hold dig opdateret!

Hold dig opdateret med nyhedsopdateringer via e-mail

lastning


Del venligst vores historie!
forfatterens avatar
g.calder
Jeg er George Calder – en livslang sandhedssøger, dataentusiast og en uforbeholden spørger. Jeg har brugt det meste af to årtier på at grave mig igennem dokumenter, afkode statistikker og udfordre fortællinger, der ikke holder stik under lup. Mine skriverier handler ikke om meninger – det handler om beviser, logik og klarhed. Hvis det ikke kan bakkes op, hører det ikke hjemme i historien. Før jeg kom til Expose News, arbejdede jeg med akademisk forskning og politisk analyse, hvilket lærte mig én ting: sandheden er sjældent højlydt, men den er der altid – hvis man ved, hvor man skal lede. Jeg skriver, fordi offentligheden fortjener mere end overskrifter. Du fortjener kontekst, gennemsigtighed og friheden til at tænke kritisk. Uanset om jeg pakker en regeringsrapport ud, analyserer medicinske data eller afslører mediebias, er mit mål simpelt: at skære igennem støjen og levere fakta. Når jeg ikke skriver, finder du mig vandrende, læsende obskure historiebøger eller eksperimenterende med opskrifter, der aldrig helt bliver rigtige.
5 3 stemmer
Artikel Rating
Abonnement
Underretning af
gæst
9 Kommentarer
Inline feedbacks
Se alle kommentarer
INGRID C. DURDEN
INGRID C. DURDEN
1 måned siden

Absolut. En maskine kan efter min mening ikke overgå det, der bliver sat i den. Og den skal repareres. Folk er nødt til at reparere den, jeg tror ikke, der findes en selvreparerende maskine. Da computere blev almindelige varer, fik vi at vide, at der ikke ville være behov for papiroptegnelser. Men når din computer går i stykker, har du stadig brug for den gode gamle adressebog.

kuno
kuno
Svar til  INGRID C. DURDEN
1 måned siden

Ja, men jeg tror, ​​der er en generel tendens til at overse det virkelige problem, som er vores afhængighed af informationssystemer. Ud fra det følger den autoritet, der gives til intelligente systemer, uanset hvor dumme eller vanvittige de måtte være. Det er netop deres vanvid, der vil dræbe os længe før den dræber sig selv. Og ikke fordi den specifikt ønsker os døde, men fordi dovne administratorer giver autoritet til systemerne, og fordi vi accepterer det. "Computeren siger nej" – "Øh, okay, formoder jeg". Hver gang et system træffer en beslutning, som der ikke er nogen menneskelig tilsidesættelse af, er vi i store problemer. Dette går mange år tilbage, før AI overhovedet var en ting, måske tilbage til 1970'erne. Du ved, ligesom da min tante fik tilsendt en regning på nul pund, fordi hun ikke havde brugt noget på sin konto, og virksomheden truede med at lukke hendes konto. Til sidst var den eneste løsning, at hun sendte dem en check på nul pund og nul pence. Fejlen blev selvfølgelig rettet, men det virkelige problem var strukturelt – at mennesker var nødt til at adlyde en maskine for at holde den glad.

Joan Jacob
Joan Jacob
1 måned siden

Når du ringer til en virksomhed eller organisation, og du får en AI, der svarer på dit problem, er det nærmest umuligt at løse det. Du kan ikke ræsonnere med en robot, og i sidste ende vil alle små virksomheder finde det mere og mere vanskeligt, fordi det er umuligt at tale med et menneske, der kan løse deres problem.
Dette skaber allerede problemer for banker og essentielle tjenester som telefon- og elselskaber. Det bliver meget alvorligt, hvis du ikke kan tale med en person, der forstår, hvad du siger.

CharlieSeattle
CharlieSeattle
Svar til  Joan Jacob
1 måned siden

Ingen Hablo?

Rebecca Denhoff
Rebecca Denhoff
1 måned siden

Jeg har altid tvivlet på, at AI kunne blive til Hal. Hvad jeg ikke tvivler på, er dovenskaben, ondskaben og uanstændigheden hos mennesker, der leder efter en nemmere måde og er ligeglade med, hvor sjusket, kriminel og uretfærdig AI kan blive, hvis de får lov til at træffe beslutninger i regeringen ved at spytte nogle forringede, genoplivet algoritmer ud. Især i f.eks. retssystemet eller skattesystemet. Bureaukrater er normalt skøre libbarder, hvis egne operativsystemer er forringede. Og selvom der måske er færre af dem ansat, kan livet mellem AI og disse idioter blive ret elendigt for borgeren. AI vil altid kræve skarpsindig overvågning af ansvarlige, ædru og dydige mennesker. Jeg kan bare ikke se det ske, hvor de rige og magtfulde for det meste er grove kriminelle.

Peter
Peter
1 måned siden

Den større risiko er mindre maskinerne end den monsterklasse af 'teknologientusiaster', der ejer og driver dem. Deres erhvervelsesorienterede natur, som bestemt afspejles i deres blindgyde af såkaldt kreativitet gennem AI, er den virkelige trussel, da de amerikanske antitrustloves fejlslagne demonstrerer, at megakorpsnetværket – Blackrock m.fl. – er ved at opnå ukontrolleret diktatur, nemlig Thiel/Palantir og Musks Xempire. Resten vil kæmpe om et par symbolske krummer, der symboliserer vores ejerskab af ingenting og lykke.

CharlieSeattle
CharlieSeattle
1 måned siden

Hvem skriver de løgne, som AI udspyder?

Paul Watson
Paul Watson
Svar til  CharlieSeattle
1 måned siden

Du er nødt til at udfordre AI for at få rigtige svar.
Jeg spurgte om mordet på Charlie Kirk, og det udspyede online-fortællingen, men præsenter fakta omkring mordet og dækningen og bingo, det var meget imponerende.

John Hart
John Hart
1 måned siden

AI er absolut nødvendig for at individer kan forblive frie i den højteknologiske verden, der udvikler sig. Desværre kan den AI, der hypes (AGI), ikke blot ikke levere, hvad fortalerne lover, den falske tro på, at den kan, er ekstremt farlig. Folk, der forstår informationsvidenskab, joker allerede med at redde dele i de gigantiske systemer, efter de fejler og lukkes ned. Det ville være det 'gode' scenarie, det dårlige afspejler AGW-svindelen, der er faldet fra hinanden, men milliarder tror stadig på det.

Kunstig intelligens, der kan hjælpe menneskeheden, skal distribueres, og folk skal have mulighed for at programmere den til individuelle behov. Software, som folk er afhængige af, ligesom medicin, skal ÅBEN SOURCE! Faren på begge områder har været voksende i årevis, fordi oligarker har fået lov til at overtage regulerende organer, medierne og stort set alt andet, folk er afhængige af.

Vi har brug for et nyt skattesystem, der forhindrer monopoler i at danne sig og styrker individuel kapitaldannelse. Det nuværende system gør det stik modsatte, og den regering, der "skal" holde kapitalismen i balance, blev fanget for længe siden. PAT-SAT er designet til at genoprette den økonomiske balance, så enkeltpersoner kan trives.