OpenAI viser en "hensynsløs tilsidesættelse" af produktsikkerhed, folks ret til deres egen lighed og endda demokratiets stabilitet, ifølge et brev skrevet af vagthunden Public Citizen. Sora-videoplatformen bruges typisk til kort indhold på sociale medier, hvor de skaber klip, der er underholdende nok til at blive liked og delt. Et populært tema er falske optagelser fra dørklokkekameraer, hvor noget lidt usædvanligt finder sted, men stadig er nogenlunde troværdigt – som en kænguru, der kommer til nogens dør, eller en løst underholdende gadescene, der udfolder sig – men softwaren kan hurtigt blive en fare for os alle.
Public Citizen har netop opfordret OpenAI til at fjerne Sora fra offentlig brug og kalder det en hensynsløs udgivelse, der forstærker deepfakes, identitetstyveri og misinformation om valg. Er det så slemt, som de siger?

Faren ved deepfakes
Public Citizen skrev et brev til OpenAI og den amerikanske kongres med krav om, at Sora skulle tages offline, indtil robuste, testbare beskyttelsesrækværk kunne implementeres. Deres påstand er, at appen blev lanceret uansvarligt tidligt for at opnå en konkurrencefordel uden at overveje de nødvendige sikkerhedsforanstaltninger. Ikke-konsensuel brug af ligheder og udbredt bedrag er de vigtigste risici her, hvor syntetiske videoer spredes hurtigere, end offentligheden kan verificere deres ægthed.
JB Branch, fortaler for teknologipolitik hos Public Citizen – som har skrevet brevet – siger: "Vores største bekymring er den potentielle trussel mod demokratiet. Jeg tror, vi går ind i en verden, hvor folk ikke rigtig kan stole på det, de ser. Og vi begynder at se strategier i politik, hvor det første billede eller den første video, der bliver offentliggjort, er det, folk husker."
Branch fortsatte: "De træder gaspedalen i bund uden hensyntagen til skadevirkninger. Meget af dette virker forudsigeligt. Men de vil hellere have et produkt ud, få folk til at downloade det, få folk, der er afhængige af det, end at gøre det rigtige og stressteste disse ting på forhånd og bekymre sig om hverdagsbrugernes situation."
OpenAI forårsagede selvmord, påstande i retssager
Syv nye retssager, der blev anlagt i sidste uge ved californiske domstole, hævder, at chatbotten drev folk til selvmord og skadelige vrangforestillinger, selv når de ikke havde tidligere psykiske problemer. På vegne af seks voksne og en teenager anlagde Social Media Victims Law Center og Tech Justice Law Project retssager med påstand om, at OpenAI bevidst udgav sin GPT-4o-iteration for tidligt sidste år, på trods af interne advarsler om, at den var farligt sykofantisk og psykologisk manipulerende. Fire af ofrene døde af selvmord.
Public Citizen er ikke involveret i retssagerne, men gentager de bekymringer, der er rejst i dem. Branch siger, at OpenAI blokerer nøgenhed, men at "kvinder stadig oplever, at de bliver chikaneret online" på andre måder. En rapport fra 404 Media fandt i sidste uge en strøm af videoer lavet af Sora, hvor kvinder bliver kvalt.
Hvad Sora AI-videoer bruges til
Sora gør det muligt for alle at producere filmiske forfalskninger, hvad enten det er fiktive dørklokkescener, læbesynkroniserende berømtheder eller fotorealistiske minidramaer, der ligner øjenvidneoptagelser. Disse klip er designet til at være sjove, delelige og uhyggelige – i sidste ende for dopaminens skyld. Men når de deles på onlineplatforme, forsvinder konteksten, og mange mennesker fordøjer dem, som om de er virkelige.
Washington Post testede teorien. De uploadede en falsk video lavet af Sora til otte store platforme med indlejrede legitimationsoplysninger om manipulationssikret indhold. Kun én platform – YouTube – identificerede og afslørede dens kunstige natur, men skjulte etiketten i beskrivelsen. Hvis platforme ikke kan, eller vil, sende klare signaler om, hvad der er ægte, og hvad der er falsk, så er der ingen måde at beskytte seerne mod vildledende indhold.
Hvor det kunne gå galt – og allerede gør det
- ValgEn håndfuld realistiske forfalskninger, såsom fabrikerede politiskyderier, forfalskede kandidattilståelser og forfalskede udenrigspolitiske rapporter, kan påvirke valgdeltagelsen og skabe uro længe før faktatjek kan indføres. Public Citizen advarer om Soras indvirkning på "demokratiets stabilitet".
- Chikane og afpresningIkke-samtykke seksuelle deepfakes, smædekampagner omdømme og generelle afpresningskampagner er allerede et problem med stillbilleder – video ganger skaden
- Offentlige sikkerhedssvindelnumreFalske katastrofeklip eller nødalarmer spredes hurtigere end fejlretninger, hvilket forvirrer førstehjælpere og offentligheden. Soras uhyggelige realisme i hverdagskontekster er uovertruffen, og det er sværere end nogensinde at se forskel.
- Økonomisk bedrageriSyntetiske videoer af administrerende direktører, offentlige personer eller højtprofilerede influencere kan skabe klassiske svindelnumre med stemme- eller e-mailbedragere, der presser medarbejdere eller privatpersoner til at overføre penge. Stemmekloning narrer allerede banker – forestil dig også kraften i at forfalske videoer.
Hvad OpenAI siger, at de gør for at imødegå farer
OpenAI er begyndt at begrænse cameoer af offentlige personer og har indført brugerkontroller over "AI-selv", hvor en personlig avatar kan vises. På den ene side anerkender de tydeligt risikoen. Men på den anden side adresserer de ikke effektivt hele problemet. De sagde, at "overmoderering er super frustrerende" for nye brugere, og at det er vigtigt at være konservativ, "mens verden stadig tilpasser sig denne nye teknologi".
I oktober annoncerede de offentligt aftaler med Martin Luther King Jr.s familie, der forhindrede "respektløse skildringer" af borgerrettighedsforkæmperen, mens virksomheden arbejdede på bedre sikkerhedsforanstaltninger. OpenAI annoncerede også den samme aftale med berømte skuespillere, fagforeningen SAG-AFTRA og talentbureauer.
"Det er jo fint nok, hvis man er berømt," sagde Branch, men fremhævede et andet problem. "Det er ligesom bare et mønster, som OpenAI har, hvor de er villige til at reagere på en meget lille befolknings forargelse. De er villige til at udgive noget og undskylde bagefter. Men mange af disse problemer er designvalg, de kan træffe, før de udgiver det."
Det større AI-billede
Brevet fra Public Citizen lander midt i en større erkendelse af, at vi bygger platforme, der gør bedrag lettere end nogensinde, i stedet for at skabe systemer til at beskytte mod det. Sora-videoer kan være engagerende, men alligevel umulige at skelne ved scrollhastighed, og uden troværdige etiketter, der fremhæver det syntetiske indhold for brugerne, tillader vi blot offentligheden at vænne sig til falsk indhold og i sidste ende blive ude af stand til at se forskel.
OpenAI opfandt ikke deepfakes, og konkurrenterne vil kæmpe for at matche det. Ægte lederskab ville kræve, at man sætter farten ned, indtil sikkerhedsrækværket er på plads, snarere end at bevæge sig så hurtigt, at vi aldrig kan opbygge den rette beskyttelse. I mellemtiden vil vagthunde fortsætte med at kræve, at det fjernes fra offentligheden, indtil almindelige mennesker kan skelne mellem fakta og fiktion.
Endelig tanke
Tror du, at du præcist kan se forskel på de nyeste AI-videoer og virkeligheden? Hvad er den største risiko ved, at denne teknologi er tilgængelig for alle? Hvad kan vi gøre ved det? Del dine tanker nedenfor.
Expose har akut brug for din hjælp…
Kan du venligst hjælpe med at holde lyset tændt med The Exposes ærlige, pålidelige, kraftfulde og sandfærdige journalistik?
Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.
Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.
Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.
I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.
Vælg venligst din foretrukne metode nedenfor for at vise din støtte.
Kategorier: Vidste du?
Jeg har altid sagt, at AI skal ødelægges. Endnu bedre, aldrig udvikles. For sent nu. Katten er ude af sækken, nu ved du, at vi er blevet solgt grisen i sækken. Vi kan lige så godt slippe af med CCTV, for ingen digitale optagelser er gyldige længere. Digital ID? Aldrig i livet, alt for risikabelt. Menneskeheden er ved at finde ud af, at AI er en værre opfindelse end atombomben. Forskere skal lukkes væk fra resten af samfundet. De bliver let betalt ... klimaforandringssvindel, covid-svindel og gør masser af skade ...
Ja, jeg er enig i, at AI i sin nuværende form skal væk! Det er meget farligt, især for børn!
Det er en god ting. AI er relativt nyt, så det vil tage lidt tid for den brede offentlighed at forstå, at absolut intet, der findes på internettet, kan stoles på. Den falske kunstige intelligens hjælper med dette.
Snart vil de fleste vide, at intet af det kan stoles på. Dette burde selvfølgelig altid have været kendt, men erkendelsen vil hurtigt sive ned til selv de dummeste mennesker.
Læs hele artiklen. Den såkaldte "fare" kommer ikke fra at lyve, men fra folk, der tror på løgne. For eksempel forstår selv nogle af de dummeste mennesker nu, at politikere lyver for dem.
Hvor mange mennesker kommer til at sige: "Hold da op, jeg er aldrig blevet løjet for i hele mit liv, før jeg så en AI-video?" Den såkaldte "sikkerheds"-motivation er aldrig andet end et forsøg på at censurere og kontrollere.
En eller anden tosse går på skyderi, fordi stemmerne i hans hoved siger, at han skal dræbe folk? Stemmer i hovedet er en fare for alle! Lad os forbyde stemmer i folks hoveder!
Hej Plebney,
Det er interessant at se det fra den anden side, at det faktisk kan fremskynde folks erkendelse af, at intet af det kan stoles på. Min bekymring er, at det ikke ser ud til at ske på den måde i øjeblikket; i stedet fortærer folk det hele, uanset om de tror, det er sandt eller ej. Det føles på en måde, som om de fleste ikke er særligt interesserede, så længe de bliver underholdt i 15 sekunder ad gangen. Jeg gætter på, at vi finder ud af det snart nok.
Skål,
G. Calder
God artikel! Det er selvfølgelig ikke kun Sora – der findes mange derude nu. Jeg brugte Googles Veo3 til at lave en kortfilm (mit første forsøg, og det var ikke nemt! – https://panocracy.substack.com/p/panocracy-the-movie-introduction)
Jeg tror, at folk vil se på enhver form for information i radio/tv-spredning gennem deres egne fordomme. Hvis du er tilhænger af Trump, vil du være skeptisk over for enhver negativ presseomtale, han modtager, og acceptere den, hvis den er positiv. Det samme gælder for Starmer osv.
Den igangværende situation med BBC's manipulation af optagelser af Trump til sine Panorama- og Newsnight-programmer viser (hvis det var nødvendigt), at mis-/desinformation ikke er begrænset til kunstig intelligens.
Jeg har fundet ud af, at det er dem i de professionelle klasser, der er mest modtagelige for misinformation. Arbejderklassen har en tendens til at afvise næsten alt som et ledelsesknep! De, hvis levebrød afhænger af det skrevne og talte ord, har en tendens til at være langt mere godtroende.
Længe før denne kunstige intelligens kom i forgrunden, hengav sig skiftende regeringer regelmæssigt til alle former for bedrag.
Der er tilsyneladende heller ingen ansvarlighed.
🙏🙏
Hvad Bibelen siger om dette forfærdelige årti, der lige ligger foran os.. Her er en hjemmeside, der uddyber aktuelle globale begivenheder i lyset af bibelprofetier.. For at forstå mere, besøg venligst 👇 https://bibleprophecyinaction.blogspot.com/
Min søn har en app, som han bruger uskyldigt ... Han er virkelig vild med vejret for tiden, især tornadoer. Han har lavet videoer ved at filme udenfor og derefter generere tornadoer, der udsletter lokale huse og efterlader murbrokker. De ser faktisk ret realistiske ud! ... Ulempen er, hvis det bruges af skumle årsager, og hvem ved, om det næste falske flag bliver skabt på denne måde ... Vi havde allerede 9/11 og 7/7 længe før denne teknologi! ...
"Demokratiets stabilitet"???
Demokrati er og Det ultimative symbol på ustabilitet - en etbenet mand er mere stabil!
Jeres læsere kan da vel efterhånden se, at demokratiet er blevet "funnet for mangelfuldt"?
Vše, jak se zdá, už tady bylo řečeno. Co dál? Nedělejme si iluze. Džiň (Kraken) byl vypuštěn. Tohle už nikdo nezastaví. Poslední zhasne. Přeji hezký den.
Seneste opdatering.