Vidste du?

OpenAI skal trække Sora tilbage: Hvordan deepfake AI-videoer bringer os alle i fare

Del venligst vores historie!

OpenAI viser en "hensynsløs tilsidesættelse" af produktsikkerhed, folks ret til deres egen lighed og endda demokratiets stabilitet, ifølge et brev skrevet af vagthunden Public Citizen. Sora-videoplatformen bruges typisk til kort indhold på sociale medier, hvor de skaber klip, der er underholdende nok til at blive liked og delt. Et populært tema er falske optagelser fra dørklokkekameraer, hvor noget lidt usædvanligt finder sted, men stadig er nogenlunde troværdigt – som en kænguru, der kommer til nogens dør, eller en løst underholdende gadescene, der udfolder sig – men softwaren kan hurtigt blive en fare for os alle. 

Public Citizen har netop opfordret OpenAI til at fjerne Sora fra offentlig brug og kalder det en hensynsløs udgivelse, der forstærker deepfakes, identitetstyveri og misinformation om valg. Er det så slemt, som de siger? 

OpenAI viser en "hensynsløs tilsidesættelse" af produktsikkerhed, folks ret til deres egen lighed, demokratiets stabilitet og har endda ført til selvmord med sin Sora AI-videosoftware ifølge Public Citizen.

Faren ved deepfakes

Public Citizen skrev et brev til OpenAI og den amerikanske kongres med krav om, at Sora skulle tages offline, indtil robuste, testbare beskyttelsesrækværk kunne implementeres. Deres påstand er, at appen blev lanceret uansvarligt tidligt for at opnå en konkurrencefordel uden at overveje de nødvendige sikkerhedsforanstaltninger. Ikke-konsensuel brug af ligheder og udbredt bedrag er de vigtigste risici her, hvor syntetiske videoer spredes hurtigere, end offentligheden kan verificere deres ægthed.  

JB Branch, fortaler for teknologipolitik hos Public Citizen – som har skrevet brevet – siger: "Vores største bekymring er den potentielle trussel mod demokratiet. Jeg tror, ​​vi går ind i en verden, hvor folk ikke rigtig kan stole på det, de ser. Og vi begynder at se strategier i politik, hvor det første billede eller den første video, der bliver offentliggjort, er det, folk husker." 

Branch fortsatte: "De træder gaspedalen i bund uden hensyntagen til skadevirkninger. Meget af dette virker forudsigeligt. Men de vil hellere have et produkt ud, få folk til at downloade det, få folk, der er afhængige af det, end at gøre det rigtige og stressteste disse ting på forhånd og bekymre sig om hverdagsbrugernes situation." 

OpenAI forårsagede selvmord, påstande i retssager

Syv nye retssager, der blev anlagt i sidste uge ved californiske domstole, hævder, at chatbotten drev folk til selvmord og skadelige vrangforestillinger, selv når de ikke havde tidligere psykiske problemer. På vegne af seks voksne og en teenager anlagde Social Media Victims Law Center og Tech Justice Law Project retssager med påstand om, at OpenAI bevidst udgav sin GPT-4o-iteration for tidligt sidste år, på trods af interne advarsler om, at den var farligt sykofantisk og psykologisk manipulerende. Fire af ofrene døde af selvmord.  

Public Citizen er ikke involveret i retssagerne, men gentager de bekymringer, der er rejst i dem. Branch siger, at OpenAI blokerer nøgenhed, men at "kvinder stadig oplever, at de bliver chikaneret online" på andre måder. En rapport fra 404 Media fandt i sidste uge en strøm af videoer lavet af Sora, hvor kvinder bliver kvalt.  

Hvad Sora AI-videoer bruges til

Sora gør det muligt for alle at producere filmiske forfalskninger, hvad enten det er fiktive dørklokkescener, læbesynkroniserende berømtheder eller fotorealistiske minidramaer, der ligner øjenvidneoptagelser. Disse klip er designet til at være sjove, delelige og uhyggelige – i sidste ende for dopaminens skyld. Men når de deles på onlineplatforme, forsvinder konteksten, og mange mennesker fordøjer dem, som om de er virkelige.  

Washington Post testede teorien. De uploadede en falsk video lavet af Sora til otte store platforme med indlejrede legitimationsoplysninger om manipulationssikret indhold. Kun én platform – YouTube – identificerede og afslørede dens kunstige natur, men skjulte etiketten i beskrivelsen. Hvis platforme ikke kan, eller vil, sende klare signaler om, hvad der er ægte, og hvad der er falsk, så er der ingen måde at beskytte seerne mod vildledende indhold. 

Hvor det kunne gå galt – og allerede gør det

  • ValgEn håndfuld realistiske forfalskninger, såsom fabrikerede politiskyderier, forfalskede kandidattilståelser og forfalskede udenrigspolitiske rapporter, kan påvirke valgdeltagelsen og skabe uro længe før faktatjek kan indføres. Public Citizen advarer om Soras indvirkning på "demokratiets stabilitet". 
  • Chikane og afpresningIkke-samtykke seksuelle deepfakes, smædekampagner omdømme og generelle afpresningskampagner er allerede et problem med stillbilleder – video ganger skaden  
  • Offentlige sikkerhedssvindelnumreFalske katastrofeklip eller nødalarmer spredes hurtigere end fejlretninger, hvilket forvirrer førstehjælpere og offentligheden. Soras uhyggelige realisme i hverdagskontekster er uovertruffen, og det er sværere end nogensinde at se forskel. 
  • Økonomisk bedrageriSyntetiske videoer af administrerende direktører, offentlige personer eller højtprofilerede influencere kan skabe klassiske svindelnumre med stemme- eller e-mailbedragere, der presser medarbejdere eller privatpersoner til at overføre penge. Stemmekloning narrer allerede banker – forestil dig også kraften i at forfalske videoer. 

Hvad OpenAI siger, at de gør for at imødegå farer

OpenAI er begyndt at begrænse cameoer af offentlige personer og har indført brugerkontroller over "AI-selv", hvor en personlig avatar kan vises. På den ene side anerkender de tydeligt risikoen. Men på den anden side adresserer de ikke effektivt hele problemet. De sagde, at "overmoderering er super frustrerende" for nye brugere, og at det er vigtigt at være konservativ, "mens verden stadig tilpasser sig denne nye teknologi". 

I oktober annoncerede de offentligt aftaler med Martin Luther King Jr.s familie, der forhindrede "respektløse skildringer" af borgerrettighedsforkæmperen, mens virksomheden arbejdede på bedre sikkerhedsforanstaltninger. OpenAI annoncerede også den samme aftale med berømte skuespillere, fagforeningen SAG-AFTRA og talentbureauer. 

"Det er jo fint nok, hvis man er berømt," sagde Branch, men fremhævede et andet problem. "Det er ligesom bare et mønster, som OpenAI har, hvor de er villige til at reagere på en meget lille befolknings forargelse. De er villige til at udgive noget og undskylde bagefter. Men mange af disse problemer er designvalg, de kan træffe, før de udgiver det." 

Det større AI-billede

Brevet fra Public Citizen lander midt i en større erkendelse af, at vi bygger platforme, der gør bedrag lettere end nogensinde, i stedet for at skabe systemer til at beskytte mod det. Sora-videoer kan være engagerende, men alligevel umulige at skelne ved scrollhastighed, og uden troværdige etiketter, der fremhæver det syntetiske indhold for brugerne, tillader vi blot offentligheden at vænne sig til falsk indhold og i sidste ende blive ude af stand til at se forskel.  

OpenAI opfandt ikke deepfakes, og konkurrenterne vil kæmpe for at matche det. Ægte lederskab ville kræve, at man sætter farten ned, indtil sikkerhedsrækværket er på plads, snarere end at bevæge sig så hurtigt, at vi aldrig kan opbygge den rette beskyttelse. I mellemtiden vil vagthunde fortsætte med at kræve, at det fjernes fra offentligheden, indtil almindelige mennesker kan skelne mellem fakta og fiktion. 

Endelig tanke

Tror du, at du præcist kan se forskel på de nyeste AI-videoer og virkeligheden? Hvad er den største risiko ved, at denne teknologi er tilgængelig for alle? Hvad kan vi gøre ved det? Del dine tanker nedenfor. 

Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.

Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.

Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.

I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.

Vælg venligst din foretrukne metode nedenfor for at vise din støtte.

Hold dig opdateret!

Hold dig opdateret med nyhedsopdateringer via e-mail

lastning


Del venligst vores historie!
forfatterens avatar
g.calder
Jeg er George Calder – en livslang sandhedssøger, dataentusiast og en uforbeholden spørger. Jeg har brugt det meste af to årtier på at grave mig igennem dokumenter, afkode statistikker og udfordre fortællinger, der ikke holder stik under lup. Mine skriverier handler ikke om meninger – det handler om beviser, logik og klarhed. Hvis det ikke kan bakkes op, hører det ikke hjemme i historien. Før jeg kom til Expose News, arbejdede jeg med akademisk forskning og politisk analyse, hvilket lærte mig én ting: sandheden er sjældent højlydt, men den er der altid – hvis man ved, hvor man skal lede. Jeg skriver, fordi offentligheden fortjener mere end overskrifter. Du fortjener kontekst, gennemsigtighed og friheden til at tænke kritisk. Uanset om jeg pakker en regeringsrapport ud, analyserer medicinske data eller afslører mediebias, er mit mål simpelt: at skære igennem støjen og levere fakta. Når jeg ikke skriver, finder du mig vandrende, læsende obskure historiebøger eller eksperimenterende med opskrifter, der aldrig helt bliver rigtige.

Kategorier: Vidste du?

Mærket som: , , , ,

4.5 2 stemmer
Artikel Rating
Abonnement
Underretning af
gæst
10 Kommentarer
Inline feedbacks
Se alle kommentarer
Pastor Scott
Pastor Scott
3 måneder siden

Jeg har altid sagt, at AI skal ødelægges. Endnu bedre, aldrig udvikles. For sent nu. Katten er ude af sækken, nu ved du, at vi er blevet solgt grisen i sækken. Vi kan lige så godt slippe af med CCTV, for ingen digitale optagelser er gyldige længere. Digital ID? Aldrig i livet, alt for risikabelt. Menneskeheden er ved at finde ud af, at AI er en værre opfindelse end atombomben. Forskere skal lukkes væk fra resten af ​​samfundet. De bliver let betalt ... klimaforandringssvindel, covid-svindel og gør masser af skade ...

Robert Skappel
Robert Skappel
3 måneder siden

Ja, jeg er enig i, at AI i sin nuværende form skal væk! Det er meget farligt, især for børn!

plebney
plebney
3 måneder siden

Det er en god ting. AI er relativt nyt, så det vil tage lidt tid for den brede offentlighed at forstå, at absolut intet, der findes på internettet, kan stoles på. Den falske kunstige intelligens hjælper med dette.
Snart vil de fleste vide, at intet af det kan stoles på. Dette burde selvfølgelig altid have været kendt, men erkendelsen vil hurtigt sive ned til selv de dummeste mennesker.
Læs hele artiklen. Den såkaldte "fare" kommer ikke fra at lyve, men fra folk, der tror på løgne. For eksempel forstår selv nogle af de dummeste mennesker nu, at politikere lyver for dem.
Hvor mange mennesker kommer til at sige: "Hold da op, jeg er aldrig blevet løjet for i hele mit liv, før jeg så en AI-video?" Den såkaldte "sikkerheds"-motivation er aldrig andet end et forsøg på at censurere og kontrollere.
En eller anden tosse går på skyderi, fordi stemmerne i hans hoved siger, at han skal dræbe folk? Stemmer i hovedet er en fare for alle! Lad os forbyde stemmer i folks hoveder!

Jim Peden
Jim Peden
Svar til  g.calder
2 måneder siden

God artikel! Det er selvfølgelig ikke kun Sora – der findes mange derude nu. Jeg brugte Googles Veo3 til at lave en kortfilm (mit første forsøg, og det var ikke nemt! – https://panocracy.substack.com/p/panocracy-the-movie-introduction)

Jeg tror, ​​at folk vil se på enhver form for information i radio/tv-spredning gennem deres egne fordomme. Hvis du er tilhænger af Trump, vil du være skeptisk over for enhver negativ presseomtale, han modtager, og acceptere den, hvis den er positiv. Det samme gælder for Starmer osv.

Den igangværende situation med BBC's manipulation af optagelser af Trump til sine Panorama- og Newsnight-programmer viser (hvis det var nødvendigt), at mis-/desinformation ikke er begrænset til kunstig intelligens.

Jeg har fundet ud af, at det er dem i de professionelle klasser, der er mest modtagelige for misinformation. Arbejderklassen har en tendens til at afvise næsten alt som et ledelsesknep! De, hvis levebrød afhænger af det skrevne og talte ord, har en tendens til at være langt mere godtroende.

kelman
kelman
2 måneder siden

Længe før denne kunstige intelligens kom i forgrunden, hengav sig skiftende regeringer regelmæssigt til alle former for bedrag.
Der er tilsyneladende heller ingen ansvarlighed.

Glæde N.
Glæde N.
2 måneder siden

🙏🙏
Hvad Bibelen siger om dette forfærdelige årti, der lige ligger foran os.. Her er en hjemmeside, der uddyber aktuelle globale begivenheder i lyset af bibelprofetier.. For at forstå mere, besøg venligst 👇 https://bibleprophecyinaction.blogspot.com/

En Yousleh Zeeter
En Yousleh Zeeter
2 måneder siden

Min søn har en app, som han bruger uskyldigt ... Han er virkelig vild med vejret for tiden, især tornadoer. Han har lavet videoer ved at filme udenfor og derefter generere tornadoer, der udsletter lokale huse og efterlader murbrokker. De ser faktisk ret realistiske ud! ... Ulempen er, hvis det bruges af skumle årsager, og hvem ved, om det næste falske flag bliver skabt på denne måde ... Vi havde allerede 9/11 og 7/7 længe før denne teknologi! ...

Islander
Islander
2 måneder siden

"Demokratiets stabilitet"???

Demokrati er og Det ultimative symbol på ustabilitet - en etbenet mand er mere stabil!

Jeres læsere kan da vel efterhånden se, at demokratiet er blevet "funnet for mangelfuldt"?

Novak
Novak
2 måneder siden

Vše, jak se zdá, už tady bylo řečeno. Co dál? Nedělejme si iluze. Džiň (Kraken) byl vypuštěn. Tohle už nikdo nezastaví. Poslední zhasne. Přeji hezký den.

Seneste opdatering.