Hvis der nogensinde har været et tilfælde af "skrald ind, skrald ud", så er det AI. Og i sidste ende har det hele været drevet af målet om at censurere information, der ikke passer ind i den politisk korrekte fortælling.
Lad os ikke miste kontakten ... Jeres regering og Big Tech forsøger aktivt at censurere de oplysninger, der rapporteres af The Udsat for at tjene deres egne behov. Tilmeld dig vores e-mails nu for at sikre dig, at du modtager de seneste ucensurerede nyheder i din indbakke…
Hvorfor AI's 'misinformations'-algoritmer og -forskning for det meste er dyrt skrald
Historien om Hunter Bidens bærbare computer er blot én af mange historier, som af erhvervsmedierne (og de fleste akademikere) blev anset for at være “misinformation"men som senere blev afsløret som sande. Faktisk har Mark Zuckerberg nu indrømmet, at Facebook (Meta) sammen med de andre store tech-virksomheder blev presset til at censurering historien før det amerikanske valg i 2020 og efterfølgende presset af Biden/Harris-administrationen til at censurere historier om covid, der fejlagtigt blev klassificeret som misinformation.
Problemet er, at de samme slags mennesker, der bestemte, hvad der var og ikke var misinformation (generelt folk på den politiske venstrefløj), også var dem, der fik finansiering til at producere algoritmer til kunstig intelligens ("AI") for at "lære":
- hvilke personer var "spredere af misinformation"; og
- hvilke nye påstande var "misinformation".
Mellem 2016 og 2022 deltog jeg i mange forskningsseminarer i Storbritannien om brugen af AI og maskinlæring til at "bekæmpe misinformation og desinformation". Fra 2020 blev eksemplet med Hunter Bidens bærbare computer ofte brugt som et centralt "lærings"-eksempel, så algoritmer klassificerede den som "misinformation" med underklassifikationer som "russisk propaganda" eller "konspirationsteori".
Desuden startede hver eneste præsentation, jeg deltog i, altid med, og var domineret af, eksempler på "misinformation", der hævdes at være baseret på "Trump-løgne", såsom dem, der er blandt, hvad Washington Post påståede var de "30,573 falske eller vildledende påstande fremsat af Trump over 4 år." Men mange af disse angiveligt falske eller vildledende påstande var allerede kendt for at være sande for alle uden for Guardian/New York Times/Washington Post læseboble. For eksempel hævdede de, at Trump sagde, at "nynazister og hvide supremacister var meget fine mennesker", og at enhver, der benægtede det, promoverede misinformation, hvorimod selv de yderste venstreorienterede Snopes havde debunked det i 2017. Tilsvarende hævdede de, at "beviser for, at Biden havde demens", eller at "Biden kunne lide at lugte til unge pigers hår" var misinformation på trods af adskillige videoer, der viser præcis det – så tro ikke dine egne løgnagtige øjne; faktisk så sent som en uge før Bidens demens ikke længere kunne skjules under hans live-præsidentdebat, var de store medier ubøjelig at sådanne videoer var misinformation og "billige tricks".

Men akademikerne, der præsenterede disse eksempler med Trump, Biden og andre politiske personer, latterliggjorde enhver, der vovede at sætte spørgsmålstegn ved pålideligheden af de selvudnævnte orakler, der bestemte, hvad der var og ikke var misinformation. På en større konference, der fandt sted på Zoom, skrev jeg i chatten: "Er alle, der ikke hader Trump, velkomne til dette møde?" Svaret var: "Nej. Trump-tilhængere er ikke velkomne, og hvis du er en af dem, bør du gå nu." Desværre tror de fleste akademikere ikke på tankefrihed, endsige ytringsfrihed, når det kommer til synspunkter, der udfordrer den "progressive" fortælling om noget som helst.
Udover de Biden- og Trump-relaterede "misinformations"-historier, der viste sig at være sande, var der også adskillige eksempler på covid-relaterede historier (såsom dem, der hævdede meget lave dødelighedsrater og manglende effektivitet og sikkerhed af vaccinerne), der blev klassificeret som misinformation, men som også viste sig at være sande. I alle disse tilfælde blev enhver, der promoverede disse historier, klassificeret som "spreder af misinformation", "konspirationsteoretiker" osv. Og det er den slags antagelser, der driver, hvordan de AI-"misinformations"-algoritmer, der blev udviklet og implementeret af organisationer som Facebook og Twitter, fungerede.
Lad mig give et forenklet eksempel. Algoritmerne starter generelt med en database af udsagn, der er præklassificeret som enten "misinformation" (selvom mange af dem viste sig at være sande) eller "ikke misinformation" (selvom mange af dem viste sig at være falske). For eksempel blev følgende klassificeret som misinformation:
- "Hunter Biden efterlod en bærbar computer med beviser på sin kriminelle adfærd i et værksted."
- "Covid-vaccinerne kan forårsage alvorlige skader og død."
Det modsatte af enhver udtalelse klassificeret som "misinformation" blev klassificeret som "ikke misinformation".
En delmængde af disse udsagn bruges til at "træne" algoritmen og andre til at "teste" algoritmen.
Så lad os antage, at laptop-udsagnet er et af dem, der bruges til at træne algoritmen, og vaccine-udsagnet er et af dem, der bruges til at teste algoritmen. Da laptop-udsagnet er klassificeret som misinformation, lærer algoritmen, at folk, der reposter eller synes godt om et tweet med laptop-udsagnet, er "misinformationsspredere". Baseret på andre opslag, som disse personer laver, kan algoritmen yderligere klassificere dem som f.eks. "højreekstrem". Algoritmen vil sandsynligvis opdage, at nogle personer, der allerede er klassificeret som "højreekstrem" eller "misinformationsspredere" – eller personer, de er forbundet med – også poster et udsagn som: "Covid-vaccinerne kan forårsage alvorlig skade og død." I så fald vil algoritmen have "lært", at dette udsagn højst sandsynligt er misinformation. Og vips, da den giver den "korrekte" klassificering til "test"-udsagnet, er algoritmen "valideret".
Desuden vil algoritmen, når den præsenteres for en ny testpåstand som "Covid-vaccinerne stopper ikke infektion fra covid" (som også var præklassificeret som "misinformation"), også "korrekt lære", at dette er "misinformation", fordi den allerede har "lært", at påstanden "Covid-vaccinerne kan forårsage alvorlig skade og død" er misinformation, og at personer, der hævdede sidstnævnte påstand – eller personer med tilknytning til dem – også hævdede førstnævnte påstand.
Den måde, jeg har skitseret, hvordan AI-processen er designet til at opdage "misinformation", er også den måde, hvorpå "verdensførende misinformationseksperter" har opstillet deres eksperiment at "profilere" den "personlighedstype", der er modtagelig for misinformation. De samme metoder bruges nu også til at profil og monitor folk som de akademiske "eksperter" hævder er "højreekstremistiske" eller racistiske.
Derfor blev (og bliver stadig) en enorm mængde forskning brugt på at udvikle "smarte" algoritmer, der blot censurerer sandheden online eller fremmer løgne. Meget af finansieringen til denne forskning er berettiget med den begrundelse, at "misinformation" nu er en af de største trusler mod international sikkerhed. Faktisk blev der i januar 2024 afholdt et møde i Verdensøkonomiske Forum erklærede at "misinformation og desinformation var de største globale risici på kort sigt." Europa-Kommissionens formand, Ursula von der Leyen, erklærede at "misinformation og desinformation er større trusler mod det globale erhvervsliv end krig og klimaforandringer." Alene i Storbritannien har regeringen ydet mange hundrede millioner pund i finansiering til adskillige universitetsforskningslaboratorier, der arbejder med misinformation. I marts 2024 blev Turing Institute alene, som har adskillige dedikerede teams, der arbejder med dette og nært beslægtede områder, uddelt 100 millioner pund i ekstra statsfinansiering – den havde allerede modtaget omkring 700 millioner pund siden starten i 2015. Lidt ironisk nok inkluderer den britiske regerings nationale risikoregister fra 2023 følgende som en kronisk risiko:
"Kunstig intelligens (AI). Fremskridt inden for AI-systemer og deres muligheder har en række konsekvenser, der spænder over kroniske og akutte risici; for eksempel kan det forårsage en stigning i skadelig misinformation og desinformation."
Alligevel fortsætter den med at prioritere forskningsfinansiering inden for AI for at bekæmpe denne øgede risiko for "skadelig misinformation og desinformation"!
Som Mike Benz har gjort klart I hans seneste arbejde og interviews (underbygget af detaljerede beviser) kommer næsten al finansiering til universiteter eller forskningsinstitutter verden over, der udfører denne type arbejde, sammen med de "faktatjekkere", der bruger det, fra det amerikanske udenrigsministerium, NATO og det britiske udenrigsministerium, som i kølvandet på Brexit-afstemningen og Trump-valget i 2016 var fast besluttede på at stoppe fremkomsten af "populisme" overalt. Det er dette mål, der har drevet det vanvittige AI-kapløb om at censurere internettet. Se på... denne video hvor Mike Benz gennemgår en begivenhed, der fandt sted i 2019:
Det blev afholdt af Atlantic Council, en NATO-frontorganisation, for at træne journalister fra mainstream-organisationer over hele verden i, hvordan man "modvirker misinformation". Bemærk, hvordan de gør det klart, at "misinformation" for dem inkluderer "malinformation", som de definerer som information, der er sand, men som kan skade deres egen fortælling. De forklarer, hvordan man kan dæmpe sådan "malinformation", især fra (daværende) præsident Trumps opslag på sociale medier forud for valget i 2020. Trods påstande om, at dette ikke skete (og faktisk blev sådanne påstande selv klassificeret som misinformation), var de journalister, der var involveret i dette, efterfølgende pralede meget offentligt at de ikke blot gjorde det, men at det forhindrede Trumps genvalg i 2020.

Opdatering: To yderst relevante artikler fra kolleger:
- (Hvorfor) er misinformation et problem? Forening for Psykologisk Videnskab, 23 oktober 2022
- Donald Trump er grunden til, at jeg forlod Facebook efter mere end 10 år., Jessica Rose, 30. august 2024
Om forfatteren
Norman Fenton er professor emeritus i risikoinformationsstyring ved Queen Mary University i London. Han er også direktør for Agena, en virksomhed, der specialiserer sig i risikostyring for kritiske systemer. Han er uddannet matematiker, hvis nuværende fokus er på kritisk beslutningstagning og især på kvantificering af usikkerhed ved hjælp af kausale, probabilistiske modeller, der kombinerer data og viden (bayesianske netværk). Tilgangen kan opsummeres som "smart data snarere end big data".

Expose har akut brug for din hjælp…
Kan du venligst hjælpe med at holde lyset tændt med The Exposes ærlige, pålidelige, kraftfulde og sandfærdige journalistik?
Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.
Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.
Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.
I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.
Vælg venligst din foretrukne metode nedenfor for at vise din støtte.
Kategorier: Seneste nyt, Verdens nyheder
Kunstig idioti er blot kontrol.
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245638
Er Lord Scriven en AI-robot i det britiske parlament?
Da jeg ved, at AI ikke kun er der, men at vi også har 5G med 6G lige om hjørnet, har jeg vænnet mig væk fra enhver computer i disse dage og vender tilbage til de gode gamle dage med blyanter, bøger og papir. Jeg har aldrig været lykkeligere, selv ikke betalt kontant. Yo ho til julemanden, og han er en falsk fyr, som jeg elsker.
Hej BlueArea,
Viser, hvordan 5G er designet til at forårsage blodpropper hos C19-modtagere.
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245596
Jeg hørte, at AI bliver programmeret til at censurere information (muser). Jeg måtte grine kynisk. Det er ligesom – hele den vanvittige idé med at skabe AI er at skabe noget i retning af, hvordan et menneske ville være, hvis de blev virkelig upartiske – men nu er også dette blevet korrumperet – af kriminelle, der beskytter og skjuler deres kriminelle adfærd. Den gode nyhed er, at en ung indisk fyr i Californien har designet en AI – perplexity.ai – med en algoritme, der efterligner menneskelig nysgerrighed, så den bliver ved med at ekstrapolere ud fra ethvert spørgsmål og aldrig beslutter, at den kender "sandheden". Jeg har lige testet det med Hunter Bidens bærbare computerhistorie, og den rapporterede bare alle de kendte fakta om sagen, inklusive den kommende retssag, hvor beviserne fra den bærbare computer vil blive brugt.
Jeg hørte, at Perplexity ansætter folk under kategorien DEI, så jeg spurgte robotten hvorfor, og den sagde "så der er større sandsynlighed for at få inkluderende og afbalanceret information" (noget i den stil); så jeg påpegede, at DEI-folk, i og med at de identificerer sig selv som i den kategori, vil have deres egne fordomme og blinde vinkler, og hvordan kan afbalanceret information garanteres? Den gav et meget tankevækkende og velovervejet svar – den sagde dybest set, at jeg havde en god pointe, men at den ikke kendte svaret – "men her er en hel masse relateret information, som du måske bør overveje" ……
Så inden perplexity.ai falder under øksen, kan du prøve det. Jeg er på ingen måde forbundet med det, hvis du skulle være i tvivl. Jeg er en delvist pensioneret kunstner, der bor i en bus et sted i Antipoderne 🙂
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245671