Seneste nyt

Følelsessporing – AI på jobbet: Arbejdere frygter at blive overvåget – og misforstået.

Del venligst vores historie!

Vi har hørt advarslerne fra Yuval Noah Harari om, at hvis vi ikke finder ud af, hvordan vi regulerer kunstig intelligens (AI) Menneskehjerner vil snart blive hacket", en udtalelse der uden tvivl afspejler menneskehedens værste frygt for kunstig intelligens. Dette gælder måske især, når man hører fra Schwabs rådgiver Harari, at "at hacke et menneske er at lære personen bedre at kende, end de kender sig selv", hvilket kan gøre det muligt for dem, der ejer teknologien, i stigende grad at manipulere os.

Vi tror måske, at denne ekstreme trussel mod vores privatliv vil forekomme engang i fremtiden, men den hacking, Harari beskriver, er mere ordsproglig end bogstavelig og har allerede fundet sted i miljøer som Facebook og YouTube hvor vi ledes til at se indhold, som algoritmerne har vurderet som interessant for os. Det ser nu ud til, at mange gradvist er blevet ufølsomme over for "hacking" og manipulation, der tillader det at stige uden for megen protest.

Men hvordan ville du have det, hvis din arbejdsplads registrerede, hvordan du har det? Nazanin Andalibi som er adjunkt i information ved University of Michigan, og i artiklen nedenfor diskuterer han følelsesbaseret kunstig intelligens, som allerede bruges på arbejdspladsen.

Følelsessporing – AI på jobbet: Arbejdere frygter at blive overvåget – og misforstået.

By Nazanin Andalibi

Følelsesmæssig kunstig intelligens bruger biologiske signaler såsom stemmeleje, ansigtsudtryk og data fra bærbare enheder samt tekst og hvordan folk bruger deres computere, hvilket lover at registrere og forudsige, hvordan nogen har det. Det bruges i både hverdagsagtige sammenhænge, ​​som underholdning, og i sammenhænge med høje indsatser, som arbejdspladsen, ansættelser og sundhedspleje.

En bred vifte af brancher bruger allerede følelses-AI, herunder callcentre, finans, bankvirksomhed, sygepleje og pleje. Over 50% af store arbejdsgivere i USA bruger følelsesbaseret kunstig intelligens med det formål at udlede medarbejdernes interne tilstande, en praksis der voksede under COVID-19-pandemienFor eksempel overvåger callcentre, hvad deres operatører siger, og deres tonefald.

Forskere har udtrykt bekymring vedr. Emotionel AI's videnskabelige validitet og afhængighed af omstridte teorier om følelserDe har også fremhævet potentialet i følelsesmæssig AI til krænkelse af privatlivets fred og udstiller racekøn og handicap partiskhed.

Nogle arbejdsgivere bruger teknologien som om den var fejlfri, mens nogle forskere søger at reducere dens bias og forbedre dens validitetmiskrediter det fuldstændigt eller foreslå forbud mod følelsesmæssig AI, i hvert fald indtil man ved mere om dens konsekvenser.

Jeg studerer sociale konsekvenser af teknologiJeg mener, at det er afgørende at undersøge de følelsesmæssige konsekvenser af kunstig intelligens for mennesker, der udsættes for den, såsom arbejdstagere – især dem, der er marginaliseret på grund af deres race, køn eller handicapstatus. Kan kunstig intelligens rent faktisk læse dine følelser? Ikke ligefrem.

Arbejdernes bekymringer

For at forstå, hvor følelser AI bruger på arbejdspladsen hen, min kollega Karen Boyd og jeg satte mig for at undersøge opfindernes forestillinger af følelsesbaseret AI på arbejdspladsen. Vi analyserede patentansøgninger, der foreslog følelsesbaseret AI-teknologier til arbejdspladsen. De påståede fordele, som patentansøgere hævdede, omfattede vurdering og støtte til medarbejdernes trivsel, sikring af sikkerhed på arbejdspladsen, øget produktivitet og hjælp til beslutningstagning, såsom forfremmelser, afskedigelse af medarbejdere og tildeling af opgaver.

Vi spekulerede på, hvad arbejdstagerne synes om disse teknologier. Ville de også opleve disse fordele? Ville arbejdstagere for eksempel finde det gavnligt, at arbejdsgivere yder støtte til deres trivsel?

Mine samarbejdspartnere Shanley CorviteKat RoemmichTillie Ilana Rosenberg og jeg gennemførte en undersøgelse, der delvist var repræsentativ for den amerikanske befolkning og delvist oversamplede for farvede, transkønnede og ikke-binære personer samt personer, der lever med psykisk sygdom. Disse grupper kan være mere tilbøjelige til at opleve skade fra følelsesmæssig AI. Vores undersøgelse havde 289 deltagere fra den repræsentative stikprøve og 106 deltagere fra oversamplen. Vi fandt, at 32 % af respondenterne rapporterede, at de ikke oplevede eller forventede nogen fordele for dem fra følelsesmæssig brug af AI, uanset om den er aktuel eller forventet, på deres arbejdsplads.

Mens nogle arbejdstagere bemærkede potentielle fordele ved brug af følelsesmæssig AI på arbejdspladsen, såsom øget trivselsstøtte og sikkerhed på arbejdspladsen, hvilket afspejlede de fordele, der er påstået i patentansøgninger, udtrykte alle også bekymring. De var bekymrede over skade på deres trivsel og privatliv, skade på deres arbejdsindsats og ansættelsesstatus samt bias og stigma i forbindelse med mental sundhed mod dem.

For eksempel udtrykte 51 % af deltagerne bekymring over privatlivets fred, 36 % bemærkede potentialet for forkerte konklusioner, som arbejdsgivere ville acceptere for pålydende, og 33 % udtrykte bekymring for, at følelsesmæssige, AI-genererede inferencer kunne bruges til at træffe uretfærdige ansættelsesbeslutninger.

Deltagernes stemmer

En deltager, der havde flere helbredsproblemer, sagde: "Bevidstheden om, at jeg bliver analyseret, ville ironisk nok have en negativ effekt på min mentale sundhed." Det betyder, at på trods af følelsesmæssige AI's påståede mål om at udlede og forbedre medarbejdernes velbefindende på arbejdspladsen, kan dens brug føre til den modsatte effekt: forringet velbefindende på grund af tab af privatliv. Faktisk viser andet arbejde af mine kolleger Roemmich, Florian Schaub og jeg foreslår, at følelsesmæssigt AI-induceret tab af privatliv kan spænde over en række skader på privatlivets fred, herunder psykologisk, autonomi, økonomisk, relationel, fysisk og diskrimination.

Om bekymringer om, at følelsesmæssig overvågning kunne bringe deres job i fare, sagde en deltager med en diagnosticeret psykisk lidelse: "De kunne beslutte, at jeg ikke længere passer godt ind på arbejdet og fyre mig. Beslutte, at jeg ikke er dygtig nok, og ikke give mig en lønforhøjelse, eller mene, at jeg ikke arbejder nok."

Deltagerne i undersøgelsen nævnte også potentialet for forværrede magtubalancer og sagde, at de var bange for den dynamik, de ville have med arbejdsgivere, hvis følelsesbaseret AI blev integreret på deres arbejdsplads, og pegede på, hvordan brugen af ​​følelsesbaseret AI potentielt kunne intensivere allerede eksisterende spændinger i forholdet mellem arbejdsgiver og arbejdstager. For eksempel sagde en respondent: "Den mængde kontrol, som arbejdsgivere allerede har over medarbejdere, tyder på, at der ville være få kontroller af, hvordan disse oplysninger ville blive brugt. Ethvert 'samtykke' [fra] medarbejdere er i vid udstrækning illusorisk i denne sammenhæng." Følelsesbaseret AI er blot én måde, hvorpå virksomheder overvåger medarbejdere.

Endelig bemærkede deltagerne potentielle skadevirkninger, såsom tekniske unøjagtigheder i følelsesbaseret kunstig intelligens, der potentielt skaber falske indtryk af arbejdstagere, og følelsesbaseret kunstig intelligens, der skaber og vedligeholder bias og stigmatisering mod arbejdstagere. I beskrivelsen af ​​disse bekymringer fremhævede deltagerne deres frygt for, at arbejdsgivere er afhængige af unøjagtige og forudindtagede følelsesbaserede kunstig intelligens-systemer, især mod farvede mennesker, kvinder og transpersoner.

For eksempel sagde en deltager: "Hvem bestemmer, hvilke udtryk der 'ser voldelige ud', og hvordan kan man identificere folk som en trussel blot ud fra deres ansigtsudtryk? Et system kan læse ansigter, ja, men ikke tanker. Jeg kan bare ikke se, hvordan dette rent faktisk kan være andet end destruktivt for minoriteter på arbejdspladsen."

Deltagerne bemærkede, at de enten ville nægte at arbejde et sted, der bruger følelsesmæssig AI – en mulighed, der ikke er tilgængelig for mange – eller engagere sig i adfærd, der får følelsesmæssig AI til at læse dem positivt for at beskytte deres privatliv. En deltager sagde: "Jeg ville bruge en massiv mængde energi til at maskere, selv når jeg er alene på mit kontor, hvilket ville gøre mig meget distraheret og uproduktiv," og pegede på, hvordan brugen af ​​følelsesmæssig AI ville påføre medarbejderne yderligere følelsesmæssigt arbejde.

Skaden værd?

Disse resultater tyder på, at følelsesbaseret kunstig intelligens forværrer eksisterende udfordringer, som arbejdstagere oplever på arbejdspladsen, på trods af at fortalere hævder, at følelsesbaseret kunstig intelligens hjælper med at løse disse problemer.

Hvis følelsesmæssig AI fungerer som påstået og måler det, den påstår at måle, og selvom problemer med bias bliver adresseret i fremtiden, er der stadig skader, som arbejderne oplever, såsom ekstra følelsesmæssigt arbejde og tab af privatliv.

Hvis disse teknologier ikke måler, hvad de påstår, eller hvis de er forudindtagede, er folk prisgivet algoritmer, der anses for at være gyldige og pålidelige, når de ikke er det. Arbejdere ville stadig skulle bruge en indsats på at forsøge at reducere risikoen for at blive misforstået af algoritmen eller engagere sig i følelsesmæssige udfoldelser, der ville være positivt for algoritmen.

Uanset hvad fungerer disse systemer som panoptikon-lignende teknologier, hvilket skaber skade på privatlivets fred og følelsen af ​​at blive overvåget.

Kilde: Nazanin Andalibi forum The Conversation

Din regering og Big Tech-organisationer
prøv at tave The Expose ned og lukke den ned.

Så har vi brug for din hjælp til at sikre
vi kan fortsætte med at bringe dig
fakta, som mainstreamen nægter at vise.

Regeringen finansierer os ikke
at udgive løgne og propaganda på deres
vegne ligesom mainstream medierne.

I stedet er vi udelukkende afhængige af din støtte.
støt os venligst i vores bestræbelser på at bringe
din ærlige, pålidelige og undersøgende journalistik
i dag. Det er sikkert, hurtigt og nemt.

Vælg venligst din foretrukne metode nedenfor for at vise din støtte.

Hold dig opdateret!

Hold dig opdateret med nyhedsopdateringer via e-mail

lastning


Del venligst vores historie!
forfatterens avatar
Patricia Harrity

Kategorier: Seneste nyt

Mærket som:

5 1 stemme
Artikel Rating
Abonnement
Underretning af
gæst
14 Kommentarer
Inline feedbacks
Se alle kommentarer
Mark Deacon
Mark Deacon
1 år siden

Hvornår får vi lov til at hacke Klaus Schwabs hjerne for at finde ud af, hvor ond han er?

Aluna
Aluna
Svar til  Mark Deacon
1 år siden

Han er allerede blevet hacket, også kendt som en tankestyret slave, der bliver brugt til at præsentere elitens planer og forhåbninger.
Intet af dette er blevet udviklet af ham.
De onde hjerner bag den nye verdensorden findes i USA, nemlig CIA og den amerikanske hær.
De har i årtier arbejdet hen imod disse mål, og de besidder alle patenterne.

brummende torden
brummende torden
Svar til  Aluna
1 år siden

Ja, for mange år siden fik jeg sprøjtet en militær RFID ind i min arm mod min vilje, og de lokale politifolk brugte den til chikane. De forsøger at gøre alt, hvad jeg ser eller er vidne til, til noget forkert for at forsøge at manipulere eller misbruge mig på en eller anden måde. Og det er gammel teknologi nu sammenlignet med, hvad de har nu.
Pas på.

CharlieSeattle
CharlieSeattle
Svar til  Mark Deacon
1 år siden

Atombombe Davos og få dem alle.

storgrump
storgrump
1 år siden

Meget bekymret over, at AI bliver brugt mere og mere. Det lader til, at det er endnu et skridt ned ad en meget glat bane.

i live
i live
1 år siden

Så glad for at jeg er pensioneret og ikke behøver at finde mig i sådan noget vrøvl.

Robbi
Robbi
1 år siden

FJERN DENNE KAPACITET FRA ARBEJDSPLADSEN…
DET ER SLAVERI OG IKKE ACCEPTABELT.
KONSTANT OVERVÅGNING ER FÆNGSEL.

Firbenet fra Oz
Firbenet fra Oz
1 år siden

I betragtning af de demografiske ændringer i mange vestlige og asiatiske lande, med en aldrende arbejdsstyrke og faldende fødselsrater, vil magten skifte til arbejderne. Der er en krympende pulje af mennesker at ansætte, og arbejdsgiverne vil konkurrere om arbejdskraften. Ændrede holdninger til uddannelse, hvor arbejdsgivere skærer ned på lærlingepladser og praktikanter, betyder, at den tilgængelige pulje af faglærte arbejdere også skrumper.

Alt dette lover godt for folk, især dem med færdigheder og en vis selvtillid til at fortælle arbejdsgivere, hvor de kan gemme deres AI og tilhørende gadgets. Manglen på arbejdskraft efter den sorte død medførte øget arbejdskraftmobilitet og afslutningen på det feudale system. Vores nuværende herrer og herrer vil finde sig selv i en lignende situation som det 15. århundredes bøller, der stod over for den store mangel på livegne.

Helt ærligt, følelsesregistrering virker for mig som bare mere AI-hype. Hvor meget koster det? Gør det, hvad det påstår i den glittede brochure? Hvordan høster man nogen fordele? Hvilken slags personale vil man beholde, når dem med færdigheder og evner siger "f*ck det her" og siger op?

Det grundlæggende problem med intellektuel ejendomsret er, at den går rundt i folks hoveder. Når disse hoveder går ud af døren, følger din virksomheds knowhow med dem.

dan
dan
1 år siden

Hele artiklen er vrøvl. Bare fordi en slaveejer et sted har prøvet at overvåge slavens blodtryk, betyder det ikke, at deres "hjerne blev hacket". Det er bare mere elendig journalistik for at tjene penge. Og det distraherer dig på en pæn måde fra de ting, der betyder noget.

CharlieSeattle
CharlieSeattle
1 år siden

Jeg så altid forvirret ud på arbejdet, mens jeg arbejdede på at løse et problem.

Craig Mark
Craig Mark
1 år siden

Læs Bibelen, hvis du tør. Johannes' Åbenbaring kapitel 13.