Ljudi postaju sve više zavisni od algoritama za obradu informacija, preporučivanje određenih ponašanja, pa čak i poduzimanje radnji u njihovo ime. Istraživački tim je proučavao kako ljudi reaguju na uvođenje AI odlučivanja. Konkretno, istražili su pitanje, “da li je društvo spremno za etičko donošenje odluka AI?” proučavanjem ljudske interakcije sa autonomnim automobilima.
Tim je objavio svoje pronalaske 6. maja 2022. u časopisu Journal of Behavioral and Experimental Economics.
U prvom od dva eksperimenta, istraživači su predstavili 529 ljudi sa etičkom dilemom sa kojom bi se vozač mogao suočiti. U scenariju koji su istraživači kreirali, vozač automobila je morao da odluči da li da udari automobil u jednu ili drugu grupu ljudi – sudar je bio neizbežan. Nesreća bi nanijela ozbiljnu štetu jednoj grupi ljudi, ali bi spasila živote drugoj grupi. Subjekti u studiji morali su ocijeniti odluku vozača automobila, kada je vozač bio čovjek i kada je vozač bio AI. Ovaj prvi eksperiment osmišljen je da izmjeri pristrasnost koju ljudi mogu imati prema etičkom donošenju odluka AI.
U njihovom drugom eksperimentu, 563 ljudska subjekta odgovorila su na pitanja istraživača. Istraživači su utvrdili kako ljudi reaguju na debatu o etičkim odlukama AI nakon što postanu dio društvenih i političkih diskusija. U ovom eksperimentu postojala su dva scenarija. Jedna je uključivala hipotetičku vladu koja je već odlučila da dozvoli autonomnim automobilima da donose etičke odluke. Njihov drugi scenario je omogućio subjektima da “glasaju” da li da dozvole autonomnim automobilima da donose etičke odluke. U oba slučaja, subjekti su mogli izabrati da budu za ili protiv odluka koje donosi tehnologija. Ovaj drugi eksperiment osmišljen je da testira učinak dva alternativna načina uvođenja AI u društvo.
Istraživači su primijetili da kada su ispitanici bili zamoljeni da procijene etičke odluke bilo čovjeka ili vozača umjetne inteligencije, oni nisu imali definitivnu preferenciju ni za jedno ni za drugo. Međutim, kada je od ispitanika zatraženo njihovo eksplicitno mišljenje o tome da li vozaču treba dozvoliti da donosi etičke odluke na putu, ispitanici su imali jače mišljenje protiv automobila kojima upravlja AI. Istraživači vjeruju da je neslaganje između dva rezultata uzrokovano kombinacijom dva elementa.
Prvi element je taj što pojedinci vjeruju da društvo u cjelini ne želi etičko donošenje odluka od strane umjetne inteligencije, pa pridaju pozitivnu težinu svojim uvjerenjima kada ih se pita za njihovo mišljenje o tom pitanju. “Zaista, kada se od učesnika eksplicitno traži da odvoje svoje odgovore od odgovora društva, razlika između dopuštenosti za AI i ljudskih vozača nestaje”, rekao je Johann Caro-Burnett, docent na Visokoj školi za humanističke i društvene nauke u Hirošimi Univerzitet.
Drugi element je da kada se ova nova tehnologija uvede u društvo, omogućavanje diskusije o ovoj temi ima različite rezultate u zavisnosti od zemlje. “U regijama u kojima ljudi vjeruju svojoj vladi i imaju jake političke institucije, informacije i moć donošenja odluka poboljšavaju način na koji subjekti procjenjuju etičke odluke AI. Nasuprot tome, u regijama u kojima ljudi ne vjeruju svojoj vladi i imaju slabe političke institucije, odluke- stvaranje sposobnosti pogoršava način na koji subjekti procjenjuju etičke odluke AI”, rekla je Caro-Burnett.
“Ustanovili smo da postoji društveni strah od etičkog donošenja odluka od strane vještačke inteligencije. Međutim, izvor ovog straha nije nebitan za pojedince. Zaista, ovo odbacivanje vještačke inteligencije dolazi iz onoga što pojedinci vjeruju da je mišljenje društva”, rekao je Shinji Kaneko, profesor na Visokoj školi humanističkih i društvenih nauka Univerziteta u Hirošimi i Mreži za obrazovanje i istraživanje mira i održivosti. Dakle, kada se ne pitaju eksplicitno, ljudi ne pokazuju nikakve znakove pristranosti prema etičkom donošenju odluka AI. Međutim, kada ih se eksplicitno pita, ljudi pokazuju averziju prema AI. Nadalje, tamo gdje postoji dodatna diskusija i informacije o ovoj temi, prihvatanje AI se poboljšava u razvijenim zemljama i pogoršava u zemljama u razvoju.
Istraživači vjeruju da će se ovo odbacivanje nove tehnologije, koje je uglavnom zbog inkorporiranja uvjerenja pojedinaca o mišljenju društva, vjerovatno primijeniti i na druge mašine i robote. “Zato će biti važno odrediti kako agregirati individualne preferencije u jednu društvenu preferenciju. Štaviše, ovaj zadatak će također morati biti različit u različitim zemljama, kao što sugeriraju naši rezultati”, rekao je Kaneko.
Članak AI ethical decision making: Is society ready?
Preveden je sa portala Sciencedaily.