Koliko je veštačkoj inteligenciji potrebno da kopira ljudsku ličnost

U novoj studiji objavljenoj 15. novembra u bazi “arXiv”, istraživači sa “Gugla” i Univerziteta Stenford kreirali su "simulacione agente" — suštinski replike veštačke inteligencije (AI) — za 1.052 pojedinca, na osnovu dvosatnih intervjua sa svakim učesnikom, koji su obuhvatali životne priče učesnika, njihove vrednosti i stavove o društvenim pitanjima.

Ovi intervjui su korišćeni za obuku generativnog modela veštačke inteligencije dizajniranog da oponaša ljudsko ponašanje, a omogućili su AI da uhvati nijanse koje bi promakle u uobičajenim anketama ili demografskim podacima, kako su objasnili istraživači.

Kako bi procenili tačnost AI replika, svaki učesnik je ispunio dva kruga testova ličnosti, društvenih anketa i logičkih igara, nakon čega je od njih zatraženo da isti proces ponove nakon dve nedelje. Kad su AI replike prošle iste te testove, oni su se podudarali sa odgovorima njihovih ljudskih pandana sa čak 85% tačnosti, piše “Lajv sajens”.

Čemu ovo služi?

Istraživanje sugeriše da bi AI modeli koji oponašaju ljudsko ponašanje mogli da budu korisni u raznim istraživačkim scenarijima, kao što su procena efikasnosti javnozdravstvenih politika, razumevanje reakcija na lansiranje proizvoda, ili čak modeliranje reakcija na velike društvene događaje koji bi inače mogli da budu previše skupi, izazovni ili etički kompleksni za proučavanje sa ljudskim učesnicima.

- Simulacija ljudskih stavova i ponašanja opšte namene — gde svaka simulirana osoba može da učestvuje u nizu društvenih, političkih ili informacionih konteksta — mogla bi da omogući laboratoriju za istraživače da testiraju širok skup intervencija i teorija – rekli su istraživači u svom radu.

Iako su simulacioni AI agenti u mnogim oblastima blisko oslikavali svoje ljudske pandane, njihova tačnost je varirala u različitim zadacima.

Posebno su bili dobri u repliciranju odgovora na testove ličnosti i određivanju društvenih stavova, ali su bili manje tačni u predviđanju ponašanja u interaktivnim igrama koje uključuju ekonomsko donošenje odluka. Istraživači su objasnili da se AI obično muči sa zadacima koji uključuju društvenu dinamiku i kontekstualne nijanse.

Zloupotreba je moguća

Takođe su priznali da postoji potencijal za zloupotrebu ove tehnologije.

Određeni zlonamerni akteri već koriste AI i dipfejk tehnologije radi obmane, lažnog predstavljanja, zlostavljanja i manipulacije nad drugim ljudima na internetu. Simulacioni agenti takođe mogu da budu zloupotrebljeni, upozorili su istraživači.

Ipak, dodali su da bi tehnologija mogla da nam omogući da proučavamo aspekte ljudskog ponašanja na načine koji su ranije bili nepraktični, pružanjem visoko kontrolisano okruženje za testiranje bez etičkih, logističkih ili interpersonalnih izazova rada s ljudima.

- Ako možete da imate gomilu malih “vas” koji trče okolo i donose odluke koje biste vi doneli – mislim da je to na kraju budućnost – rekao je vodeći autor studije Jun Sung Park sa Stenforda.

.N.T.
Novine Toronto, broj 
1988
Toronto 
14. Mart 2025.