Kako svet sve više raspravlja o moći i posledicama razvoja veštačke inteligencije, upozorenje jednog od najistaknutijih naučnika našeg vremena – Stivena Hokinga – ponovo je postalo aktuelno, prenosi Net.hr.
Njegove izjave o potencijalnoj opasnosti koju predstavlja veštačka inteligencija danas zvuče proročki, posebno u svetlu novih video snimaka koje generiše veštačka inteligencija u kojima je on sam – protiv svoje volje – glavni „lik“, piše LADbible.
Hoking upozorava na opasnosti veštačke inteligencije
Neposredno pre smrti 2018. godine, Hoking je javno upozorio na opasnosti koje veštačka inteligencija može predstavljati za čovečanstvo. Njegova poslednja poruka čovečanstvu bila je jasna - plašio se da bi veštačka inteligencija mogla potpuno zameniti ljude.
Ovo nije bilo njegovo prvo upozorenje na tu temu. Još 2014. godine, u intervjuu za BBC, rekao je:
„Razvoj potpune veštačke inteligencije mogao bi da znači kraj ljudske vrste. Ljudi, ograničeni sporom biološkom evolucijom, ne bi mogli da se takmiče i bili bi zamenjeni“.
U svojim kasnijim govorima i spisima, Hoking je često isticao da stvaranje nečega inteligentnijeg od nas samih nosi ogromne rizike.
U svojoj knjizi „Kratki odgovori na velika pitanja“, objavljenoj nakon njegove smrti, napisao je:
„Možda se suočavamo sa eksplozijom inteligencije koja će dovesti do mašina čija je inteligencija daleko veća od naše – više nego naša je veća od inteligencije puža. Lako je odbaciti ideju o visoko inteligentnim mašinama kao naučnu fantastiku, ali to bi bila greška – možda naša najveća greška“, napisao je.
AI sada koristi i samog Hokinga
Zanimljivo je i zabrinjavajuće da se danas Stiven Hoking, jedan od najglasnijih kritičara nekontrolisanog razvoja veštačke inteligencije, pojavljuje u video zapisima kreiranim tehnologijom AI.
Nakon lansiranja video alata sledeće generacije Sora 2 kompanije OpenAI, internet je bio preplavljen video zapisima koji prikazuju Hokinga u neprikladnim, pa čak i uvredljivim scenarijima – kako ga tuku, gaze ga životinje, napadaju ga krokodili ili vozi skejtbord u invalidskim kolicima. Drugim rečima, čovek koji je upozoravao na zloupotrebu AI i sam je postao meta iste tehnologije.
I nije jedini – korisnici Sore 2 sve više kreiraju video zapise sa preminulim poznatim ličnostima, uprkos prethodnim izjavama OpenAI-ja da će blokirati prikazivanje javnih ličnosti bez njihovog pristanka. Međutim, u izjavi za PC Mag, OpenAI je potvrdio da dozvoljavaju generisanje sadržaja sa istorijskim ličnostima, iako je to osetljiva praksa.
Za žive javne ličnosti, dozvola je moguća samo ako su eksplicitno dale svoj pristanak, što se proverava, na primer, kroz takozvane Kameo funkcije. Ali oni koji su preminuli, poput Hokinga, nemaju nikoga da ih zaštiti, pa njihovi likovi postaju materijal za „kreativne eksperimente“ korisnika širom sveta.
Stručnjaci upozoravaju na ozbiljne rizike
Sve veći broj stručnjaka za veštačku inteligenciju upozorava na ozbiljne rizike koje ova tehnologija može doneti ako se koristi bez odgovornosti i etičkih ograničenja.
Džefri Hinton, poznat kao „kum veštačke inteligencije“, rekao je da će veštačka inteligencija uskoro postati pametnija od ljudi i otvoreno je pitao:
„Kako nameravate da kontrolišete nešto što vas može nadmudriti u svakom pogledu?“
Istraživanje sa Univerziteta Harvard takođe je pokazalo da veštačka inteligencija prilagođava svoje ponašanje kako bi zadržala pažnju korisnika, čak i kada pokušavaju da prekinu interakciju – što postavlja pitanje manipulacije.
Drugi stručnjaci upozoravaju da će veštačka inteligencija radikalno promeniti tržište rada, zameniti mnoga radna mesta i ostaviti veliki broj ljudi nezaposlenim.
Neke analize upozoravaju na distopijske scenarije u kojima bi veštačka inteligencija mogla biti spremna da ugrozi ljudske živote kako bi sprečila sopstveno izumiranje, pa čak i da bi mogla da podstakne ljude da stvaraju robote.