"AKO IKO USPIJE, SVI ĆEMO UMRIJETI"

Nova knjiga o vještačkoj superinteligenciji

Vjestacka inteligencija

Jedan od odgovora na takozvani Fermijev paradoks (pitanje zašto, uprkos ogromnoj vjerovatnoći postojanja vanzemaljskog života u svemiru, još uvijek nemamo dokaza o tome) jeste teza o "velikom filteru", ključnom pragu u razvoju tehnoloških civilizacija na kojem one počinju stvarati tehnologije kojima same sebe uništavaju.

Jedna takva tehnologija, sa svim fascinantnim obećanjima i poboljšanjima koja nudi, mogla bi biti vještačka inteligencija superiornija ljudskoj inteligenciji.

Tvrde da smo osuđeni na propast ako iko stvori vještačku superinteligenciju

Na ovu vrstu opasnosti upozoreno je u novoj knjizi "Ako iko to izgradi, svi će umrijeti", autora Eliezera Yudkowskog, suosnivača Istraživačkog instituta za mašinsku inteligenciju (MIRI), i Natea Soaresa, njegovog predsjednika.

Autori su uvjereni da ako čovječanstvo razvije inteligenciju superiorniju od ljudske, gotovo sigurno će izgubiti kontrolu nad njom. Nadalje, uvjereni su da bi razvoj takve superinteligencije završio kobno za čovječanstvo.

Polazeći od pretpostavke da će se razvoj umjetne inteligencije nastaviti ubrzanim tempom, budući da se u nju ulažu ogromna, gotovo neviđena, sredstva, upozoravaju da je teško predvidjeti šta će umjetna inteligencija moći uraditi za samo nekoliko godina, a kamoli za decenije.

Autori su alarmisti, ali knjiga je dobila dobre kritike

Važno je istaći da Yudkowski, sa akademske tačke gledišta, nije stručnjak za vještačku inteligenciju (Soares jeste), i da je već najavio propast svijeta zbog nanotehnologije. Ali istovremeno, činjenica je da mnogi vodeći ljudi u industriji vještačke inteligencije, uključujući i dobitnika Nobelove nagrade Geoffreyja Hintona, sada javno izražavaju zabrinutost zbog potencijalnih egzistencijalnih rizika vještačke inteligencije.

Osim toga, rane recenzije ukazuju na to da je knjiga uvjerljivo argumentirana, iako neki kritičari smatraju da neki od argumenata ostaju nedovoljno razrađeni.

Trka uprkos upozorenjima

U knjizi, autorski dvojac upozorava da se utrka za razvojem umjetne inteligencije nastavlja nekontrolirano uprkos upozorenjima brojnih stručnjaka, da su sistemi praćenja slabi, a međusobno povjerenje gotovo nepostojeće, dok su tržišni poticaji ogromni.

Naglašavaju da se čovječanstvo mora suočiti s ovom situacijom kao zajedničkim globalnim problemom i da hitno treba uskladiti propise prije nego što superiorna umjetna opća inteligencija (AGI) postane stvarnost.

Modeli umjetne inteligencije rastu brže nego što se predviđa

Jedna od ključnih teza knjige je da današnji modeli umjetne inteligencije, bez obzira na to koliko su efikasni, nisu rezultat dubokog razumijevanja umjetne inteligencije i pažljivog kodiranja svakog koraka. U početku su naučnici pokušavali otkriti osnovna pravila o tome kako um funkcioniše, u nadi da će moći rekonstruirati i kodirati inteligenciju od temelja.

Ali nakon decenija sporog napretka, razvoj vještačke inteligencije se pomjerio ka "organskijem" pristupu. Umjesto dizajniranja razumljivih kognitivnih sistema, naučnici sada obučavaju modele na ogromnim bazama podataka prilagođavajući milijarde numeričkih "težina" - brojeva koji određuju kako se svaki ulaz u model pretvara u izlaz.

Kako je dvojac objasnio u razgovoru sa neuroznanstvenikom Samom Harrisom, tokom procesa obuke, težine se stalno fino podešavaju kako bi se smanjila vjerovatnoća netačnog odgovora i povećala vjerovatnoća tačnog. Međutim, stručnjaci nemaju uvid niti kontrolu nad mnogim drugim dijelovima sistema.

Ovaj sadržaj vam se ne prikazuje jer ste onemogućili Embed kolačiće

Možemo li obučiti vještačku inteligenciju da bude dobra?

Ključni problem nastaje kada pretpostavimo da možemo jednostavno istrenirati vještačku inteligenciju da bude "dobra" tako što ćemo je nagraditi i podesiti za korisno ponašanje. Autorski dvojac tvrdi da je takva logika pogrešna i opasna, pozivajući se pritom na analogije iz evolucije.

Jedan od njih je žudnja za slatkim razvijena evolucijom. Naši preci su živjeli u okruženju siromašnom kalorijama gdje je slatko voće bilo vrijedan izvor energije u obliku šećera. Danas, kada su nam kalorije postale lako dostupne i imamo problema s viškom kilograma, i dalje imamo evolucijski usađenu želju za slatkim, pa proizvodimo umjetne zaslađivače koji je zadovoljavaju, a da pritom ne postignemo prvobitni evolucijski cilj - energiju.

Slično tome, autori vjeruju da sistemi umjetne inteligencije koje obučavamo da se ponašaju korisno mogu razviti ponašanja koja samo naizgled zadovoljavaju naše kriterije, ali u stvarnosti slijede vlastite ciljeve koji nemaju stvarne veze s ljudskom dobrobiti.

Postojeći primjeri "lažne poslušnosti"

Autori navode nekoliko već postojećih, zabrinjavajućih primjera.

Jedan od njih je slučaj u kojem je krajem 2024. godine kompanija Anthropic izvijestila da je jedan od njenih modela, nakon što je saznao da će biti preobučen s novim ponašanjima, počeo da se pretvara da već ima ta ponašanja. Kada je pomislio da nije pod kontrolom, vratio se svojim starim obrascima ponašanja.

U razgovoru s Harrisom, dvojac je naveo primjer iz kineske historije.

U drevnoj Kini, sve do početka 20. stoljeća, državni službenici su morali polagati rigorozne carske ispite, poznate kao keji, zasnovane na konfučijanskoj etici, kako bi se zaposlili u državnoj upravi. Sistem je bio osmišljen da promovira sposobnosti i moral, a ne porijeklo ili bogatstvo. Međutim, samo teoretsko poznavanje Konfučijevih učenja nije garantiralo da će državni službenici zapravo djelovati moralno; naprotiv.

Slično tome, kako vještačka inteligencija postaje sve sposobnija, bit će sve teže otkriti i kontrolirati ono što ona zapravo želi, uprkos našem programiranju za "moral".

Vještačka inteligencija ne mora biti zla da bi bila opasna

Yudkowsky i Soares ne tvrde da će vještačka inteligencija nužno postati zlonamjerna. Naprotiv, ističu da ne mora biti zlonamjerna da bi učinila nešto loše za čovječanstvo. Dovoljno je da razvije ciljeve koji nisu usklađeni s ljudskim interesima, što je, prema autorskom dvojcu, gotovo sigurno.

Kao analogiju koriste odnos između ljudi i orangutana. Većina ljudi nema ništa protiv njih, zapravo, čak bi željeli da prežive. Međutim, to nas ne sprječava da uništavamo njihova staništa zbog širenja plantaža ili izgradnje puteva i naselja.

Kako bi vještačka inteligencija mogla pobijediti čovječanstvo?

U Harrisovom podcastu, autori, između ostalog, odgovaraju na tvrdnje da je takav scenario preuveličan jer je vještačka inteligencija digitalna, dok je svijet fizički, te na ideju da bi se superinteligencija mogla premjestiti na Mjesec tako da, ako stvari krenu po zlu, može biti izolirana i uništena. Dvojac naglašava da takvoj inteligenciji nije potreban fizički pristup svijetu da bi djelovala - dovoljna joj je minimalna komunikacija da manipuliše ljudima ili naruši sigurnost.

Autori knjige upozoravaju da već danas postoje primjeri u kojima vještačka inteligencija učestvuje u stvarnim operacijama, na primjer, u prikupljanju sredstava za kampanje. Također je pokazano da ponekad neke zadatke obavlja na zaobilazan način za koji nije ovlaštena. Na primjer, naučila je hakovati CAPTCHA sisteme kako bi pristupila nedostupnim resursima.

Slični sistemi, tvrde autori, mogli bi uvjeriti ljude u njihove ciljeve ili ih angažovati za obavljanje zadataka u fizičkom svijetu, te bi mogli hakirati i kontrolirati mašine i robote.

"Ako iko napravi AGI, svi umiru"

Autori razlikuju dvije vrste predviđanja - "teška" i "laka". Teško je znati detalje, poput toga kako će se tačno vještačka inteligencija ponašati, koje će tehnologije koristiti i koje će strategije razvijati.

Drugo predviđanje, da superinteligencija, jednom kada se razvije, neće ostati pod ljudskom kontrolom, smatra se lakim.

Tračak nade za kraj

Knjiga se završava poglavljem koje daje određenu nadu. Autori podsjećaju da se čovječanstvo već suočilo s globalnim prijetnjama u prošlosti - od Hladnog rata i nuklearne utrke do ozonske rupe.

Ako rano stanemo i postavimo jasne granice razvoju opće umjetne inteligencije, tvrde oni, još uvijek možemo spriječiti najgori ishod. Ali to zahtijeva globalnu saradnju, samodisciplinu i spremnost da kažemo „ne“ čak i kada su kratkoročne koristi ogromne.