Muški pristup
Povezani članci
- Moguća intervencija NATO u Siriji
- Koje doba dana je najbolje za seks?
- Pobuna u zadnjem dvorištu
-
Češki problemi sa ekstremizmom
Praška zima - Egipat: Smrtna presuda za 683 Mursijeve pristalice
- Predsjednički izbori u Afganistanu: nakon 12 godina odlazi Hamid Karzai – 3 kandidata, slične politike, Talibani proces nazivaju “farsom”
foto: arhiva
Mesecima nas upozoravaju na superinteligentne modele veštačke inteligencije koji bi jednog dana mogli da izazovu uništenje ljudske vrste. Sem Altman, izvršni direktor kompanije Open AI, kaže da bi ova tehnologija mogla da označi „naš kraj“, dok pionir veštačke inteligencije Džefri Hinton svoj otkaz u Guglu obrazlaže strahom od pretnje koju AI predstavlja po budućnost čovečanstva. Centar za bezbedan AI objavio je saopštenje o opasnosti od izumiranja civilizacije.
Ove tvrdnje su zastrašujuće – ali ne zato što su tačne, nego zato što preusmeravaju razgovor o uticajima veštačke inteligencije i smislu odgovornog razvoja AI.
Priča da bi tehnologija jednog dana mogla samostalno da razvije nadljudsku inteligenciju i postane pretnja čovečanstvu poznat je filmski zaplet, duboko utisnut u naše predstave o veštačkoj inteligenciji. Odavno smo navikli na taj narativ u medijima, ali je ove godine ušao i u političke i pravne diskusije o veštačkoj inteligenciji.
To bi trebalo da nas zabrine, jer se nudi malo ili nimalo dokaza koji potkrepljuju te emotivne i senzacionalističke izjave, dok ponuđeni primeri padaju već na prvoj probi. Recimo, tvrdnje da veliki jezički modeli pokazuju takozvana emergentna svojstva (sposobnosti za koje nisu trenirani, ali su se nekako pojavile) obično se tiču nepredviđenih, mada ipak objašnjivih funkcija modela. Kada je izvršni direktor Guglove matične kompanije Alfabet, Sundar Pačai, rekao da Guglov četbot Bard odgovara na upite na bengalskom, iako nije bio treniran za taj jezik, verovatnije objašnjenje dala je bivša zaposlenica Gugla Margaret Mičel, koja je navela da su u Bardov razvoj bili uključeni aspekti njegovog prethodnika, jezičkog modela PaLM, u čijim se podacima za trening nalazio i bengalski jezik.
To je još jedan podsetnik da AI modeli rade samo ono za šta su programirani. Tvrdnje o emergentnim svojstvima služe da se ućutkaju zahtevi za transparentnošću i prekinu rasprave o odgovornosti programera.
Najglasnija upozorenja o navodnom egzistencijalnom riziku dolaze iz Silicijumske doline. Na prvi pogled, to deluje nespojivo sa interesima koje krupne kompanije imaju od ulaganja u inovacije i razvoj AI. Međutim, ovi narativi upravo štite njihove interese tako što pažnju javnosti sa onoga što kompanije rade danas, skreću na nagađanja o hipotetičkim budućim kapacitetima AI.
Ideja da bi AI mogla da razvije vlastitu svest pomera fokus na buduću odgovornost tehnologije, umesto na aktuelnu odgovornost krupnih tehnoloških kompanija. Sve to stvara iluziju neizbežnosti, jer sugeriše da svedočimo evoluciji veštačke inteligencije, a ne nizu svesnih odluka organizacija i ljudi podložnih kontroli.
Važno je imati u vidu ne samo ono što se govori, već i ko će biti saslušan. Videli smo kako regulatori širom Evrope srdačno dočekuju Altmana, dok ljudi na koje AI negativno utiče jedva da se čuju. To je simptom onoga što je profesorka Kejt Kroford nazvala „problemom belog muškarca“: tvrdnje o egzistencijalnom riziku uglavnom iznose imućni belci na pozicijama moći, oni koji su danas najmanje izloženi šteti zbog veštačke inteligencije, dok za nju snose najveću odgovornost.
Zaista se nalazimo u kritičnom trenutku dok vlade sveta pokušavaju da izađu na kraj sa izazovima efikasnog regulisanja veštačke inteligencije. Umesto da se bavimo interesima krupnih tehno kompanija i njihovim fantazijama o opštoj AI, ključno je suprotstaviti se narativima o superinteligenciji i egzistencijalnom riziku i usredsrediti ove diskusije na ljude i zajednice koje već trpe stvarne uticaje zbog primene novih tehnologija.
Autorka je sociološkinja, istražuje etička pitanja na Institutu Alan Turing u Britaniji.
Mhairi Aitken, New Scientist
Prevela Milica Jovanović