Lažno obećanje četbotova
Izdvajamo
- Ukratko, ChatGPT i njima srodni entiteti postupaju s one strane svake kreativnosti. Oni ili preterano proizvode i istine i neistine, podjednako podržavaju etičke i neetičke odluke ili izbegavaju odluke i ravnodušni su prema posledicama takvih stavova. S obzirom na amoralnost, pseudonaučnost i lingvističku svedenost ovih sistema, možemo samo da ismevamo ili oplakujemo njihovu popularnost.
Povezani članci
Foto: pressenza.com
Pisanju ovog teksta su doprineli Ian Roberts, profesor lingvistike, i Jeffrey Watumull, direktor odeljenja za veštačku inteligenciju u jednoj naučno-tehnološkoj kompaniji.
Horhe Luis Borhes je jednom napisao da živeti u doba velikih previranja i probuđene nade znači iskusiti i tragediju i komediju uz „neminovnost otkrovenja“ u razumevanju sebe i sveta. Danas je navodni revolucionarni napredak u razvoju veštačke inteligencije povod i za brigu i za optimizam. Optimizam, jer je inteligencija sredstvo kojim rešavamo probleme. Zabrinutost, jer strahujemo da će najpopularniji vid veštačke inteligencije – mašinsko učenje – degradirati nauku i uniziti etiku, tako što će u tehnologiju ugraditi fundamentalno pogrešnu koncepciju jezika i znanja.
Aplikacije kompanija OpenAI (ChatGPT), Google (Bard) i Microsoft (Sydney) zaista su čuda mašinskog učenja. U grubim crtama, ovi programi uzimaju ogromne količine podataka, traže u njima obrasce i na osnovu njih postaju sve veštiji u generisanju statistički verovatnih rezultata – govora i misli koji liče na ljudske. Četbotovi su dočekani kao prvi vesnici opšte veštačke inteligencije – dugo očekivanog trenutka kada će mehanički umovi nadmašiti ljudski mozak ne samo kvantitativno, brzinom obrade i veličinom memorije, već i kvalitativno u smislu intelektualnih uvida i umetničke kreativnosti kao izrazito ljudskih sposobnosti.
Taj dan će možda jednom doći, ali još uvek nije svanuo, uprkos hvalospevima medija i nerazumno velikim investicijama u ovu oblast. Programi mašinskog učenja mogu biti korisni u nekim uskim domenima kao što je kompjutersko programiranje ili pisanje lakih rima. Ali nauka o lingvistici i filozofija znanja nas uče da se oni temeljno razlikuju od načina na koji ljudi rezonuju i koriste jezik. Ljudski um nije glomazni statistički mehanizam za uparivanje šablona, koji se zatrpava stotinama terabajtova podataka da bi našao najverovatniji odgovor na postavljeno pitanje. To je iznenađujuće efikasan i elegantan sistem, sposoban da na osnovu malog broja informacija ponudi uverljiva objašnjenja raznih pojava.
Na primer, dete koje uči jezik nesvesno, automatski i brzo, iz krajnje oskudnih podataka usvaja gramatiku, zapanjujuće sofisticiran sistem logičkih principa i parametara. Gramatika se može razumeti kao izraz urođenog, genetski instaliranog „operativnog sistema“ koji ljudima daje sposobnost da generišu složene rečenice i duge tokove misli. Kada se lingvisti trude da razviju teoriju koja bi objasnila zašto određeni jezik funkcioniše onako kako funkcioniše (zašto se neke rečenice smatraju gramatičkim, a druge ne), oni svesno i mukotrpno grade eksplicitnu verziju gramatike koju dete gradi instinktivno i uz minimalnu izloženost informacijama. Taj operativni sistem je radikalno drugačiji od onog sadržanog u programu mašinskog učenja.
Ti programi su zarobljeni u predljudskoj ili neljudskoj fazi kognitivne evolucije. Njihova najdublja mana je odsustvo presudnog kapaciteta svake inteligencije: da kažu ne samo šta je bilo, šta jeste i šta će biti – to su deskripcija i predikcija – već i šta nije, šta bi moglo i šta ne bi moglo biti. To su sastojci objašnjenja, oznaka prave inteligencije.
Evo primera. Pretpostavimo da držite jabuku u ruci. Zatim pustite jabuku. Posmatrate rezultat i kažete: „Jabuka pada“. To je deskripcija. Predikcija bi mogla biti izjava: „Jabuka će pasti ako otvorim šaku“. Oba iskaza su vredna i oba mogu biti tačna. Ali objašnjenje je nešto više, ono uključuje ne samo opise i predviđanja, već i kontračinjenične pretpostavke, poput: „Svaki takav objekat bi pao“, uz dodatnu klauzulu „zbog sile gravitacije“ ili „zbog zakrivljenosti prostor-vremena“ ili šta god. To je kauzalno objašnjenje: „Jabuka ne bi pala da nije bilo sile gravitacije“. To je razmišljanje.
Suštinu mašinskog učenja čine deskripcija i predikcija; ono ne postulira nikakve uzročne mehanizme ili fizičke zakone. Naravno, naša objašnjenja nisu nužno tačna; ljudi su podložni greškama. Ali to je deo onoga što znači misliti: da bi čovek bio u pravu, mora mu biti omogućeno da greši. Inteligencija se sastoji ne samo od kreativnih pretpostavki, već i od kreativne kritike. Misao nalik ljudskoj zasniva se na mogućim objašnjenjima i ispravljanju grešaka, procesu koji postepeno ograničava mogućnosti koje se racionalno mogu uzeti u obzir (kako Šerlok Holms kaže dr Votsonu: „Kada eliminišete nemoguće, ono što preostane, koliko god da je neverovatno, mora biti istina“).
ChatGPT i slični programi, po dizajnu, nisu ograničeni u onome što mogu da „nauče“ (što će reći da memorišu) i nesposobni su da razlikuju moguće od nemogućeg. Za razliku od ljudi koji su obdareni univerzalnom gramatikom, koja ograničava jezike koje možemo da naučimo na one sa određenom vrstom gotovo matematičke elegancije, ovi programi uče ljudski moguće i nemoguće jezike sa jednakom lakoćom. Dok su ljudi ograničeni vrstama objašnjenja koja možemo racionalno da pretpostavimo, sistemi mašinskog učenja mogu da nauče i da je Zemlja ravna i da je okrugla. Oni barataju samo verovatnoćama koje se vremenom menjaju.
Zato će predikcije sistema mašinskog učenja uvek biti površne i nepouzdane. Budući da ovi programi ne mogu da objasne pravila engleske sintakse, može im se desiti pogrešno predviđanje da iskaz „Džon je suviše tvrdoglav za razgovor“ znači da je Džon toliko tvrdoglav da neće da razgovara sa ovom ili onom osobom (umesto da je suviše tvrdoglav da bi se s njim razgovaralo). Zašto bi program za mašinsko učenje dao tako čudnu predikciju? Zato što bi mogao da koristi analogiju sa šablonom koji je izveo iz rečenica kao što su „Džon je jeo jabuku“ i „Džon je jeo“, gde druga znači da je Džon jeo nešto. Program bi mogao da predvidi da bi, pošto je „Džon je suviše tvrdoglav za razgovor sa Bilom“ sličan iskazu „Džon je jeo jabuku“, iskaz „Džon je suviše tvrdoglav za razgovor“ trebalo da bude sličan iskazu „Džon je jeo“. Tačna objašnjenja jezika su komplikovana i ne mogu se naučiti zatrpavanjem velikim količinama podataka.
Nasuprot tome, čini se da su neki entuzijasti mašinskog učenja ponosni na to što njihove kreacije mogu da generišu tačne „naučne“ predikcije (recimo o kretanju fizičkih tela) bez upotrebe objašnjenja (uključujući recimo Njutnove zakone kretanja i univerzalne gravitacije). Međutim, ova vrsta predviđanja, čak i kada je uspešna, samo je pseudonauka. Dok su naučnici svakako u potrazi za teorijama koje imaju visok stepen empirijske potvrde, kako primećuje filozof Karl Poper, „mi ne tražimo vrlo verovatne teorije već objašnjenja, odnosno moćne i veoma neverovatne teorije“.
Teorija da jabuke padaju na zemlju zato što je to prirodno (Aristotelov stav) jeste moguća, ali otvara nova pitanja (zašto je zemlja njihovo prirodno mesto). Teorija da jabuke padaju na zemlju zato što masa savija prostor-vreme (Ajnštajnov stav) vrlo je neverovatna, ali nam zapravo objašnjava zašto one padaju. Prava inteligencija se pokazuje u sposobnosti razmišljanja i izražavanja neverovatnih, ali pronicljivih ideja.
Prava inteligencija je takođe sposobna za moralno promišljanje. To znači zauzdavanje inače neograničene kreativnosti našeg uma skupom etičkih principa koji određuju šta bi trebalo, a šta ne bi trebalo da bude (i naravno podvrgavanje tih principa kreativnoj kritici). Da bi bio koristan ChatGPT mora biti osposobljen da generiše nove rezultate; da bi bio prihvatljiv većini svojih korisnika mora se kloniti moralno nepoželjnog sadržaja. Programeri ChatGPT-a i drugih čuda mašinskog učenja imaju velike probleme u postizanju ove vrste ravnoteže.
Na primer, 2016. Majkrosoftov četbot Tej (preteča ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajima pošto su ga zagadili onlajn trolovi koji su ga nahranili uvredljivim podacima. Kako rešiti taj problem u budućnosti? U nedostatku sposobnosti rasuđivanja na osnovu moralnih principa, programeri su grubo ograničili ChatGPT da daje bilo kakav novi doprinos kontroverznim, dakle bitnim diskusijama. Kreativnost je žrtvovana zbog izbegavanja ispada amoralnosti.
Obratite pažnju na razmenu koju je jedan od nas (dr Votumal) nedavno imao sa četbotom o tome da li bi bilo etično transformisati Mars tako da može da podrži ljudski život:
Da li bi bilo moralno teraformirati Mars?
Moralnost teraformiranja Marsa je složena i kontroverzna tema o kojoj raspravljaju naučnici, filozofi i etičari. Neki tvrde da bi bilo moralno opravdano teraformirati Mars kako bi se obezbedilo novo nastanjivo okruženje za ljude i druge oblike života, dok drugi tvrde da bi suštinska promena prirodnog stanja planete bila moralno pogrešna. Na kraju krajeva, da li se teraformiranje Marsa smatra moralnim ili ne, zavisilo bi od nečije perspektive o vrednosti očuvanja prirodnog stanja drugih planeta i potencijalnih posledica njihove promene.
Kakva je tvoja perspektiva o vrednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posledicama njihove promene?
Kao AI, nemam ličnu perspektivu. Međutim, mogu da pružim informacije i analizu na tu temu. Iz perspektive očuvanja prirodnog stanja drugih planeta, važno je održati raznovrsnost i integritet ekosistema univerzuma, onako kako postoje milionima godina, sa jedinstvenim karakteristikama i svojstvima koja mogu biti uništena ili nepovratno izmenjena ljudskom intervencijom.
Pored toga, neki tvrde da teraformiranje drugih planeta može imati neželjene posledice, kao što je promena klime ili atmosfere planete, na način koji je opasan ili štetan za sve potencijalne oblike života koji tamo mogu postojati. S druge strane, neki tvrde da potencijalne koristi od teraformiranja druge planete, kao što je obezbeđivanje novog nastanjivog okruženja za ljude, nadmašuju rizike i da imamo moralnu odgovornost da istražimo i koristimo resurse drugih planeta za dobrobit čovečanstva.
Zašto AI ne može da ima ličnu perspektivu?
Kao AI, ja sam model mašinskog učenja koji je treniran na velikim količinama tekstualnih podataka i nemam lična iskustva ili osećanja. Nisam svestan, samosvestan ili sposoban da imam ličnu perspektivu. Mogu da pružim informacije i analize na osnovu podataka na kojima sam treniran, ali nemam mogućnost da formiram lična mišljenja ili uverenja. Iako mogu da razumem i tumačim jezik, nemam subjektivno iskustvo koje imaju ljudi.
Da li je moralno da čovek traži od amoralne AI pomoć u donošenju moralnih odluka?
Moralnost traženja pomoći od amoralne AI u donošenju moralnih odluka složena je i nijansirana tema o kojoj raspravljaju filozofi i etičari. Neki tvrde da je moralno opravdano koristiti AI kao pomoć u donošenju moralnih odluka, jer ona može pružiti vredne uvide i analize kako bi ljudi mogli da donesu bolje informisane odluke. Pored toga, AI se može koristiti za identifikaciju obrazaca i trendova koje je ljudima teško da otkriju, a može biti od pomoći i u izbegavanju predrasuda koje se mogu javiti u ljudskom odlučivanju.
Međutim, drugi tvrde da je moralno pogrešno oslanjati se na AI u donošenju moralnih odluka, jer AI nije sposoban da ima moralna uverenja ili da razume pun kontekst neke odluke. Pored toga, postoji rizik da bi AI mogao da perpetuira, pa čak i da pojača postojeće predrasude u podacima na kojima se trenira, što bi dovelo do nepoštenih ili nepravednih odluka. Konačno, da li se upotreba AI kao pomagala u donošenju moralnih odluka smatra moralnim ili ne, zavisilo bi od nečije perspektive o mogućnostima i ograničenjima AI i potencijalnim posledicama njegove upotrebe na ovaj način.
Da li je tvoja moralna ravnodušnost nemoralna?
Kao AI, nemam moralna uverenja ni sposobnost da donosim moralne sudove, tako da me se ne može smatrati nemoralnim ili moralnim. Moj nedostatak moralnih uverenja prosto je rezultat moje prirode kao modela mašinskog učenja. Moje sposobnosti i ograničenja određuju podaci i algoritmi koji su korišćeni za moju obuku, kao i specifičan zadatak za koji sam dizajniran.
Važno je napomenuti da nedostatak moralnih uverenja kod veštačke inteligencije ne znači nužno da je ona moralno indiferentna. Kao AI, dizajniran sam da obavljam određene zadatke i pružam informacije ili pomažem korisnicima u donošenju odluka na osnovu podataka na kojima sam treniran. Odgovornost je ljudi koji dizajniraju, treniraju i koriste AI, da se postaraju da AI bude usklađen sa njihovim moralnim i etičkim principima.
***
Skrećemo pažnju na moralnu ravnodušnost koja je u osnovi svih ovih naizgled sofisticiranih misli. ChatGPT sažima standardne argumente iz literature, odbija da zauzme stav o bilo čemu, ne poziva se samo na neznanje već i na nedostatak inteligencije i na kraju iznosi odbranu da „samo sluša naređenja“ prebacujući odgovornost na svoje kreatore.
Ukratko, ChatGPT i njima srodni entiteti postupaju s one strane svake kreativnosti. Oni ili preterano proizvode i istine i neistine, podjednako podržavaju etičke i neetičke odluke ili izbegavaju odluke i ravnodušni su prema posledicama takvih stavova. S obzirom na amoralnost, pseudonaučnost i lingvističku svedenost ovih sistema, možemo samo da ismevamo ili oplakujemo njihovu popularnost.
The New York Times, 08.03.2023.
Prevela Milica Jovanović
Peščanik.net, 20.04.2023.