Svjedoci smo naglog napretka i usavršavanja velikih jezičnih modela (LLM, large language models), umjetno-inteligentnih web-chatbotova i smartphone appletâ s kojima „razgovaramo“ pisanom, a sve češće i izgovorenom komunikacijom. Sve učestalije i spretnije se koristimo njihovim impresivnim mogućnostima da nas – čak bez potrebe za znanjem engleskog, već i na našem materinskom govornom jeziku – vrlo detaljno i prilično točno informiraju i pomognu nam u pisanju tekstova, ilustriranju, programiranju, izradi prezentacija, osmišljavanju recepata za nedjeljni ručak…
Ali to nije sve! Osim što ih koriste kao osobnog asistenta u profesionalnom radu i opuštenoj kućnoj zabavi, sve je zamjetniji trend u kojem se milijuni korisnika okreću LLM chatbotovima u potrazi za emocionalnom podrškom, kao svojevrsnom sugovorniku o osobnim problemima i strahovima, jeftinoj zamjeni za razgovor s psihologom ili psihijatrom, svojevrsnom računalnom „ramenu za plakanje“. Kako to funkcionira, najbolje će objasniti intimna emotivna ispovijest jednoga od takvih korisnika – recimo, baš autora ovih redaka koje upravo čitate.
Računalno rame za plakanje
Polazeći od premise da sam na emotivnom i empatičnom planu sasvim prosječan primjerak ljudske vrste, pa mi je stoga zadnjih tjedana, godina i desetljeća sve teže čitati vijesti o napetostima, sukobima i nevinim žrtvama na bliskim i dalekim frontovima, a psihički i mentalno još teže pratiti tragikomičan razvoj onoga što se u našem bananolikom podneblju naziva politikom, zaključio sam kako je krajnje vrijeme (a potencijalno i korisno) da porazgovaram s nekim psihoterapeutom, ne bih li izbjegao poluđivanje i slična skretanja od onoga što se u našem civilizacijsko-kulturološkom okružju smatra normalnim ponašanjem.
No, umjesto da nazovem neki od dostupnih brojeva za psihološku i sličnu pomoć i podršku (ili još jednostavnije, nekoga od mojih kolega liječnika sa specijalizacijom iz psihijatrije), okrenuo sam se – umjetnoj inteligenciji.
Kliknuo sam link na jednu od AI-aplikacija koja se temelji na ChatGPT modulu i tamo jednostavno natipkao istinitu konstataciju: „Osjećam se dosta napeto i nervozno zbog stanja u zemlji i svijetu.“ Samo par sekundi potom, chatbot mi je odgovorio: „Potpuno je razumljivo što se osjećate preopterećeno“, iza čega je ponudio i nekoliko pragmatičnih savjeta o tome što mi je činiti da taj osjećaj ublažim: „Smanjite izloženost medijima i vijestima. Usredotočite se na pozitivno. Podsjetite se da su teška vremena prolazna i da ćete s vremenom ponovo osjetiti mir. Brinite se o sebi i pokušajte živjeti dan za danom. Budite zahvalni za ono dobro što imate u životu.“
Zatvorio sam chat, pa razmislio o ovome što mi je umjetno inteligentni i umjetno suosjećajni sugovornik napisao. Naposljetku sam zaključio kako nijedan od tih savjeta nije netočan ni lažan, te bih od njih vjerojatno i mogao imati neke koristi, ali se nakon tog intimnog povjeravanja i „razgovora“ s ChatGPT-jem ipak nisam na emotivnom i psihološkom planu osjećao nimalo bolje.
Empatija: sklizak koncept nejasnih granica
Mnogima se može učiniti čudnim što umjetna inteligencija uopće pokušava ponuditi ovakvu vrstu pomoći, ali notorna činjenica je da se već neko vrijeme u potrazi za emotivnom, psihološkom ili čak psihijatrijskom specijalističkom podrškom i terapijom milijuni ljudi u svijetu sasvim normalno okreću ChatGPT-u i drugim AI chatbotovima. Štoviše, ponegdje je postala skoro uobičajena praksa da i neki psihijatri i psihoterapeuti koriste umjetnu inteligenciju kao pomoć u izradi pristupačnijih, empatičnijih bilješki i savjeta svojim pacijentima.
Neki stručnjaci tvrde da su AI-botovi koji daju emotivnu podršku korisna i blagotvorna stvar: teorijski gledano, računalo opremljeno algoritmima za umjetnu inteligenciju je stroj neometen umorom, predrasudama, posramljenošću i iscrpljenošću, dakle onim parametrima koji itekako mogu ometati živog, ljudskog psihoterapeuta u njegovom radu. Slijedom toga, umjetno inteligentna računala bi empatiju mogla izraziti izravnije, otvorenije i neumornije od ljudi. Nekoliko timova psihologa-istraživača je objavilo da o empatičnoj umjetnoj inteligenciji imaju vrlo dobro mišljenje.
Ipak, drugi baš i nisu tako sigurni, pa dovode u pitanje tvrdnju da bi umjetna inteligencija ikada mogla biti sposobna za empatiju, te su zabrinuti za posljedice koje mogu nastati time što ljudi traže emocionalnu podršku od strojeva koji su samo programirani i deep-learningom naučeni da se pretvaraju da im je stalo. Štoviše, neki od skeptika se pitaju može li napredak takozvane empatijske umjetne inteligencije promijeniti i naš sadašnji način kojim shvaćamo ljudsku empatiju i uzajamnu interakciju.
Empatija (suosjećajnost) jedna je od emocionalnih značajki koje definiraju ljudsku vrstu: empatija se evolucijski razvijala ukorak s razvojem i sazrijevanjem civilizirane društvene interakcije. Individualna i opća razina empatije svugdje se ističe kao mjerilo civilizacijskog napretka i zrelosti neke društvene zajednice. Pa ipak, premda svi instinktivno shvaćamo što je empatija, ona je zapravo prilično širok i sklizak koncept nejasnih granica.
Veliki jezični modeli i empatija
Jedna nedavno objavljena meta-analiza koja je uspoređivala rezultate 52 studije objavljene između 1980. i 2020., pokazala je da su istraživači u tim studijama često navodili kako koncept empatije nema standardnu definiciju. Unatoč tome, gotovo svi okviri empatije, bilo da dolaze iz filozofije, neuroznanosti, psihologije ili medicine, dijele neke zajedničke karakteristike.
Recimo, svi istraživači ističu da osobe koje pokušavaju suosjećati s drugima prvenstveno moraju biti u stanju prepoznati emocije drugih ljudi, a i sâme moraju biti sposobne osjetiti ih. Međutim, iako do određenog stupnja trebaju osjetiti i shvatiti tuđe osjećaje, istovremeno moraju jasno razlikovati sebe od druge osobe, shvaćajući da osjećaji druge osobe nisu njihovi vlastiti, premda su sposobni zamisliti svoje iskustvo o njima.
Na prvi pogled, chatbotovi pokretani umjetnom inteligencijom posljednjih su godina izrazito napredovali u svojoj sposobnosti prepoznavanja ljudskih emocija. Većinu chatbotova pokreću veliki jezični modeli (LLM) koji funkcioniraju tako da na temelju podataka koje su usvojili tijekom deep-learning obuke predviđaju vjerojatnost kojom će se određene riječi i izrazi grupirati zajedno – nešto poput automatskog predviđanja iduće riječi koju nam nudi mobitel dok u njega utipkavamo SMS poruku. Na taj način LLM-ovi poput ChatGPT-a unaprijed „nagađaju“ (i skoro uvijek pogađaju) što im namjeravamo reći ili napisati, pa nas tako mogu zavarati da su sposobni identificirati naše osjećaje i većinu vremena prikladno reagirati na ono što smo im priopćili.
Dakle, kako to ističe i jedna od vodećih stručnjakinja području empatijske umjetne inteligencije, bioetičarka Jodi Halpern sa Sveučilišta Berkeley: „Nema nikakve magije u tome što chatbotovi mogu naučiti koristiti izraze kojima imitiraju empatiju i emocije.“
Tumačenje suza
Ali kada je riječ o drugim kriterijima, umjetna inteligencija još uvijek na mnogo načina promašuje cilj postizanja empatičnosti u komunikaciji sa svojim korisnikom.
Empatija je posve međuljudska, interpersonalna aktivnost tijekom koje se kontinuirano i dvosmjerno razmjenjuju znakovi i povratne informacije. Štoviše, poznato je da su preko 70% tih informacija neverbalne (dakle, ne izražavaju se riječima nego izrazima lica, položajem i gestikulacijom tijela, intonacijom glasa, pogledom…), što sve doprinosi oblikovanju i usavršavanju reakcije onoga tko suosjeća sa sugovornikom, a zahtijeva posjedovanje barem osnovnog stupnja intuitivne svijesti – koliko god kratkotrajna bila – o sugovorniku i njegovoj kontekstualnoj situaciji.
Recimo, zamislite ženu koja plače dok liječniku govori da je otkrila kako je trudna: njezine suze znače nešto sasvim drugo ukoliko je godinama prije toga neuspješno pokušavala zatrudnjeti nego ako je ta trudnoća neželjena posljedica silovanja.
Sadašnji programi i algoritmi umjetne inteligencije nisu sposobni za takvu vrstu kontekstualnog, nijansiranog razumijevanja i postoji realna sumnja da će ikada biti sposobni za to. AI-chatbotovi nisu u stanju „osjećati osobu“ s kojom komuniciraju. Kako kaže Jodi Halpern: „Mi nemamo nikakvih argumenata ni razloga na temelju kojih možemo ustvrditi da umjetna inteligencija može osjetiti, shvatiti i doživjeti empatiju. Ona može proizvesti proizvod: riječi i rečenice kojima se oponaša empatija koju ljudi posjeduju. Ali tu prave empatije jednostavno – nema.“
Bez zagrljaja, bez osjećaja
No, vratimo se sada mojem ranije navedenom pokušaju da u umjetnoj inteligenciji nađem utjehu, tipkajući chatbotovima svoje osjećaje nesigurnosti i strepnje izazvane globalnim zatopljavanjem, izbornim rezultatima i turbulentnim događajima na tablici HNL-a (čak i ne spominjući moju zabrinutost što će naš planetarni sustav biti gravitacijski usisan u crnu rupu u koju će se Sunce pretvoriti za samo 800 milijardi godina ili tako nekako).
Sve ovo maloprije napisano pomaže objasniti sadržaj nekolicine razgovora kakve sam vodio s ChatGPT-om i s Elomijom, jednim od nekoliko komercijalnih chatbotova koji sve češće nude podršku za mentalno zdravlje – i kojega je, prema navodima njegovih autora, u kratkom vremenu koristilo više od 100.000 ljudi. Kad sam joj napisao kako se osjećam, Elomia me je zauzvrat upitala: „Kako razmišljanje o tim situacijama utječe na vaš svakodnevni život i emocije?“. Pomalo zbunjen protupitanjem, odgovorio sam: „Teško se nosim s tim“, u sebi komentirajući kako je to bilo jasno i samo po sebi: da mi nije teško nositi se s problemima, ne bih ni trebao pomoć i podršku, jel’te…
Elomia je na to nastavila u istom tonu: „Žao mi je što to čujem“, dakle napisala je standardizirani izraz utjehe i potom postavila novo pitanje: „Postoje li neka posebna ponašanja ili misli koje ste primijetili?”
Nakon svakog mojeg odgovora Elomia je generirala novo pitanje. Nesumnjivo, takva taktika postavljanja protupitanja ostavljala je prostora i davala mi vremena i priliku da introspektivno razmislim o svojim problemima i samostalno uvidim njihove uzroke i korijene… Ali ono što sam stvarno želio od takvog povjeravanja svojih emocija bilo je da mi netko zauzvrat kaže: “Uh, znam točno kako se osjećaš”, da podijeli sa mnom svoje probleme, štoviše – da me zagrli, a ne da me zasipa pitanjima. Drugim riječima, tražio sam komunikaciju koji bi bila istinski empatična, a ne hinjena.
Podizanje virtualne obrve
Veliko je pitanje, dakle, je li suosjećajnost AI-algoritma uopće moguća. Neki vjeruju da će umjetna inteligencija s vremenom zaista postati sposobna doživljavati i dijeliti ljudske emocije. Govori se kako bi jedan od mogućih načina da se to ostvari bio daljnji napredak hardvera i softvera, nastavak povećanja snage velikih jezičnih modela i njihovo self-learning usavršavanje na sve većim i raznolikijim skupovima podataka.
Modeli koji barataju jezičnim algoritmima već se sada obogaćuju i povećavaju im se sposobnosti time što osim čitanja i razumijevanja naših riječi sve bolje „čitaju“ i razumijevaju naše izraze lica i intonaciju izgovora. Najsloženiji od svih će biti komunikacijski roboti koji će shvaćati naš govor tijela i geste rukama.
Već postoje i testiraju se rudimentarne verzije takvih robota za prepoznavanje emocija temeljenih na sinkronoj percepciji multiplih izvora podataka (tj. istovremenom prepoznavanju napisanih ili slušanju izgovorenih riječi, vizualiziranju izraza lica i neverbalnih kretnji tijela i ruku), ali sposobnost istovremene percepcije višestrukih inputa ne garantira i sposobnost kontekstualnog povezivanja i razumijevanja njihovih nijansiranih odnosa i značenja. U situacijama gdje drhtaj glasa, treptaj suze u oku, nesvjesno češkanje uha ili uzdignuta obrva mogu izgovorenim riječima dati potpuno različit, pa i suprotan kontekst i značenje, računalna inteligencija i dalje nije sposobna nositi se beskonačno profinjenim slojevima ljudske interakcije.
Povrh toga, čak i ako daljnji razvoj brute force računalnih sposobnosti i složenih kvantnih neuralnih mreža omogući izradu strojeva koji su savršeno vješti u čitanju ljudskih emocija, to i dalje neće stvoriti istinsku računalnu empatiju. Jer, kako ističe psiholog Michael Inzlicht sa Sveučilišta u Torontu, jedan od vodećih istraživača mogućnosti stvaranja empatične umjetne inteligencije: „Da biste iskusili empatiju, morate imati emocije“. A strojevi ih – nemaju.
Ako nikada niste iskusili tugu, ne možete istinski shvatiti što znači biti tužan, a još manje možete osjetiti tugu kod druge osobe i empatično se identificirati s tim tuđim osjećajem. Evolucija ljudske empatije isprepletena je s društvenim interakcijama i sa spoznajom da osim naših osjećaja i svijesti postoje osjećaji i svijest i kod drugih ljudi oko nas.
Inzlicht to svodi na jednostavnu – i najvjerojatnije posve točnu – konstataciju: „Za iskusiti empatiju, potrebna je svijest.“ Taj preduvjet svjesnosti je vrlo daleko od onoga za što je umjetna inteligencija sposobna – kako sada, tako i u budućnosti.
Fejkanje osjećaja
Ali što ako umjetna inteligencije niti ne treba posjedovati istinsku empatiju da bi bila korisna? Što ako i strojna, odglumljena, umjetna empatija chatbota kojem povjeravamo svoje brige i emocije ima nekakav blagotvoran učinak na naše emocije? Ljudi kojima je očajnički potreban emotivni oslonac mogli bi na neki način pristati i na njegovu umjetnu zamjenu, na surogat i imitaciju empatije. Baš kao što neki ljudi svjesno pristaju na surogatnog partnera kada nabavljaju lutku ili druge silikonsko-elektronske igračke za seks.
Jedno nedavno dovršeno istraživanje ukazuje baš na tu mogućnost — na sklonost prema AI empatiji čak i kada njeni korisnici znaju da je strojna empatija umjetan, fejkan osjećaj. Istraživanje je temeljeno na sličnim pokusima koje su nedavno proveli John W. Ayers sa Sveučilišta u San Diegu i njegovi suradnici. Dio tog istraživanja bio je i pokus u kojem su živi ljudi (psiholozi) i ChatGPT dobili iste opise emotivnih scenarija u kriznim emotivnim situacijama, sa zadatkom da o tome napišu kratke empatične, suosjećajne odgovore. Kada su potom ispitanici ocjenjivali te odgovore (ne znajući pritom koje odgovore su napisali živi ljudi, a koje je generirao ChatGPT), kao najempatičnije odgovore ocijenili su one koje je napisala umjetna inteligencija.
Nakon toga je proveden drugi dio pokusa u kojem je ovoga puta bilo jasno označeno koje empatične odgovore je napisala umjetna inteligencija, a koje su napisali ljudi. Na iznenađenje istraživača, ispitanici su i dalje većinom preferirali odgovore koje je generirala AI. Štoviše, neki odgovori umjetne inteligencije dobili su bolje ocjene i od odgovora koje su pisali djelatnici na linijama za krizne situacije, koji su školovani stručnjaci za pružanje empatije. Kako to, kako to?
Projekcija osjećaja na objekte
Ta naizgled apsurdna pojava objašnjava se prirodnom ljudskom sposobnošću (štoviše, sklonošću) da vlastite osjećaje projiciramo na objekte. To činimo od najranijeg djetinjstva, od prvog plišanog medvjedića (ili običnog jastuka) kojem povjeravamo svoje osjećaje usamljenosti i separacijskog straha. Ta sklonost da neživim objektima pripisujemo svijest i emocije integralni je dio ljudske empatičnosti – bilo da se radi o djeci koja „hrane“ i „njeguju“ elektronskog jajolikog dinosaura Tamagotchija i gorko plaču kada im „ugine“ ili se radi o odraslim, zrelim ljudima koji s chatbotovima razgovaraju o svojim najintimnijim emocijama.
Štoviše, istraživanja su pokazala da se ta sklonost može pojačati ako se ljude navede da misle kako je umjetnoj inteligenciji doista stalo do njih. Ako se chatbot algoritam korisniku prezentira kao kvalitetna, od psihologa atestirana emotivna potpora, korisnik će podsvjesno imati dojam kako chatbot zaista prema njemu iskazuje osjećaje. No, kako kaže Sherry Turkle, direktorica Inicijative za tehnologiju na MIT-u: „To nije posljedica kvalitete računala i algoritma; to je posljedica prirodne slabosti i emotivne ranjivosti ljudi.“
A ta ljudska slabost – tvrde neki psiholozi i računalni stručnjaci – mogla bi biti neetički i lukavo zlouporabljena. Slikovit primjer takve moguće zlouporabe opisuje Wendell Wallach iz Carnegiejeva vijeća za etiku u međunarodnim odnosima: „Recimo da vas je partner upravo ostavio i u potrazi za emocionalnom podrškom sjedate za računalo i umjetno inteligentnom chatbotu otkrijete da vam je srce slomljeno. A taj algoritam koji vas je „saslušao“ mogao bi isprva suosjećati s vama, a onda polako skrenuti razgovor na to da kao utjehu svojoj patnji kupite neki određeni proizvod za kojega je chatbot pretpogramiran da ga promovira. Naime, premda stroj ne može suosjećati, itekako može manipulirati vašim emocijama.“
Neempatični psihopat
Na temelju takvih primjera, Wallach i neki drugi istraživači ističu da će „…umjetna inteligencija vrlo teško postati empatična, ali vrlo lako može postati psihopatska“. To što ćemo se u budućnosti više prikloniti umjetnoj strojnoj empatiji moglo bi promijeniti naše gledanje na empatiju kao izvorno ljudski osjećaj. Turkle u jednom od svojih zaključaka piše: „Iskreno se nadam da nikada nećemo doći do toga da se tuga ili usamljenost mogu ublažiti korištenjem interakcije s nečim što nema pojma o tome što je roditi se, osjećati, tugovati i radovati se, što je to umrijeti”.
Naposljetku je ovaj moj mali eksperiment emotivnog i (ne)empatičnog razgovora s umjetnom inteligencijom završio tako da sam učinio ono što sam ionako cijelo vrijeme znao da ću učiniti: uzeo sam mobitel, nazvao prijatelje i s njima se našao na pivu, pa smo uz smijeh i uzajamnu zafrkanciju razmijenili pregršt dubokoumnih misli o životu, emocijama, empatiji i rješavanju pitanja uspostave svjetskog mira u svjetlu poskupljenja rezervnih dijelova za rabljene Rafale.
A ako se pitate jesmo li pritom donijeli i kakav konstruktivan zaključak, reći ću samo da smo ga nakon četvrte runde zapisali flomasterom na papirni ubrus: „Koliko god uspijevala oponašati ljudsku socijalnu interakciju, umjetna inteligencija vrlo vjerojatno nikada neće biti osposobljena za iskazivanje emocionalne inteligencije, odnosno za istinsku empatiju. Ta činjenica pak ukazuje na potrebu postavljanja važnih pitanja o pravovremenom procjenjivanju buduće uloge i pozicije umjetne inteligencije u ljudskom društvu.“
– – –
(s dopuštenjem autora preneseno s www.bug.hr)