La Viena (în fieful lui Freud, dar 100 de ani mai tîrziu), s-a pus în fapt un năstrușnic experiment. Era spre sfîrșitul anilor ’80, de atîta Război Rece servit pe toate canalele se cam plictisise lumea, n-aveai tu un TikTok, un Insta, ceva. Un colectiv (interdisciplinar!) de cadre didactice au creat un context pentru cîțiva studenți de-a avea parte de terapie moca cu specialiști din America. Rezultatele acestui studiu nu au fost publicate niciodată, eu am avut norocul să aflu despre el de la unul dintre inițiatorii lui și să pot trage niște concluzii acum, cînd AI-ul riscă să ne detroneze sau măcar să ne sufle nouă în ceafă, psihoterapeuților, încă în carne și oase.
Era vremea în care, vizionari, cîțiva oameni anticipau Internetul sau lucrau la protocoalele TCP/IP (în schiță atunci, dar acum parcă a doua noastră natură). Dar Viena încă nu era conectată la nimic. Studenții (voluntari naivi, fără vreun aviz de la vreun comitet de etică al instituției) stăteau în fața unui terminal și răspundeau la întrebări puse de computer. „Cum o duci astăzi?”, „Sînt obosit, am avut o zi grea.” „Ce poți să-mi spui despre ziua ta grea?”, „M-am dus la universitate, în pauza de prînz am sunat-o pe mama, stă în provincie.” „Ce poți să-mi spui despre provincie?”, „Ai mei sînt despărțiți, mama nu mai stă în Viena, s-a mutat în Stiria, înnebunește acolo, mama nu e făcută să stea într-un cătun.” „Ce poți să-mi spui mai multe despre un cătun?”, „Un loc atît de mic, te simți ca într-o închisoare, ești frustrat, săraca mama!” „Ce altceva poți să-mi spui despre mama ta?”, „Mama este foarte fragilă. Cred că am moștenit ceva din fragilitatea mea de la ea.”
Au fost destul de mulți voluntari și voluntare în programul acesta de „terapie”. Toți au beneficiat de mai multe „ședințe” cu terapeutX din America. Toți au fost foarte mulțumiți, s-au simțit mai bine, au fost uimiți de empatia și profesionalismul terapeutului din America.
Cred că v-ați prins, deja. În spatele terminalului nu era nimeni. Nici măcar un alt terminal. Doar un program simplu, încropit de un programator, care lua ultimul cuvînt din fraza scrisă de „pacient(ă)” și îl lipea la sfîrșitul unor formulări standard de tipul „Ce poți să-mi spui despre...” sau „Ce altceva poți să-mi spui despre...”. Nici unul și nici una dintre participanți/participante nu s-au prins că vorbesc cu sau într-un loop de program informatic. Chiar dacă o făceau în engleză, cu care nu erau foarte familiari/familiare, chiar dacă am fi pornit de la premisa că formulările n-ar fi sunat foarte logic sau cursiv pentru unii, cu siguranță ar fi găsit scuze pentru stîngăciile „terapeutului” – poate era de origine egipteană sau est-europeană, că ăștia mai au greșeli de acord, poate era încurcat de faptul că trebuia să scrie la calculator, nimeni nu se descurcă foarte bine la asta în anii ’80. Oricum ar fi, nu a existat ca vreuna dintre persoanele participante să-și fi pus problema că nu stă de vorbă cu o ființă inteligentă, profesionistă, empatică, atentă și grijulie.
Ați putea spune că anii ’80 erau altă mîncare de pește. Diferența este că în momentul în care accesez o aplicație de terapie, eu ȘTIU că dincolo de ecran nu este o altă persoană. Cît de mult contează însă acest lucru, nu este foarte clar. Mintea oricăruia dintre noi este o Rețea de Îmbrobodire Egocentrică (hai s-o numim RÎ-E). Dacă este să vreau să cred în ceva, această RÎ-E va intra în joc împotriva argumentelor logice și îi va da lui Turing bătăi de cap (vă amintiți de Turing, cel cu faimosul test de verificare a inteligenței sau umanității unei mașini? – hai să vedem cum se aplică asta la nevoia noastră de terapie și de ce ne mănîncă RÎ-Ea).
Cînd mergi la terapie, tu mizezi pe ceea ce se numește capacitatea terapeutei de a-ți facilita schimbări de ordinul întîi. Școala de terapeuți (sau meta-terapeuți) filozofi de la Palo Alto (Paul Watzlawick și alții, toți bărbați) a formulat acum mai bine de o jumătate de secol două meta-principii ale schimbării (id est schimbarea de ordin întîi versus cea de ordin secund). Schimbarea de ordin întîi este una previzibilă, non-paradoxală, foarte pe gustul RÎ-Ei. Mă simt trist(ă), terapeuta mea (AI sau nu) mă convinge să ies cu prietenii. Reușesc să ies două-trei seri la rînd sau să organizez o cină acasă, mă simt mai puțin trist(ă). Îmi notez stările mele într-un jurnal de bord, primesc prompt-uri pe computer, mici emoticoane la fiecare acțiune. Terapeuta mă felicită, ceva din simptomele mele s-a redus. Terapia funcționează. Nu contează să știu cine mi-a produs această schimbare, o entitate digitală, un bot, o terapeută titrată sau chiar Sigmunda însăși. Aplicațiile bazate pe AI de terapie actuale nici nu mai menționează autorii sau autoarele din spate, ele SÎNT terapie în sine. Oferă soluții de ordin întîi, care vin servite pe tavă reprezentărilor propriei noastre RÎ-E.
O cu totul altă situație este cea a schimbărilor de ordin secund. Dacă aplicația ta de terapie favorită, despre care ai ști că este bazată pe AI, ți-ar da o soluție „ciudată”, de tipul accentuează tristețea? Eu mă plîng că sînt trist(ă). Iar terapeuta mea digitală îmi spune „Cum ai putea să fii și mai trist(ă) în această seară?”. Eu îi spun „Mă întristează și mai tare să mă duc în folder-ul cu poze din tinerețe și să le scrollez și să beau vin și să mă smiorcăi”. Și terapeuta mea AI pune „great, în următoarele trei seri fă asta în reprize de trei ore pe seară, cu orice contact întrerupt cu exteriorul și cu mult mult vin”. Cu mare probabilitate aș privi ciudat această propunere. De ce aș vrea să mă las chinuit(ă) de un genie digital? Mi-ar trebui ceva context să accept ca binefăcătoare această propunere (pe care promotorii terapiilor care utilizează paradoxul o numesc prescrierea simptomului). În acest caz, RÎ-Ea mea n-ar funcționa foarte bine, n-aș face asta cu bună credință și conștiinciozitate. Mi-ar trebui context, explicații, ar trebui să mă las convins(ă) dar convingerea asta, pe cale digitală, ar suna suficient de artificial ca să nu îi dau curs.
Revenind la Turing și derivatele testului om-verifică-umanitatea-mașinii. AI-urile actuale par foarte umane pentru că înțeleg limbajul ambiguu (și atunci cînd scriem sau vorbim unei aplicații de terapie ea ne înțelege ambiguitățile și trece cu brio provocarea Schemei Winograd, care presupune procesarea frazelor ambigue). Ceea ce nu face însă o aplicație AI este că nu trece (încă) testul Lovelace, care presupune crearea unor soluții într-adevăr originale pentru terapie (adică soluții de ordin secund, vezi mai sus).
Concluzionînd, acum patru decenii, la Viena, cîțiva cercetători anonimi descopereau efectele RÎ-Ei terapeutice. Atunci cînd anticipăm care ar trebui să fie rezultatele unei schimbări a propriei noastre dispoziții (și nu neapărat a propriilor noastre opinii), sîntem neatenți la calitatea umanității agentului de schimbare. Și credităm orice algoritm care ne propune o cale de schimbare ca venind din partea unei inteligențe umane. Sau nu ne pasă.
Și nu știm că există schimbări radicale, transformative, neașteptate. De ordin secund. Pe care le-am respinge ca fiind suspecte dacă ar veni din partea unei entități digitale. Pentru că, în carne și oase, ne-ar trebui mult timp să credem un/o terapeut(ă) că aceste manevre au sens. Sîntem, deci, pe pozițiile „rămîne cum am stabilit”. Propria noastră nevoie de sens, combinată cu o anticipare simplistă a schimbării personale, părți ale sistemului de auto-îmbrobodire, ne fac să răspundem bine la îndemnurile terapeutice digitale.
Problema nu este că terapia AI nu este bună, ci că majoritatea terapeuților și terapeutelor în carne și oase sînt suficient de mediocri/mediocre încît să convingă publicul general că pentru schimbările de ordin întîi nu prea este nevoie de ei.
Mugur Ciumăgeanu este psihoterapeut.
Credit foto: Wikimedia Commons