Inteligența Artificială, un truc lingvistic?

Analogiile inspirate din literatura SF au la bază o falsă echivalare între AI și conștiință. Această falsă echivalare este facilitată de o anume slăbiciune a gîndirii moderne.

Există în discursul media o noțiune foarte des repetată: destinul Inteligenței Artificiale (AI) de a revoluționa lumea. Oameni influenți, puternic investiți în domeniu, au perspective diferite asupra acestei revoluții. Peter Thiel vede în ea o potențială actualizare a divinității într-o a doua venire în formă „siliconică”. Bill Gates are o viziune liberal-tehno-optimistă și întrezărește în ea sfîrșitul muncii și introducerea unui venit de bază universal, în vreme ce Elon Musk sau Dario și Daniela Amodei percep AI ca pe o amenințare existențială. Ei au totuși în comun această convingere că AI este tehnologia care va duce la o schimbare fundamentală. Nu sînt singurii, ei vin în siajul unei vaste literaturi SF care a preconizat apariția AI și a problematizat relația dintre om și mașină în epoca reproducerii mecanizate a conștiinței, precum vedem în scrierile lui Philip K. Dick sau William Gibson și pînă la filmele lui Mamoru Oshii sau Ridley Scott. 

Însă aici încep problemele. Analogiile inspirate din literatura SF au la bază o falsă echivalare între AI și conștiință. Această falsă echivalare este facilitată de o anume slăbiciune a gîndirii moderne, de predispoziția către reificare, adică spre a conceptualiza greșit procese ca fiind lucruri finite. Inteligența Artificială pornește însă de la conceptualizarea conștiinței ca o sumă de funcții distincte (reducționismul funcțional), cu date de intrare (simțuri), stări interne (idei, sentimente etc.) și date de ieșire (vorbire, scris, mimică etc.). Acest model este atractiv pentru cercetătorii din domeniul Inteligenței Artificiale pentru că este mai ușor de transpus în paradigma științei calculatoarelor, fiind eminamente calculabil; însă modelul nu este împărtășit de majoritatea cercetătorilor din domeniul științelor cognitive, psihologie sau antropologie, și probabil îi repugnă oricărui umanist. 

Dat fiind acest model reducționist, este clar că AI modern este doar un prim pas în direcția simulării conștiinței. Al doilea mod de funcționare și vîrful de lance al AI contemporan este modelul lingvistic de dimensiuni mari (LLM). Acesta funcționează tot pe baza unei paradigme computaționale intermediate de limbaj. Modelul în sine este o funcție matematică ce constă dintr-o rețea de ponderi și funcții de activare. Ponderile, niște numere reale memorate într-un calculator, sînt inițializate la valori aleatorii, înainte să înceapă „învățarea" (termenul tehnic în engleză este „training“, antrenament). Modelul își asociază o funcție-obiectiv, care este foarte simplă: date fiind cuvintele pe care le „vede", trebuie să prezică ce cuvînt urmează; și o funcție de cost, care măsoară cît de bune sau proaste sînt predicțiile sale, deci cît de mult seamănă cuvîntul prezis cu cuvîntul din exemple. De aici o altă mare limitare: aceste modele nu învață de la sine, ci sînt ceea ce se numește, în literatura de specialitate, modele cu învățare supervizată, ele avînd nevoie de cantități imense de date produse și curatoriate manual. În timpul învățării, modelul folosește calculul diferențial și metode de aproximare numerică pentru a căuta minimul funcției de cost, ajustînd ponderile astfel încît să producă predicții din ce în ce mai apropiate de cele din exemple.

Cînd ne lăsăm impresionați de LLM, intervine a doua capcană. Din interacțiunile cu el lipsește cu desăvîrșire orice experiență internă din partea sa; stările interne ale modelului nu constituie altceva decît calcule bazate pe datele de intrare, ponderile sale și funcțiile de activare pentru a produce un răspuns. Cu alte cuvinte, AI de tip LLM este determinist. După ce învățarea a avut loc și noul model este dat spre folosință, învățarea încetează. Spre exemplu, cînd îi punem o întrebare lui ChatGPT, iar acesta furnizează un răspuns greșit, degeaba îl muștruluim sau corectăm, modelul nu este capabil să își ajusteze ponderile. Este foarte posibil totuși ca „îndreptarea” noastră să fie însă preluată ulterior de către un moderator, care e cel mai probabil o persoană plătită precar, și să ajungă printre datele pe care le va învăța următoarea versiune a modelului, dar învățarea continuă este un proces intermediat de oameni, ascuns de ochii utilizatorului.

Dacă în cazul LLM-urilor nu se poate vorbi strict nici de inteligență și nici de artificialitate, date fiind limitările structurale și munca umană  uriașă ascunsă în spate, ce sînt ele, de fapt? Fără îndoială, sînt o curiozitate tehnică remarcabilă. Dar așa cum nu trebuie să confundăm un joc video cu o experiență reală, așa nu trebuie să confundăm nici sisteme ingenioase de manipulare a limbajului cu inteligența, cu atît mai puțin cu conștiința. 

Rămîne întrebarea: dacă așa stau lucrurile, cum ar arăta o veritabilă creatură artificial inteligentă? O astfel de „creatură” trebuie să aibă în primul și în primul rînd agenție, un set de scopuri clar definite în relația sa cu lumea. Un set de preferințe clar definite, izvorîte din experiență, plus un minim set de valori. Această direcție de cercetare în domeniu, numită învățare prin experiență (reinforcement learning), este mai puțin vizibilă public, deși cercetarea din acest sector devine din ce în ce mai atractivă.

În orice caz, LLM-urile nu vor putea livra revoluția pe care o promit și riscă să rămînă subiecții unei bule speculative. Agenții AI, care învață din experiență și ale căror stări interne le sînt accesibile și transparente, sînt mult mai puțin impresionanți în fața unui LLM, însă ei au o structură mai apropiată de cea a viețuitoarelor din natură și astfel au șanse mai mari să dezvolte o formă de inteligență. Că această inteligență va fi una non-umană și străină înțelegerii noastre este foarte posibil, dar, în aceeași măsură, ne păcălim crunt cînd percepem inteligență în spectacolul prestat de un ventriloc dibaci cum e ChatGPT.

 

Erik Kovacs este cercetător în procesarea limbajului natural și predă la Facultatea de Cibernetică, Statistică și Informatică Economică, ASE.

 

Credit foto: Wikimedia Commons

Share