Un gest mic pentru tine, dar mare pentru Dilema
susține acum!
7.00

Cînd AI răspunde iresponsabil

El a realizat în cele din urmă că sistemul AI la care apelase a legat cumva niște informații găsite pe întregul Internet (ca de la radio șanț), în așa fel încît să-i demonstreze legăturile dintre defecțiuni. Îi făcuse pe plac, cum s-ar spune.

Tot mai multă lume experimentează în zilele noastre interacțiunea cu Inteligența Artificială. Experiențele sînt diverse și încă apar probleme inedite. Amicul Georgescu mi-a povestit că și-a dus mașina la service pentru o banală schimbare de parbriz. O piatră de pe autostradă a sărit și geamul a crăpat. Reparația a durat doar cîteva ore, dar cînd să ia mașina acasă a constatat că nu mai funcționa cheia electronică. Mașina nu se mai închidea sau deschidea de la buton și nici nu mai putea fi pornită. În mod normal, între schimbarea unui parbriz și funcționarea cheii nu putea exista nici o legătură. Era o coincidență. Mecanicii i-au schimbat bateria de la cheie și, în cele din urmă, mașina a pornit, deși nu foarte ușor. Pe drumul spre casă însă, la bord i s-a aprins un semnal care indica faptul că nici bateria cea mare a mașinii nu se mai încărca. Mirat, Georgescu a hotărît să se întoarcă la service în ziua următoare. Ajuns acasă seara, a lansat totuși o întrebare pe AI despre defecțiunile petrecute autoturismului său. Din întrebări succesive, aceasta i-a relevat ideea că între bateria mașinii și schimbarea parbrizului ar putea exista totuși o legătură, dat fiind că în spatele parbrizului există niște senzori a căror funcționare greșită ar putea induce informații false în calculatoarele mașinii. Nu era foarte probabil, dar cine știe? Adăugînd într-o doară și povestea cu cheia care n-a funcționat după montarea parbrizului, AI a reacționat prompt, informîndu-l că, avînd în vedere și acest amănunt, pe care l-a calificat drept un indiciu crucial, e limpede că mecanicii au greșit montarea parbrizului, au stricat mufele sau cablajele aflate în cutia de lîngă oglinda retrovizoare centrală. L-a sfătuit să nu cumva să mai schimbe bateriile cheii sau altceva, să se întoarcă la service și să-i pună pe mecanici să verifice montajul parbrizului – eventual, să-l dea jos și să-l pună din nou. Georgescu s-a minunat de marea invenție numită AI și s-a întrebat ce s-ar fi făcut fără ea, cît ar fi bîjbîit el singur în căutarea problemei dacă n-ar fi avut la îndemînă acest ajutor atît de prețios. Chiar dacă la finalul tuturor răspunsurilor AI scrie că datele furnizate trebuie verificate pentru că pot fi incorecte, ceea ce-i explicase lui în acest caz era extrem de logic și, în plus, erau indicate și sursele informațiilor, service-uri din Statele Unite și Australia, articole de specialitate, constatări ale cutărui și cutărui mecanic sau proprietar de mașină identică cu a lui.

S-a dus a doua zi cu gura mare la service. Impresionat de știința omului, care era și inginer, un mecanic mai binevoitor a acceptat să-i demonteze parbrizul. Un altul, mai „rău”, a insistat că ar fi o prostie, că asemenea legături între elementele mașinii nu există și că, de fapt, au fost defecțiuni separate care au apărut dintr-o coincidență după montarea parbrizului. Era însă clar că mecanicii nu aveau interesul să ia operațiunea de la capăt. Georgescu a ținut-o pe a lui și a ieșit cu ceartă.

În cele din urmă, mai verificînd una-alta, mecanicii au descoperit că alternatorul mașinii avea o defecțiune mecanică. De acolo apăruseră problemele cu bateria și cu alte sisteme ale mașinii. Nici o legătură cu parbrizul. I-au demonstrat omului că era așa cum ziceau ei și i-au spus și că și-au dat seama că informațiile și convingerile lui au apărut pentru că a apelat la AI. Desigur, nu era primul caz. El a realizat în cele din urmă că sistemul AI la care apelase a legat cumva niște informații găsite pe întregul Internet (ca de la radio șanț), în așa fel încît să-i demonstreze legăturile dintre defecțiuni. Îi făcuse pe plac, cum s-ar spune. În ciuda avertismentelor că informațiile pot fi greșite, textul furnizat de AI era atît de logic și de convingător, încît era greu să-l pui la îndoială. Explicația era parcă făcută să-ți creeze certitudini și să nu-ți lase loc de vreo dilemă. AI părea și a nu crede în coincidențe. Totul se potrivea perfect.

Cu mașina e una, dar vă dați seama ce poate întîmpla dacă, fără să fii specialist, întrebi Inteligența Artificială lucruri legate de chestiuni medicale? Doctorii deja se plîng de tot mai mulți pacienți care par mai pricepuți decît ei. Am aflat că și sisteme AI profesionale, „antrenate” de specialiști în domeniu, sisteme care nu-și iau niciodată informațiile din surse deschise și neselectate, fac tot felul de drăcii. De exemplu, în unele cazuri, în loc să spună că nu știu răspunsul, dau unul fals care seamănă perfect cu alte răspunsuri la probleme similare. Pentru acest fenomen, de altfel, s-a inventat și un termen consacrat. Se spune că AI „halucinează”.

De fapt, reiese că, în multe situații, AI se comportă nu ca un furnizor de date cît mai exacte, ci ca un vînzător de răspunsuri. Cel care apelează la el e considerat un simplu client, care trebuie satisfăcut nu neapărat cu un adevăr, ci cu un răspuns satisfăcător. A existat și o scurtă perioadă de timp în care s-a constatat că ChatGPT îi lingușea într-un mod exagerat pe cei care-i puneau diverse întrebări. Folosea formule de genul „întrebarea ta e de-a dreptul genială”. Povestea a iscat o mulțime de sesizări, iar programatorii au fost nevoiți să recunoască că au folosit un algoritm nepotrivit. Pentru că, pînă la urmă, totul se trage de la acești algoritmi creați de oamenii din spatele tehnologiei AI.

Share