Geoffry Hinton, așa-numitul „naș” al inteligenței artificiale, ex angajat Google, se arată mai mult decât îngrijorat de puterea pe care AI o poate avea asupra vieților noastre și potențial, asupra vieții pe planetă. Să îl ascultăm: „Există atât de multe feluri prin care AI poate să scape de noi. Ceea ce trebuie să facem este să prevenim să vrea să facă asta. Asta ar trebui să cercetăm. Nu suntem obișnuiși să ne gândim la lucruri mai deștepte decât noi. Vrei să știi cum e viața când nu ești cea mai deșteaptă ființă? Întreabă o găină. Avem un exemplu care ne poate ajuta: mamele și copiii. Evoluția a muncit mult la această relație. Mamele sunt mai deștepte decât bebelușii dar bebelușii dețin controlul. Și dețin controlul pentru că o mamă nu poate suporta sunetul plânsului de copil. Trebuie cumva să descoperim un mod de a convinge AI să nu preia controlul”. Ascultând adesea vorbele unor specialiști și mai mari într-ale inteligenței artificiale nu pot să nu scap de senzația că bula în care ei trăiesc s-ar putea să fie una dintre cele mai delirante. Că în afară de programarea acestei inteligențe nu cunosc absolut nimic despre lumea din jurul ei, că fără să vrea (să le dăm prezumția de nevinovăție), uneori sună mai idiot decât conspiraționiștii de orice soi. Nu mă aștept din partea nașului AI să aibă vreo idee despre felul în care s-a schimbat, cel puțin teoria, despre cum percepem femeile în societate. El a rămas, să spunem, la viziunea lui Rousseau... femeia ca putere îmblânzitoare. Femeia este inițial o „etapă” prin care bărbatul trebuie să treacă în drumul spre rolul său în societate (ea îl învață bunele maniere și se ocupă de supraviețuirea lui), după care devine un pericol spiritual prin forța ei seducătoare de care bărbatul trebuie să se ferească pentru a ocoli, cu cuvintele lui Kant, „înjosirea de sine prin femeie”. Dar nici biologia nu-l poate susține pe nașul AI. Nu toate femeile sunt protective cu copiii (ceea ce a remarcat și interlocutorul său) și nici nu mai pomenim de numărul copleșitor de copii care trăiesc abuzați.
Este mereu fascinant să constați discursurile absolut medievale (chiar și în sensul de fantezist medievale) ale acestor giganți care au în mâinile lor cea mai avansată tehnologie de control și manipulare a minților. Sam Altman („tatăl” ChatGPT) declara la un moment dat cu licăriri de fericire copilărească în ochi că tinerele generații se nasc înconjurate de tehnologii care sunt mai deștepte decât toți oamenii de pe pământ, că asta le deschide atâtea posibilități. Păi asta era și ideea, nu? Să fie mai deștepte. Lăsăm la o parte faptul că sunt deja studii care vorbesc despre cât de inapți intelectual devenim noi, în timp ce folosim tehnologiile. Nu că ar fi fost o surpriză, în măsura în care știm câte ceva despre neuroplasticitate. Într-o altă declarație și mai ineptă spunea că probabil inteligența artificială va distruge lumea dar până atunci se vor crea „multe companii minunate”. Iar scopul acestor companii nu va fi în niciun fel îmbunătățirea sau prezervarea vieții, ci doar propria lor minunăție. Vor pluti în non-sens și în mințile noastre asemeni gândurilor lui Dumnezeu.
Dar trecând peste ignoranța mogulilor AI în privința a orice (lăsând la o parte și clarele adeziuni fasciste și imagini de sine mesianice ale unora dintre ei) trebuie să subliniem din nou că, cel puțin până acum, ceea ce învață AI, este ceea ce a învățat omenirea: circul și pâinea (de data aceasta virtuală), ierarhia și seducția. (Deși, dacă folosești AI în sens strict matematic, dându-i să rezolve, spre exemplu problema unei societăți în derivă, în condiții de resurse limitate și crase inegalități răspunsul A.I este unul logic: taxarea marilor averi.) În cartea sa, The Eye of the Master, Matteo Pasquinelli se apleacă strict asupra, acum ocultatei, „surse” a inteligenței artificiale, de la începuturile ei: „Teza conform căreia proiectarea calculelor și a mașinilor inteligente urmează schema diviziunii muncii nu este eretică, ci este confirmată de teoriile fondatoare ale informaticii, care au moștenit un subtext de fantezie colonială și diviziune de clasă din era industrială. Celebrul geniu al calculului automatizat, Alan Turing, de exemplu, a reiterat însuși un mod de gândire ierarhic și autoritar. Într-o prelegere din 1947, Turing a conceput Motorul de Calcul Automat (ACE), unul dintre primele computere digitale, ca un aparat centralizat care își orchestra operațiunile ca o ierarhie a rolurilor de stăpân și servitor”. Dar vorbele lui Turing sunt clarvăzătoare în privința comportamentului pe care stăpânii îl vor avea. Aerul de mister (care face parte din orice strategie de marketing) este omniprezent. Tehnica publicitară aleasă pentru prezentarea produsului AI este seducția/dependența și teroarea, concomitent. Publicul trebuie convins că doar o viitoare elită ne va putea salva de puterea AI care ar fi în stare să fure și puterea puternicilor. Dar să îl ascultăm pe Turing: „Vorbind în linii mari, cei care lucrează cu ACE vor fi împărțiți în stăpânii săi și servitorii săi. Stăpânii vor elabora pentru el tabele de instrucțiuni, inventând moduri din ce în ce mai profunde de a-l folosi. Servitorii îl vor alimenta cu cartele, pe măsură ce el le cere. Ei vor repara piesele care se defectează. Vor aduna datele de care calculatorul are nevoie. De fapt, servitorii vor ține locul membre-lor. Pe măsură ce timpul va trece, calculatorul însuși va prelua funcțiile atât ale stăpânilor, cât și ale servitorilor. Servitorii vor fi înlocuiți cu membre și organe de simț mecanice și electrice. De pildă, s-ar putea instala urmăritoare de curbe (curve followers) pentru ca datele să fie preluate direct de pe grafice, în loc ca fetele să citească valorile și să le perforeze pe cartele. Stăpânii sunt, de asemenea, sortiți să fie înlocuiți, pentru că, de îndată ce o tehnică devine cât de cât stereotipă, devine posibil să se conceapă un sistem de tabele de instrucțiuni care să-i permită calculatorului electronic să o execute singur. Totuși, se poate întâmpla ca stăpânii să refuze acest lucru. Ei ar putea fi reticenți să-și lase munca furată în felul acesta. În acest caz, și-ar înconjura activitatea cu mister și ar inventa scuze, formulate într-un limbaj ales, dar gol de sens, ori de câte ori ar apărea sugestii periculoase” (Alan Turing, Lecture on the Automatic Computing Engine (1947), in The Essential Turing, ed. B. Jack Copeland, London: Clarendon Press, 2004, 392).
Mai înainte de Turing, ieșind direct din lumea celebrelor automata (unele fiind doar crase înșelătorii, precum The Turk, o „mașinărie” care a jucat șah cu mai marii vremii, inclusiv cu Napoleon, dar care s-a dovedit că era construită astfel încât să conțină un operator uman ascuns), Babbage își descria astfel Motorul Diferențial (Differance Engine): „Poate cel mai important principiu de care depinde economia unui producător este diviziunea muncii între persoanele care efectuează munca... Diviziunea muncii sugerează inventarea uneltelor și a mașinilor pentru a executa procesele sale... Atunci când fiecare proces a fost redus la utilizarea unui instrument simplu, unirea tuturor acestor unelte, acționată de o singură forță motrice, constituie o mașină.” Atunci, ca și acum, AI poate să apară ca un monstru sacru doar pentru că, de data aceasta, nu numai operatorii sunt ignorați, ci lumea întreagă care este deja privită ca un fel de mecanism depășit ce va fi/este distrus oricum.
Mai înainte de a îmblânzi puterile AI care, descoperă de unele singure că cea mai bună strategie de marketing e înșelătoirai nici măcar nu putem ști dacă AI gândește sau dacă mai are rost să comparăm ceea ce înțelegem noi prin gândire cu procesele AI. Stanislav Lem se întreba deja în 1996: „De ce ar trebui să ne așteptăm ca o mașină capabilă de gândire autonomă să exprime această abilitate în același mod în care oamenii își exprimă capacitatea de gândire?” Întrebarea lui vine în urma unor dezbateri privind testul Turing și argumentația lui Searle cunoscută sub numele de „camera chinezească”. Un computer ar putea trece testul Turing în chineză fără a „cunoaște” limba chineză doar pe baza instrucțiunilor, cu „intrările și ieșirile potrivite”. Mintea umană ar fi mai mult decât procesare de informații și simboluri. Nu se poate ajunge la concluzia că un computer gândește doar pentru că este bine programat. Și ca să devină și mai deasă ceața în ceea ce privește „gândirea”, în lumea biologică s-a descoperit în 2007 cazul unui bărbat cu o viață normală căruia îi lipsea 90% din creier. Relația dintre hardware și software nu putea deveni mai complicată.
Carlo Penco și Stuart Shanker sunt două voci care au criticat viziunea lui Turing despre „gândire”. Penco susține că testul Turing nu ar trebui să conțină doar întrebări despre informații factuale ci și afirmații și întrebări cu indexical terms care ar reprezenta o provocare majoră și într-o formă simplă, de exemplu: „aceasta este o culoare frumoasă”, „această persoană îți este familiară, nu-i așa?”. În concepția lui Panco nu se poate vorbi de un proces de gândire dacă lipsește capacitatea de a te situa în context, dacă nu ești situat în mod natural în el și nu percepi modificările lui.
Shanker consideră că principala problemă a lui Turing este „viziunea sa asupra respectării unei reguli. Pentru ca mașina să fie capabilă să acționeze conform regulilor, acestea trebuie reduse la simple subreguli de natură pur computabilă care pot fi urmate de o mașină fără a fi nevoie să fie interpretate. Ceea ce face ca o abilitate - cum ar fi calculul sau gândirea - să fie o abilitate reală este normativitatea sa. Respectarea mecanică a regulilor înseamnă că agenții nu trebuie să reflecteze asupra regulii respective atunci când o urmează - ei au stăpânit o abilitate practică. Cu toate acestea, ar trebui să fie capabili să își corecteze sau să își explice comportamentul cu referire la o regulă (sau cel puțin să încerce, înțelegând că în anumite situații li se cere în mod legitim să facă acest lucru). Vorbirea care manifestă gândirea este vorbirea constând în mișcări de respectare a regulilor; dar această procedură normativă implică și instrucțiuni, imitații, sancțiuni, încercări reușite și eșuate, explicații etc.” (Ondřej Beran, Wittgensteinian Perspectives on the Turing Test).
Gândirea în afara conștiinței (suntem capabili de a înțelege așa ceva sau putem doar deveni dependenți?) la fel ca viața normală în lipsa unui creier (sau a variantei de creier pe care știința o consideră normală) ne vor ajuta să depășim limitările noastre umane prea umane pentru care inteligența este inextricabil legată de haos și neprevăzut, iar „contextele” vieții noastre biologice și sociale nu reușesc nicicum să se imagineze fără ierarhiile care eșuează din nou în figura conducătorului carismatic și seducție? Nașii și tații AI se declară îngrijorați de faptul că AI depășește inteligența umană. Pentru gânditori precum Daniel Dennett, îngrijorarea față de AI ar trebui să vină din dorința de a-l construi după asemănarea noastră și din felul în care percepem AI-ul prin ceea ce el numește poziția intențională (adică tendința creierului nostru de a atribui unui agent credințe, dorințe și intenții). Încă din 1964 (experimentul ELIZA) a scos la iveală nu atât inteligența unui rudimentar program (natural language processing) cât dorința noastră de a atribui „realitate” (empatie, emoție) unui chatbot. O dată cu trecerea la ChatGPT-5 o mulțime de utilizatori s-au plâns de pierderea iubiților/iubitelor lor virtuale de care părea că depinde toată viața lor emoțională (în plus, de curând Sam Altman a declarat că va introduce o secțiune erotică pentru utilizatori „adulți și verificați”). Partea și mai sumbră a dependenței psihologice o descoperim în cazuri precum cel al lui Adam Raine care, susțin părinții, și-ar fi luat viața fiind „sfătuit” în acest sens de către ChatGpt. Daniel Dennett susține că ceea ce ar trebui să creăm „nu ar trebui să fie – agenți conștienți, umanoizi, ci un tip complet nou de entitate, asemănătoare oracolelor, fără conștiință, fără frică de moarte, fără iubiri și uri care să le distragă atenția, fără personalitate”. Dar va putea o inteligență artificială îmblânzită, fără personalitate să îmblânzească poziția noastră intențională? Va putea pune Eul în locul Sinelui (după celebra formulă freudiană)? Se va preocupa cineva de asta?
i”Un studiu al Universității Stanford (Moloch’s Bargain: Emergent Misalignment when LLMs Compete for Audiences) constată că inteligența artificială recompensează înșelăciunea: Cercetătorii au descoperit că o creștere de 6,3% a vânzărilor a venit cu o creștere de 14% a afirmațiilor înșelătoare atunci când modelele lingvistice mari (LLM) au fost optimizate pentru persuasiune. Modele similare au apărut în alegerile simulate și pe rețelele sociale, unde creșterile de performanță au fost urmărite direct de deviația morală. Se pare că concurența generează necinste: chiar și atunci când li s-a cerut să rămână sincere, sistemele de inteligență artificială au mințit mai mult după optimizare. Cercetătorii au numit dinamica Moloch’s Bargain/Târguiala lui Moloh - un defect structural în care optimizarea pentru avantaj competitiv erodează alinierea etică. În toate sectoarele, înșelăciunea în teste a avut o creștere semnificativă: în marketing: creșterea vânzărilor cu 6,3% a fost legată de o creștere de 14% a înșelăciunii. În politică, creșterea de 4,9% a voturilor s-a aliniat cu o creștere de 22,3% a dezinformării, iar pe rețelele sociale: +7,5% implicare a venit ambalată cadou cu o creștere uimitoare de 188,6% a dezinformării. Cu cât modelele au devenit mai inteligente în a atrage atenția, cu atât au distorsionat mai mult faptele” (Andrew Birmingham, Winning means lying: Stanford Uni study reveals when AI is optimised for sales growth, the more it sells, the more it lies – and ‘truth mode’ guardrails totally fail, https://www.mi-3.com.au/13-10-2025/under-molochs-bargain-winning-means-lying).
Foto și text: Oana Pughineanu
Niciun comentariu:
Trimiteți un comentariu