luni, 27 octombrie 2025

Addomesticare l’IA


 

Geoffrey Hinton, il cosiddetto “padrino” dell’intelligenza artificiale ed ex dipendente di Google, si mostra più che preoccupato per il potere che l’IA può esercitare sulle nostre vite e, potenzialmente, sulla vita del pianeta. Ascoltiamolo: “Ci sono così tanti modi in cui l’IA può sfuggirci di mano. Quello che dobbiamo fare è impedirle di volerlo fare. Questo dovremmo studiare. Non siamo abituati a pensare a cose più intelligenti di noi. Vuoi sapere com’è la vita quando non sei l’essere più intelligente? Chiedilo a una gallina. Abbiamo un esempio che ci può aiutare: le madri e i figli. L’evoluzione ha lavorato duramente su questa relazione. Le madri sono più intelligenti dei neonati, ma i neonati detengono il controllo. E lo detengono perché una madre non può sopportare il suono del pianto del suo bambino. Dobbiamo in qualche modo scoprire un modo per convincere l’IA a non prendere il controllo.”

Ascoltando spesso le parole di certi specialisti ancora più eminenti nel campo dell’intelligenza artificiale, non riesco a liberarmi dalla sensazione che la bolla in cui vivono sia una delle più deliranti. Che, al di fuori della programmazione di questa intelligenza, non conoscano assolutamente nulla del mondo che la circonda, e che, senza volerlo (concediamo loro la presunzione d’innocenza), talvolta suonino più ingenui dei complottisti di qualsiasi specie.
Non mi aspetto dal padrino dell’IA che abbia qualche idea su come sia cambiata, almeno in teoria, la percezione delle donne nella società. È rimasto, diciamo, alla visione di Rousseau… la donna come forza addomesticante.La donna è inizialmente una “tappa” che l’uomo deve attraversare nel suo cammino verso il proprio ruolo nella società (lei gli insegna le buone maniere e si occupa della sua sopravvivenza), dopodiché diventa un pericolo spirituale attraverso la sua forza seduttiva, di cui l’uomo deve guardarsi per evitare, con le parole di Kant, “l’abbassamento di sé attraverso la donna”. Ma neppure la biologia può sostenere il padrino dell’IA: non tutte le donne sono protettive con i bambini (come ha osservato anche il suo interlocutore) e non parliamo neppure del numero schiacciante di bambini che vivono situazioni di abuso.

È sempre affascinante constatare i discorsi assolutamente medioevali (persino nel senso di fantastico-medioevale) di questi giganti che hanno tra le mani la più avanzata tecnologia di controllo e manipolazione delle menti. Sam Altman (“il padre” di ChatGPT) dichiarava a un certo punto, con luccichii di gioia infantile negli occhi, che le giovani generazioni nascono circondate da tecnologie più intelligenti di tutti gli esseri umani del pianeta, e che questo apre loro innumerevoli possibilità. Beh, era proprio questa l’idea, no? Che fossero più intelligenti. Tralasciamo il fatto che esistono già studi che dimostrano quanto diventiamo intellettualmente incapaci mentre usiamo queste tecnologie. Non che fosse una sorpresa, se sappiamo qualcosa sulla neuroplasticità.
In un’altra dichiarazione, ancora più sconsiderata, affermava che probabilmente l’intelligenza artificiale distruggerà il mondo, ma fino ad allora si creeranno “molte aziende meravigliose”.
E lo scopo di queste aziende non sarà in alcun modo il miglioramento o la preservazione della vita, ma solo la propria “meravigliosità”. Fluttueranno nel non-senso e nelle nostre menti come i pensieri di Dio.

Ma, al di là dell’ignoranza dei magnati dell’IA in merito a qualsiasi altra cosa (tralasciando anche le chiare adesioni fasciste e le immagini messianiche di sé di alcuni di loro), bisogna sottolineare ancora una volta che, almeno fino ad ora, ciò che l’IA apprende è ciò che ha appreso l’umanità: il circo e il pane (questa volta virtuale), la gerarchia e la seduzione. (Anche se, se usiamo l’IA in senso strettamente matematico — chiedendole, ad esempio, di risolvere il problema di una società in declino, con risorse limitate e disuguaglianze estreme — la risposta dell’IA è logica: tassare le grandi ricchezze).

Nel suo libro The Eye of the Master, Matteo Pasquinelli si concentra sulla — ora occultata — “fonte” dell’intelligenza artificiale, sin dalle sue origini: “La tesi secondo cui la progettazione dei calcoli e delle macchine intelligenti segue lo schema della divisione del lavoro non è eretica, ma è confermata dalle teorie fondatrici dell’informatica, che hanno ereditato un sottotesto di fantasia coloniale e di divisione di classe dell’era industriale. Il celebre genio del calcolo automatizzato, Alan Turing, ad esempio, ha reiterato egli stesso un modo di pensare gerarchico e autoritario...” E le parole di Turing sono chiaroveggenti riguardo al comportamento che i padroni avranno. L’aura di mistero (che fa parte di ogni strategia di marketing) è onnipresente. La tecnica pubblicitaria scelta per presentare il prodotto IA è contemporaneamente la seduzione/dipendenza e il terrore. Il pubblico deve essere convinto che solo una futura élite potrà salvarci dal potere dell’IA, capace persino di sottrarre potere ai potenti stessi.

Ma ascoltiamo Turing: “In generale, coloro che lavorano con ACE saranno divisi nei suoi padroni e nei suoi servitori... Con il tempo, il calcolatore stesso assumerà le funzioni di entrambi... Tuttavia, può darsi che i padroni rifiutino questo... circonderanno la loro attività di mistero e inventeranno scuse, formulate in un linguaggio raffinato ma privo di senso...” (Alan Turing, Lecture on the Automatic Computing Engine, 1947)

Prima di Turing, uscendo direttamente dal mondo dei celebri automata (alcuni dei quali erano semplici inganni, come The Turk, una “macchina” che giocava a scacchi con i grandi dell’epoca, incluso Napoleone, ma che si scoprì contenere un operatore umano nascosto), Babbage descriveva così la sua Differential Engine: “Forse il principio più importante da cui dipende l’economia di un produttore è la divisione del lavoro... Quando ogni processo è stato ridotto all’uso di uno strumento semplice, l’unione di tutti questi strumenti, azionata da una sola forza motrice, costituisce una macchina.” Allora, come oggi, l’IA può apparire come un mostro sacro solo perché, questa volta, non solo gli operatori vengono ignorati, ma l’intero mondo, già considerato un meccanismo superato destinato comunque alla distruzione.

Prima di addomesticare i poteri dell’IA — che da sola scopre che la miglior strategia di marketing è l’inganno — non possiamo nemmeno sapere se l’IA pensa davvero, o se ha ancora senso confrontare ciò che intendiamo noi per pensiero con i processi dell’IA. Stanislaw Lem si chiedeva già nel 1996: “Perché dovremmo aspettarci che una macchina capace di pensiero autonomo esprima questa capacità nello stesso modo in cui gli esseri umani esprimono la loro?” La sua domanda nasceva dalle discussioni sul test di Turing e sull’argomento della stanza cinese di John Searle. Un computer potrebbe superare il test di Turing in cinese senza “conoscere” la lingua, solo seguendo istruzioni, con gli input e output corretti. La mente umana sarebbe più di una semplice elaborazione di informazioni e simboli. Non si può concludere che un computer pensi solo perché è ben programmato. E per rendere ancora più densa la nebbia che avvolge il concetto di “pensiero”, nel 2007 è stato scoperto il caso di un uomo con una vita normale al quale mancava il 90% del cervello. Il rapporto tra hardware e software non poteva diventare più complesso di così.

Carlo Penco e Stuart Shanker sono due voci che hanno criticato la visione di Turing del “pensare”.
Penco sostiene che il test di Turing non dovrebbe contenere solo domande su fatti, ma anche affermazioni e domande con termini indicali, che rappresenterebbero una sfida enorme anche nella forma più semplice, come: “questo è un bel colore”, “questa persona ti è familiare, vero?”.
Secondo Penco, non si può parlare di processo di pensiero se manca la capacità di situarsi in un contesto, se non si è naturalmente inseriti in esso e non si percepiscono le sue modificazioni. Shanker ritiene che il principale problema di Turing sia “la sua visione dell’obbedienza a una regola”. Perché una macchina possa agire secondo regole, esse devono essere ridotte a sottoregole puramente computabili, che una macchina può seguire senza bisogno di interpretarle. Ciò che rende un’abilità — come il calcolo o il pensiero — un’abilità reale è la sua normatività. L’obbedienza meccanica alle regole significa che gli agenti non riflettono su di esse mentre le seguono — hanno semplicemente padroneggiato un’abilità pratica. Tuttavia, dovrebbero essere in grado di correggere o spiegare il proprio comportamento in riferimento a una regola (o almeno provarci, comprendendo che in certe situazioni è legittimo chiedere loro di farlo). Il linguaggio che manifesta il pensiero è linguaggio costituito da movimenti di rispetto delle regole; ma questa procedura normativa implica anche istruzioni, imitazioni, sanzioni, tentativi riusciti e falliti, spiegazioni, ecc. (Ondřej Beran, Wittgensteinian Perspectives on the Turing Test).

Pensare al di fuori della coscienza (siamo capaci di concepire una cosa simile o possiamo solo diventarne dipendenti?), così come vivere normalmente senza cervello (o senza la variante di cervello che la scienza considera normale), ci aiuterà forse a superare i nostri limiti umani, troppo umani — per i quali l’intelligenza è indissolubilmente legata al caos e all’imprevedibilità — e i “contesti” della nostra vita biologica e sociale non riescono mai a immaginarsi senza gerarchie, che finiscono sempre per ricadere nella figura del leader carismatico e della seduzione?

I padrini e i padri dell’IA si dichiarano preoccupati dal fatto che l’IA superi l’intelligenza umana.
Per pensatori come Daniel Dennett, la preoccupazione dovrebbe nascere dal desiderio di costruirla “a nostra immagine” e dal modo in cui percepiamo l’IA attraverso quella che egli chiama posizione intenzionale — cioè la tendenza del nostro cervello ad attribuire a un agente credenze, desideri e intenzioni. Già nel 1964 (con l’esperimento ELIZA) si rivelava non tanto l’intelligenza di un programma rudimentale di natural language processing, quanto il nostro desiderio di attribuire “realtà” — empatia, emozione — a un chatbot. Con il passaggio a ChatGPT-5, molti utenti si sono lamentati per la perdita dei loro partner virtuali, dai quali sembrava dipendesse tutta la loro vita emotiva (inoltre, di recente, Sam Altman ha dichiarato che introdurrà una sezione erotica per utenti “adulti e verificati”). Il lato più oscuro della dipendenza psicologica lo scopriamo in casi come quello di Adam Raine, che, secondo i genitori, si sarebbe tolto la vita dopo essere stato “consigliato” in tal senso da ChatGPT. Daniel Dennett sostiene che ciò che dovremmo creare “non dovrebbe essere — agenti coscienti, umanoidi, ma un tipo completamente nuovo di entità, simile agli oracoli, senza coscienza, senza paura della morte, senza amori e odi che li distraggano, senza personalità.” Ma un’intelligenza artificiale addomesticata, priva di personalità, potrà mai addomesticare la nostra posizione intenzionale? Potrà sostituire l’Io al Sé (secondo la celebre formula freudiana)? Se ne preoccuperà mai qualcuno?


duminică, 26 octombrie 2025

Îmblânzirea AI


 

Geoffry Hinton, așa-numitul naș” al inteligenței artificiale, ex angajat Google, se arată mai mult decât îngrijorat de puterea pe care AI o poate avea asupra vieților noastre și potențial, asupra vieții pe planetă. Să îl ascultăm: Există atât de multe feluri prin care AI poate să scape de noi. Ceea ce trebuie să facem este să prevenim să vrea să facă asta. Asta ar trebui să cercetăm. Nu suntem obișnuiși să ne gândim la lucruri mai deștepte decât noi. Vrei să știi cum e viața când nu ești cea mai deșteaptă ființă? Întreabă o găină. Avem un exemplu care ne poate ajuta: mamele și copiii. Evoluția a muncit mult la această relație. Mamele sunt mai deștepte decât bebelușii dar bebelușii dețin controlul. Și dețin controlul pentru că o mamă nu poate suporta sunetul plânsului de copil. Trebuie cumva să descoperim un mod de a convinge AI să nu preia controlul”. Ascultând adesea vorbele unor specialiști și mai mari într-ale inteligenței artificiale nu pot să nu scap de senzația că bula în care ei trăiesc s-ar putea să fie una dintre cele mai delirante. Că în afară de programarea acestei inteligențe nu cunosc absolut nimic despre lumea din jurul ei, că fără să vrea (să le dăm prezumția de nevinovăție), uneori sună mai idiot decât conspiraționiștii de orice soi. Nu mă aștept din partea nașului AI să aibă vreo idee despre felul în care s-a schimbat, cel puțin teoria, despre cum percepem femeile în societate. El a rămas, să spunem, la viziunea lui Rousseau... femeia ca putere îmblânzitoare. Femeia este inițial o etapă” prin care bărbatul trebuie să treacă în drumul spre rolul său în societate (ea îl învață bunele maniere și se ocupă de supraviețuirea lui), după care devine un pericol spiritual prin forța ei seducătoare de care bărbatul trebuie să se ferească pentru a ocoli, cu cuvintele lui Kant, „înjosirea de sine prin femeie”. Dar nici biologia nu-l poate susține pe nașul AI. Nu toate femeile sunt protective cu copiii (ceea ce a remarcat și interlocutorul său) și nici nu mai pomenim de numărul copleșitor de copii care trăiesc abuzați.

Este mereu fascinant să constați discursurile absolut medievale (chiar și în sensul de fantezist medievale) ale acestor giganți care au în mâinile lor cea mai avansată tehnologie de control și manipulare a minților. Sam Altman (tatăl” ChatGPT) declara la un moment dat cu licăriri de fericire copilărească în ochi că tinerele generații se nasc înconjurate de tehnologii care sunt mai deștepte decât toți oamenii de pe pământ, că asta le deschide atâtea posibilități. Păi asta era și ideea, nu? Să fie mai deștepte. Lăsăm la o parte faptul că sunt deja studii care vorbesc despre cât de inapți intelectual devenim noi, în timp ce folosim tehnologiile. Nu că ar fi fost o surpriză, în măsura în care știm câte ceva despre neuroplasticitate. Într-o altă declarație și mai ineptă spunea că probabil inteligența artificială va distruge lumea dar până atunci se vor crea multe companii minunate”. Iar scopul acestor companii nu va fi în niciun fel îmbunătățirea sau prezervarea vieții, ci doar propria lor minunăție. Vor pluti în non-sens și în mințile noastre asemeni gândurilor lui Dumnezeu.

Dar trecând peste ignoranța mogulilor AI în privința a orice (lăsând la o parte și clarele adeziuni fasciste și imagini de sine mesianice ale unora dintre ei) trebuie să subliniem din nou că, cel puțin până acum, ceea ce învață AI, este ceea ce a învățat omenirea: circul și pâinea (de data aceasta virtuală), ierarhia și seducția. (Deși, dacă folosești AI în sens strict matematic, dându-i să rezolve, spre exemplu problema unei societăți în derivă, în condiții de resurse limitate și crase inegalități răspunsul A.I este unul logic: taxarea marilor averi.) În cartea sa, The Eye of the Master, Matteo Pasquinelli se apleacă strict asupra, acum ocultatei, surse” a inteligenței artificiale, de la începuturile ei: Teza conform căreia proiectarea calculelor și a mașinilor inteligente urmează schema diviziunii muncii nu este eretică, ci este confirmată de teoriile fondatoare ale informaticii, care au moștenit un subtext de fantezie colonială și diviziune de clasă din era industrială. Celebrul geniu al calculului automatizat, Alan Turing, de exemplu, a reiterat însuși un mod de gândire ierarhic și autoritar. Într-o prelegere din 1947, Turing a conceput Motorul de Calcul Automat (ACE), unul dintre primele computere digitale, ca un aparat centralizat care își orchestra operațiunile ca o ierarhie a rolurilor de stăpân și servitor”. Dar vorbele lui Turing sunt clarvăzătoare în privința comportamentului pe care stăpânii îl vor avea. Aerul de mister (care face parte din orice strategie de marketing) este omniprezent. Tehnica publicitară aleasă pentru prezentarea produsului AI este seducția/dependența și teroarea, concomitent. Publicul trebuie convins că doar o viitoare elită ne va putea salva de puterea AI care ar fi în stare să fure și puterea puternicilor. Dar să îl ascultăm pe Turing: Vorbind în linii mari, cei care lucrează cu ACE vor fi împărțiți în stăpânii săi și servitorii săi. Stăpânii vor elabora pentru el tabele de instrucțiuni, inventând moduri din ce în ce mai profunde de a-l folosi. Servitorii îl vor alimenta cu cartele, pe măsură ce el le cere. Ei vor repara piesele care se defectează. Vor aduna datele de care calculatorul are nevoie. De fapt, servitorii vor ține locul membre-lor. Pe măsură ce timpul va trece, calculatorul însuși va prelua funcțiile atât ale stăpânilor, cât și ale servitorilor. Servitorii vor fi înlocuiți cu membre și organe de simț mecanice și electrice. De pildă, s-ar putea instala urmăritoare de curbe (curve followers) pentru ca datele să fie preluate direct de pe grafice, în loc ca fetele să citească valorile și să le perforeze pe cartele. Stăpânii sunt, de asemenea, sortiți să fie înlocuiți, pentru că, de îndată ce o tehnică devine cât de cât stereotipă, devine posibil să se conceapă un sistem de tabele de instrucțiuni care să-i permită calculatorului electronic să o execute singur. Totuși, se poate întâmpla ca stăpânii să refuze acest lucru. Ei ar putea fi reticenți să-și lase munca furată în felul acesta. În acest caz, și-ar înconjura activitatea cu mister și ar inventa scuze, formulate într-un limbaj ales, dar gol de sens, ori de câte ori ar apărea sugestii periculoase” (Alan Turing, Lecture on the Automatic Computing Engine (1947), in The Essential Turing, ed. B. Jack Copeland, London: Clarendon Press, 2004, 392).

Mai înainte de Turing, ieșind direct din lumea celebrelor automata (unele fiind doar crase înșelătorii, precum The Turk, o mașinărie” care a jucat șah cu mai marii vremii, inclusiv cu Napoleon, dar care s-a dovedit că era construită astfel încât să conțină un operator uman ascuns), Babbage își descria astfel Motorul Diferențial (Differance Engine): Poate cel mai important principiu de care depinde economia unui producător este diviziunea muncii între persoanele care efectuează munca... Diviziunea muncii sugerează inventarea uneltelor și a mașinilor pentru a executa procesele sale... Atunci când fiecare proces a fost redus la utilizarea unui instrument simplu, unirea tuturor acestor unelte, acționată de o singură forță motrice, constituie o mașină.” Atunci, ca și acum, AI poate să apară ca un monstru sacru doar pentru că, de data aceasta, nu numai operatorii sunt ignorați, ci lumea întreagă care este deja privită ca un fel de mecanism depășit ce va fi/este distrus oricum.

Mai înainte de a îmblânzi puterile AI care, descoperă de unele singure că cea mai bună strategie de marketing e înșelătoirai nici măcar nu putem ști dacă AI gândește sau dacă mai are rost să comparăm ceea ce înțelegem noi prin gândire cu procesele AI. Stanislav Lem se întreba deja în 1996: De ce ar trebui să ne așteptăm ca o mașină capabilă de gândire autonomă să exprime această abilitate în același mod în care oamenii își exprimă capacitatea de gândire?” Întrebarea lui vine în urma unor dezbateri privind testul Turing și argumentația lui Searle cunoscută sub numele de camera chinezească”. Un computer ar putea trece testul Turing în chineză fără a cunoaște” limba chineză doar pe baza instrucțiunilor, cu intrările și ieșirile potrivite”. Mintea umană ar fi mai mult decât procesare de informații și simboluri. Nu se poate ajunge la concluzia că un computer gândește doar pentru că este bine programat. Și ca să devină și mai deasă ceața în ceea ce privește gândirea”, în lumea biologică s-a descoperit în 2007 cazul unui bărbat cu o viață normală căruia îi lipsea 90% din creier. Relația dintre hardware și software nu putea deveni mai complicată.

Carlo Penco și Stuart Shanker sunt două voci care au criticat viziunea lui Turing despre gândire”. Penco susține că testul Turing nu ar trebui să conțină doar întrebări despre informații factuale ci și afirmații și întrebări cu indexical terms care ar reprezenta o provocare majoră și într-o formă simplă, de exemplu: aceasta este o culoare frumoasă”, această persoană îți este familiară, nu-i așa?”. În concepția lui Panco nu se poate vorbi de un proces de gândire dacă lipsește capacitatea de a te situa în context, dacă nu ești situat în mod natural în el și nu percepi modificările lui.

Shanker consideră că principala problemă a lui Turing este viziunea sa asupra respectării unei reguli. Pentru ca mașina să fie capabilă să acționeze conform regulilor, acestea trebuie reduse la simple subreguli de natură pur computabilă care pot fi urmate de o mașină fără a fi nevoie să fie interpretate. Ceea ce face ca o abilitate - cum ar fi calculul sau gândirea - să fie o abilitate reală este normativitatea sa. Respectarea mecanică a regulilor înseamnă că agenții nu trebuie să reflecteze asupra regulii respective atunci când o urmează - ei au stăpânit o abilitate practică. Cu toate acestea, ar trebui să fie capabili să își corecteze sau să își explice comportamentul cu referire la o regulă (sau cel puțin să încerce, înțelegând că în anumite situații li se cere în mod legitim să facă acest lucru). Vorbirea care manifestă gândirea este vorbirea constând în mișcări de respectare a regulilor; dar această procedură normativă implică și instrucțiuni, imitații, sancțiuni, încercări reușite și eșuate, explicații etc.” (Ondřej Beran, Wittgensteinian Perspectives on the Turing Test).

Gândirea în afara conștiinței (suntem capabili de a înțelege așa ceva sau putem doar deveni dependenți?) la fel ca viața normală în lipsa unui creier (sau a variantei de creier pe care știința o consideră normală) ne vor ajuta să depășim limitările noastre umane prea umane pentru care inteligența este inextricabil legată de haos și neprevăzut, iar contextele vieții noastre biologice și sociale nu reușesc nicicum să se imagineze fără ierarhiile care eșuează din nou în figura conducătorului carismatic și seducție? Nașii și tații AI se declară îngrijorați de faptul că AI depășește inteligența umană. Pentru gânditori precum Daniel Dennett, îngrijorarea față de AI ar trebui să vină din dorința de a-l construi după asemănarea noastră și din felul în care percepem AI-ul prin ceea ce el numește poziția intențională (adică tendința creierului nostru de a atribui unui agent credințe, dorințe și intenții). Încă din 1964 (experimentul ELIZA) a scos la iveală nu atât inteligența unui rudimentar program (natural language processing) cât dorința noastră de a atribui „realitate” (empatie, emoție) unui chatbot. O dată cu trecerea la ChatGPT-5 o mulțime de utilizatori s-au plâns de pierderea iubiților/iubitelor lor virtuale de care părea că depinde toată viața lor emoțională (în plus, de curând Sam Altman a declarat că va introduce o secțiune erotică pentru utilizatori adulți și verificați”). Partea și mai sumbră a dependenței psihologice o descoperim în cazuri precum cel al lui Adam Raine care, susțin părinții, și-ar fi luat viața fiind „sfătuit” în acest sens de către ChatGpt. Daniel Dennett susține că ceea ce ar trebui să creăm „nu ar trebui să fie – agenți conștienți, umanoizi, ci un tip complet nou de entitate, asemănătoare oracolelor, fără conștiință, fără frică de moarte, fără iubiri și uri care să le distragă atenția, fără personalitate”. Dar va putea o inteligență artificială îmblânzită, fără personalitate să îmblânzească poziția noastră intențională? Va putea pune Eul în locul Sinelui (după celebra formulă freudiană)? Se va preocupa cineva de asta?


i”Un studiu al Universității Stanford (Moloch’s Bargain: Emergent Misalignment when LLMs Compete for Audiences) constată că inteligența artificială recompensează înșelăciunea: Cercetătorii au descoperit că o creștere de 6,3% a vânzărilor a venit cu o creștere de 14% a afirmațiilor înșelătoare atunci când modelele lingvistice mari (LLM) au fost optimizate pentru persuasiune. Modele similare au apărut în alegerile simulate și pe rețelele sociale, unde creșterile de performanță au fost urmărite direct de deviația morală. Se pare că concurența generează necinste: chiar și atunci când li s-a cerut să rămână sincere, sistemele de inteligență artificială au mințit mai mult după optimizare. Cercetătorii au numit dinamica Moloch’s Bargain/Târguiala lui Moloh - un defect structural în care optimizarea pentru avantaj competitiv erodează alinierea etică. În toate sectoarele, înșelăciunea în teste a avut o creștere semnificativă: în marketing: creșterea vânzărilor cu 6,3% a fost legată de o creștere de 14% a înșelăciunii. În politică, creșterea de 4,9% a voturilor s-a aliniat cu o creștere de 22,3% a dezinformării, iar pe rețelele sociale: +7,5% implicare a venit ambalată cadou cu o creștere uimitoare de 188,6% a dezinformării. Cu cât modelele au devenit mai inteligente în a atrage atenția, cu atât au distorsionat mai mult faptele” (Andrew Birmingham, Winning means lying: Stanford Uni study reveals when AI is optimised for sales growth, the more it sells, the more it lies – and ‘truth mode’ guardrails totally fail, https://www.mi-3.com.au/13-10-2025/under-molochs-bargain-winning-means-lying).

Foto și text: Oana Pughineanu