Geoffrey Hinton, il cosiddetto “padrino” dell’intelligenza artificiale ed ex dipendente di Google, si mostra più che preoccupato per il potere che l’IA può esercitare sulle nostre vite e, potenzialmente, sulla vita del pianeta. Ascoltiamolo: “Ci sono così tanti modi in cui l’IA può sfuggirci di mano. Quello che dobbiamo fare è impedirle di volerlo fare. Questo dovremmo studiare. Non siamo abituati a pensare a cose più intelligenti di noi. Vuoi sapere com’è la vita quando non sei l’essere più intelligente? Chiedilo a una gallina. Abbiamo un esempio che ci può aiutare: le madri e i figli. L’evoluzione ha lavorato duramente su questa relazione. Le madri sono più intelligenti dei neonati, ma i neonati detengono il controllo. E lo detengono perché una madre non può sopportare il suono del pianto del suo bambino. Dobbiamo in qualche modo scoprire un modo per convincere l’IA a non prendere il controllo.”
Ascoltando spesso le parole di certi specialisti ancora più
eminenti nel campo dell’intelligenza artificiale, non riesco a
liberarmi dalla sensazione che la bolla in cui vivono sia una delle
più deliranti. Che, al di fuori della programmazione di questa
intelligenza, non conoscano assolutamente nulla del mondo che la
circonda, e che, senza volerlo (concediamo loro la presunzione
d’innocenza), talvolta suonino più ingenui dei complottisti di
qualsiasi specie.
Non mi aspetto dal padrino dell’IA che abbia
qualche idea su come sia cambiata, almeno in teoria, la percezione
delle donne nella società. È rimasto, diciamo, alla visione di
Rousseau… la donna come forza addomesticante.La donna è
inizialmente una “tappa” che l’uomo deve attraversare nel suo
cammino verso il proprio ruolo nella società (lei gli insegna le
buone maniere e si occupa della sua sopravvivenza), dopodiché
diventa un pericolo spirituale attraverso la sua forza seduttiva, di
cui l’uomo deve guardarsi per evitare, con le parole di Kant,
“l’abbassamento di sé attraverso la donna”. Ma neppure la
biologia può sostenere il padrino dell’IA: non tutte le donne sono
protettive con i bambini (come ha osservato anche il suo
interlocutore) e non parliamo neppure del numero schiacciante di
bambini che vivono situazioni di abuso.
È sempre affascinante constatare i discorsi assolutamente
medioevali (persino nel senso di fantastico-medioevale) di questi
giganti che hanno tra le mani la più avanzata tecnologia di
controllo e manipolazione delle menti. Sam Altman (“il padre” di
ChatGPT) dichiarava a un certo punto, con luccichii di gioia
infantile negli occhi, che le giovani generazioni nascono circondate
da tecnologie più intelligenti di tutti gli esseri umani del
pianeta, e che questo apre loro innumerevoli possibilità. Beh, era
proprio questa l’idea, no? Che fossero più intelligenti.
Tralasciamo il fatto che esistono già studi che dimostrano quanto
diventiamo intellettualmente incapaci mentre usiamo queste
tecnologie. Non che fosse una sorpresa, se sappiamo qualcosa sulla
neuroplasticità.
In un’altra dichiarazione, ancora più
sconsiderata, affermava che probabilmente l’intelligenza
artificiale distruggerà il mondo, ma fino ad allora si creeranno
“molte aziende meravigliose”.
E lo scopo di queste aziende
non sarà in alcun modo il miglioramento o la preservazione della
vita, ma solo la propria “meravigliosità”. Fluttueranno nel
non-senso e nelle nostre menti come i pensieri di Dio.
Ma, al di là dell’ignoranza dei magnati dell’IA in merito a qualsiasi altra cosa (tralasciando anche le chiare adesioni fasciste e le immagini messianiche di sé di alcuni di loro), bisogna sottolineare ancora una volta che, almeno fino ad ora, ciò che l’IA apprende è ciò che ha appreso l’umanità: il circo e il pane (questa volta virtuale), la gerarchia e la seduzione. (Anche se, se usiamo l’IA in senso strettamente matematico — chiedendole, ad esempio, di risolvere il problema di una società in declino, con risorse limitate e disuguaglianze estreme — la risposta dell’IA è logica: tassare le grandi ricchezze).
Nel suo libro The Eye of the Master, Matteo Pasquinelli si concentra sulla — ora occultata — “fonte” dell’intelligenza artificiale, sin dalle sue origini: “La tesi secondo cui la progettazione dei calcoli e delle macchine intelligenti segue lo schema della divisione del lavoro non è eretica, ma è confermata dalle teorie fondatrici dell’informatica, che hanno ereditato un sottotesto di fantasia coloniale e di divisione di classe dell’era industriale. Il celebre genio del calcolo automatizzato, Alan Turing, ad esempio, ha reiterato egli stesso un modo di pensare gerarchico e autoritario...” E le parole di Turing sono chiaroveggenti riguardo al comportamento che i padroni avranno. L’aura di mistero (che fa parte di ogni strategia di marketing) è onnipresente. La tecnica pubblicitaria scelta per presentare il prodotto IA è contemporaneamente la seduzione/dipendenza e il terrore. Il pubblico deve essere convinto che solo una futura élite potrà salvarci dal potere dell’IA, capace persino di sottrarre potere ai potenti stessi.
Ma ascoltiamo Turing: “In generale, coloro che lavorano con ACE saranno divisi nei suoi padroni e nei suoi servitori... Con il tempo, il calcolatore stesso assumerà le funzioni di entrambi... Tuttavia, può darsi che i padroni rifiutino questo... circonderanno la loro attività di mistero e inventeranno scuse, formulate in un linguaggio raffinato ma privo di senso...” (Alan Turing, Lecture on the Automatic Computing Engine, 1947)
Prima di Turing, uscendo direttamente dal mondo dei celebri automata (alcuni dei quali erano semplici inganni, come The Turk, una “macchina” che giocava a scacchi con i grandi dell’epoca, incluso Napoleone, ma che si scoprì contenere un operatore umano nascosto), Babbage descriveva così la sua Differential Engine: “Forse il principio più importante da cui dipende l’economia di un produttore è la divisione del lavoro... Quando ogni processo è stato ridotto all’uso di uno strumento semplice, l’unione di tutti questi strumenti, azionata da una sola forza motrice, costituisce una macchina.” Allora, come oggi, l’IA può apparire come un mostro sacro solo perché, questa volta, non solo gli operatori vengono ignorati, ma l’intero mondo, già considerato un meccanismo superato destinato comunque alla distruzione.
Prima di addomesticare i poteri dell’IA — che da sola scopre che la miglior strategia di marketing è l’inganno — non possiamo nemmeno sapere se l’IA pensa davvero, o se ha ancora senso confrontare ciò che intendiamo noi per pensiero con i processi dell’IA. Stanislaw Lem si chiedeva già nel 1996: “Perché dovremmo aspettarci che una macchina capace di pensiero autonomo esprima questa capacità nello stesso modo in cui gli esseri umani esprimono la loro?” La sua domanda nasceva dalle discussioni sul test di Turing e sull’argomento della stanza cinese di John Searle. Un computer potrebbe superare il test di Turing in cinese senza “conoscere” la lingua, solo seguendo istruzioni, con gli input e output corretti. La mente umana sarebbe più di una semplice elaborazione di informazioni e simboli. Non si può concludere che un computer pensi solo perché è ben programmato. E per rendere ancora più densa la nebbia che avvolge il concetto di “pensiero”, nel 2007 è stato scoperto il caso di un uomo con una vita normale al quale mancava il 90% del cervello. Il rapporto tra hardware e software non poteva diventare più complesso di così.
Carlo Penco e Stuart Shanker sono due voci che hanno criticato la
visione di Turing del “pensare”.
Penco sostiene che il test
di Turing non dovrebbe contenere solo domande su fatti, ma anche
affermazioni e domande con termini indicali, che
rappresenterebbero una sfida enorme anche nella forma più semplice,
come: “questo è un bel colore”, “questa persona ti è
familiare, vero?”.
Secondo Penco, non si può parlare di
processo di pensiero se manca la capacità di situarsi in un
contesto, se non si è naturalmente inseriti in esso e non si
percepiscono le sue modificazioni. Shanker ritiene che il principale
problema di Turing sia “la sua visione dell’obbedienza a una
regola”. Perché una macchina possa agire secondo regole, esse
devono essere ridotte a sottoregole puramente computabili, che una
macchina può seguire senza bisogno di interpretarle. Ciò che
rende un’abilità — come il calcolo o il pensiero — un’abilità
reale è la sua normatività. L’obbedienza meccanica alle regole
significa che gli agenti non riflettono su di esse mentre le seguono
— hanno semplicemente padroneggiato un’abilità pratica.
Tuttavia, dovrebbero essere in grado di correggere o spiegare il
proprio comportamento in riferimento a una regola (o almeno provarci,
comprendendo che in certe situazioni è legittimo chiedere loro di
farlo). Il linguaggio che manifesta il pensiero è linguaggio
costituito da movimenti di rispetto delle regole; ma questa procedura
normativa implica anche istruzioni, imitazioni, sanzioni, tentativi
riusciti e falliti, spiegazioni, ecc. (Ondřej Beran,
Wittgensteinian Perspectives on the Turing Test).
Pensare al di fuori della coscienza (siamo capaci di concepire una cosa simile o possiamo solo diventarne dipendenti?), così come vivere normalmente senza cervello (o senza la variante di cervello che la scienza considera normale), ci aiuterà forse a superare i nostri limiti umani, troppo umani — per i quali l’intelligenza è indissolubilmente legata al caos e all’imprevedibilità — e i “contesti” della nostra vita biologica e sociale non riescono mai a immaginarsi senza gerarchie, che finiscono sempre per ricadere nella figura del leader carismatico e della seduzione?
I padrini e i padri dell’IA si dichiarano preoccupati dal fatto
che l’IA superi l’intelligenza umana.
Per pensatori come
Daniel Dennett, la preoccupazione dovrebbe nascere dal desiderio di
costruirla “a nostra immagine” e dal modo in cui percepiamo l’IA
attraverso quella che egli chiama posizione intenzionale —
cioè la tendenza del nostro cervello ad attribuire a un agente
credenze, desideri e intenzioni. Già nel 1964 (con l’esperimento
ELIZA) si rivelava non tanto l’intelligenza di un programma
rudimentale di natural language processing, quanto il nostro
desiderio di attribuire “realtà” — empatia, emozione — a un
chatbot. Con il passaggio a ChatGPT-5, molti utenti si sono lamentati
per la perdita dei loro partner virtuali, dai quali sembrava
dipendesse tutta la loro vita emotiva (inoltre, di recente, Sam
Altman ha dichiarato che introdurrà una sezione erotica per utenti
“adulti e verificati”). Il lato più oscuro della dipendenza
psicologica lo scopriamo in casi come quello di Adam Raine, che,
secondo i genitori, si sarebbe tolto la vita dopo essere stato
“consigliato” in tal senso da ChatGPT. Daniel Dennett sostiene
che ciò che dovremmo creare “non dovrebbe essere — agenti
coscienti, umanoidi, ma un tipo completamente nuovo di entità,
simile agli oracoli, senza coscienza, senza paura della morte, senza
amori e odi che li distraggano, senza personalità.” Ma
un’intelligenza artificiale addomesticata, priva di personalità,
potrà mai addomesticare la nostra posizione intenzionale? Potrà
sostituire l’Io al Sé (secondo la celebre formula freudiana)? Se
ne preoccuperà mai qualcuno?