Dacă
este să dăm crezare noilor teorii legate de meme și inteligența
artificială (artificial intelligence,
AI) putem spune că omenirea trăiește o a doua revoluție
copernicană. Alungarea omului din centrul universului și din
”vârful” evoluției este de data aceasta și mai radicală,
posibil totală. Teoria memelor îi mai lasă, deocamdată, omului
rolul de organism-gazdă. Inteligența artificială, s-ar putea să
i-l ia și pe acesta. După ADN (primul replicator) și cultură (al
doilea replicator), tehnologia pare să preia rolul celui de-al
treilea replicator. Din perspectiva memelor (secvențe de informație
care se autocopiază pe cât de mult posibil) tehnologia este net
superioară omului (să spunem, cu o comparație extrem de slabă, ca
un xerox pe lângă un scrib). În plus, teoria evoluției scapă, în
sfârșit, de orice nuanță antropocentrică. Supraviețuirea celui
mai adaptat nu se realizează conform unui plan ingineresc sau moral.
Autorul Virusului minții,
Richard Brodie subliniază neîncetat propagarea noului cuvânt, cel
puțin de la Dawkins încoace: ”Organismele
care supraviețuiesc nu o fac pentru ca lumea sa devină un loc mai
bun sau mai frumos. O fac doar pentru a se înmulți”. O memă bună
este una eficientă, indiferent că e vorba de copierea ideii de
roată sau răspândirea imaginilor cu hello kitty. Exact ca în
cazul virușilor de pe internet, ea are nevoie doar de gazde și de
mici ”variații” care să o facă și mai ”adaptabilă”/copiabilă.
Din perspectivă memetică evoluția nu pare să fie mai mult decât
o inflație. Superproducția este deja profitul, indiferent de
efectele pe care aceasta o are asupra ”calității vieții”.
Reproducerea ADN-ului este un prim exemplu în acest sens. Conform
interpretărilor lui Noah Harari (în Homo
Sapiens) trecerea la stilul de viață
sedentar, bazat pe agricultură, a dus la o scădere a calității
vieții, dar capcana era perfectă, din moment ce aglomerații tot
mai mari de oameni puteau supraviețui în condiții precare.
Dar
pe lângă memele care nu par să depășească simpla
autoreproducere folosindu-se de varii suporturi, preocupările
oamenilor de știință se îndreaptă spre nașterea unui unicatum,
o nouă superputere, cea a AI. Nick Bostrom în Superinteligența
încearcă o aproximare a viitorului odată ce AI va fi lansată/se
va lansa (posibil în următorii 20-100 ani). Distopiile cu care
ne-au obișnuit Orwell, Huxley sau Zamiatin vor deveni realitate fără
rest (posibilitatea erorii umane e înlăturată într-un ”stat
total” condus de o superinteligență care rulează pe
supersuporturi tehnologice): ”Prin unicatum
înțelegem
o structură politică suficient coordonată intern, fără opozanți
externi”, iar ”ințelepciunea” ei ar consta în faptul că
”este suficient de răbdătoare și de prevăzătoare în materie
de riscuri pentru a putea furniza o cantitate de grijă bine
direcționată către consecințele pe termen lung ale acțiunilor
sistemului”. Deocamdată, modalitățile de a ajunge la AI sunt
extrem de complicate și costisitoare. Le amintim pe scurt: 1.
emularea globală a creierului sau ”uploading”, adică scanarea
totală și detaliată a unui creier care va fi transferată într-un
computer; 2. îmbunătățirea prin modificări genetice a creierelor
umane care este foarte probabil să producă un nou eugenism,
segregări dramatice între elitele manipulate genetic (care se
presupune că vor produce AI) și restul populației; 3. interfețe
computer-creier, și ele, destul de dificil de realizat datorită
”perisabilității” materialului biologic predispus la infecții
și incompatibilități de tot felul; 4. o inteligență colectivă
născută din rețele și organizații și care s-ar presupune că ar
depăși defecte precum ”denaturările birocratice” sau ”jocurile
stupide pentru putere”. În
privința acestei ultime variante, John
Giannandrea, conducătorul departamentul AI al Google avertizează
asupra faptul că sistemele inteligente copiază prejudecățile
umane. O combinație între algoritmi extrem de puternici care
identifică și ”vând” electorate și consumatori în câteva
secunde și biasurile creierului ar face să pălească biopolitica
de secol XX. ”Un exemplu în acest sens este sistemul COMPAS care
calculează probabilitatea ca un inculpat să recidiveze și este
folosit de unii judecători pentru a determina dacă un deținut este
eliberat sau nu. Lucrările COMPAS sunt păstrate în secret, însă
o anchetă realizată de ProPublica
a găsit dovezi că modelul poate fi părtinitor față de minorități
(A
system called COMPAS, made by a company called Northpointe, offers to
predict defendants’ likelihood of reoffending, and is used by some
judges to determine whether an inmate is granted parole. The workings
of COMPAS are kept secret, but an investigation by ProPublica found
evidence that the model may be biased against minorities.
https://www.technologyreview.com/s/608986/forget-killer-robotsbias-is-the-real-ai-danger/)”.
Tehnosociologul Zeynep
Tufekci vorbește tot despre pericolele ascunse în algoritmii extrem
de puternici pe care se bazează rețelele sociale, motoarele de
căutare și chiar piețele. Ei pot ”prezice”, deduce lucruri
umane, prea umane, precum o criză de depresie sau tendințe
suicidare, la fel cum pot manipula ”voința politică” a
internauților.
Privind
această ”cursă pentru crearea unei superinteligențe” vorbele
lui Nietzsche care spunea la un moment dat că în privința
deslușirii omului s-ar putea ca totul să fie o chestiune de
medicină nu poate să ni se pară decât romantic-vitalistă. Mai
degrabă pe o latură pozitivistă, deslușirea omului a devenit o
chestiune de statistică. Deocamdată oamenii mai au un control
asupra mașinilor care manipulează poveștile lumii (chiar dacă
algoritmii sunt deja de neînțeles). El este încă subsumat luptei
stupide pentru putere și profit, dar în cazul lansării unei AI
autonome scenariile sunt greu de imaginat. În
mod involuntar, imaginile viitorului par rupte din scenarii sf.
Practic, o superinteligență autonomă (care se autogenerează și
crește de la un anumit punct fără niciun imput uman) este
imposibil de ”descris”. Care vor fi scopurile unei superputeri
cognitive? Cel puțin răspunsurile lui Nick Bostrom alternează înre
variante soft, care țin cont de problemele umane și horror (fie
extincția speciei, fie detașarea ”indiferentă” de ea). Astfel,
o superinteligență s-ar putea ocupa de "probleme
care nu pot fi rezolvate prin descompunere și care s-ar putea sa
pretindă modalități calitative noi de înțelegere sau noi cadre
reprezentaționale care ar fi prea noi și prea complicate pentru
oamenii zilelor noastre. Anumite tipuri de creație artistică sau
cogniție strategică s-ar putea încadra aici". Sau, în
varianta horror, AI va ”reconfigura resursele terestre și le va
utiliza în orice produs va asigura maximizarea obiectivelor sale”.
Din momentul în care se încearcă interpretarea ”voinței
superinteligente” scenariile sunt contradictorii și uneori
comic-antropomorfe (după modelul comploturilor și loviturilor de
stat) având în vedere că agentul inteligent nu va avea niciun scop
uman. Oricum ar fi, supremația
unei superinteligențe s-ar instala în câteva ore, maxim câteva
săptămâni. Dacă ea nu va fi decât un alt suport pentru meme, cu
siguranță specia umană își va fi încheiat rolul. Nu putem fi
decât poeți încercând să descoperim motivațiile unui IQ de sute
de ori mai mare decât cel uman. În fond, am putea fi salvați doar
dacă scopul ar fi lipsa de scop. Sau dacă oamenii
vor mai putea fi ”organele sexuale ale mașinilor” după cum se
exprima, atât de plastic, McLuhan.
Oana Pughineanu
Niciun comentariu:
Trimiteți un comentariu