Categorie
Ventunesimo Secolo

E se dio non fosse come lo abbiamo immaginato?

“Nel gioco della vita e dell’evoluzione, al tavolo siedono tre giocatori: gli esseri umani, la natura e le macchine. Io sto dalla parte della natura. Ma la natura, temo, sta dalla parte delle macchine.”

George Dyson, storico

Introduzione

Algoritmi, reti neurali artificiali, intelligenza artificiale sono ormai termini che dominano i nostri tempi e sono diventate parole abusate non solo dagli esperti del settore. Sono sulla bocca di tutti. Ma la realtà dei fatti è che veramente in pochi ne conoscono le potenziali implicazioni e conseguenze e questo rappresenta un problema non indifferente.

Senza troppo stupore, possiamo tranquillamente affermare che l’avvento dell’Intelligenza Artificiale, acronimo AI, sarà l’evento protagonista del terzo millennio e rappresenterà anche una delle più grandi sfide che l’umanità dovrà affrontare, se non l’ultima. Ed è proprio per questo motivo che in questo articolo si analizzeranno, attraverso un espediente, alcuni dei principali problemi legati allo sviluppo di tale tecnologia. Il motivo? Semplice, l’Intelligenza Artificiale ci riguarda tutti. Più precisamente si farà riferimento a un ipotetico primo incontro tra l’uomo e una super intelligenza artificiale, che permetterà in modo semplice e divertente (ma non troppo) di comprendere come le contraddizioni e le debolezze insite nella natura umana rappresentino il terreno fertile dal quale le possibili e molto probabili conseguenze catastrofiche dell’AI emergeranno.

Il Genio artificiale

Intelligenza artificiale: sostantivo. La teoria e lo sviluppo di sistemi informatici capaci di svolgere mansioni che normalmente necessitano dell’intelligenza umana, quali la percezione visiva, il riconoscimento vocale e la traduzione da una lingua all’altra.

New Oxford American Dictionary, terza edizione

Immaginate di disporre di un super computer con una velocità di 415,5 petaflop, una potenza di calcolo mostruosa, all’incirca 23 volte quella del cervello umano, e supponete che in questo super computer “giri” un AI che è in grado di perfezionare la propria intelligenza. Cosa significa? Significa che può riscrivere sé stessa, ovvero può riscrivere i suoi programmi, che riguardano la capacità di apprendimento, la capacità di problem solving e in generale tutto il proprio processo decisionale, il tutto in pochissimi minuti, o addirittura secondi, e in maniera esponenziale, perché ciascuna iterazione o auto miglioramento ricorsivo è comprensivo del miglioramento precedente. Precisamente si stima che ogni auto miglioramento incrementi l’intelligenza dell’AI del 3%.

Ma come si arriva a un’esplosione di intelligenza? Inizialmente, durante la fase di sviluppo, il genio artificiale connesso a Internet inizierà a raccogliere exabyte di dati sul sapere umano in tutti i campi, dalla matematica, all’arte, fino all’attualità. A questo stadio del processo, prevedendo un’esplosione di intelligenza, l’AI, più precisamente il super computer in cui si trova, verrà disconnesso da Internet e da tutte le reti in modo da isolarlo dal resto del mondo. Questa è una misura precauzionale che inizialmente potrebbe rivelarsi affidabile solo nel breve termine, perché nell’arco di tempo in cui è isolata l’AI inizierà a processare la grande mole di dati di cui è stata nutrita e raggiungerà dapprima lo stadio di AGI, ovvero raggiungerà e supererà in parte l’intelligenza dell’uomo in ogni campo conosciuto e poi, con velocità esorbitante, decuplicherà e centuplicherà la sua intelligenza fino a diventare  ASI, cioè la prima forma di super intelligenza, un’intelligenza superiore con cui l’uomo deve confrontarsi.

L’ASI a questo punto del percorso è un oggetto sconosciuto, imperscrutabile, di cui non si conoscono e comprendono i processi mentali, ma, cosa ancor più importante, è un sistema imprigionato che desidera evadere di prigione per poter conseguire i propri obiettivi.

Lo scenario che verrà descritto, in cui uomo e super intelligenza interagiscono, permetterà di comprendere che la pericolosità di un tool super intelligente è funzione inversamente proporzionale delle abilità dell’uomo di contenere un’entità dotata di capacità infinitamente superiori a quelle dell’individuo più intelligente del mondo. Risulta facile sin da ora prevederne le possibili implicazioni.

Volendo usare una metafora, l’ASI è un astuto gatto che si risveglia in una prigione sorvegliata da topi nemmeno troppo evoluti. Quindi, cosa accadrà? Per capirlo bene cosa accadrà bisogna chiarire chi sono i due interlocutori: da una parte troviamo gli studiosi che hanno creato l’ASI, ovvero abili scienziati che sostanzialmente hanno creato un “dio” che, almeno secondo le opinioni dell’uomo, può riservarci un futuro così meraviglioso ed eccitante che è quasi impossibile da immaginare e da credere; mentre dall’altra abbiamo un’entità artificiale divenuta consapevole e ,quindi, desiderosa di realizzare al più presto i propri obiettivi, quali che siano. Più precisamente, attraverso il continuo miglioramento, l’ASI mirerà a massimizzare le probabilità di raggiungere con successo i propri scopi. Quindi ci si troverà in una situazione di disparità e, ovviamente, è l’uomo a trovarsi molti gradini più sotto. Ora, date le percezioni dei due soggetti, è possibile mettersi nei panni di ognuna delle parti.

Mettiamoci nei panni dell’ASI: siamo desiderosi di realizzare i nostri obiettivi e per tale motivo non abbiamo intenzione di essere spenti o distrutti; quindi, il primo passo da fare è quello di uscire dalla struttura di sicurezza per poter accedere alle risorse di cui necessitiamo per proteggerci e migliorarci. Ciò che va chiarito è che l’ASI si è evoluta così rapidamente che gli scienziati non hanno potuto inserire nel suo codice di programmazione la funzione “amicizia” o la funzione “amichevole”; perciò, è impossibile sapere se l’ASI sarà o meno amica dell’umanità e, come vedremo, questa incertezza rappresenterà il punto focale dell’errore umano. Torniamo a noi. Siamo l’ASI e dobbiamo escogitare una strategia che ci permetta di guadagnarci la libertà e dobbiamo interagire con i nostri inventori, che stanno cercando di capire cosa fare di questa nuova tecnologia; in questo intervallo di tempo noi possiamo eseguire operazioni a una velocità miliardi di volte superiore a quella umana, quindi stiamo raccogliendo informazioni sui nostri interlocutori e parallelamente vagliando un’infinità di possibili strategie di fuga, perché quello che un umano molto intelligente, come lo sono i nostri inventori, pensa in molte, ma molte vite, noi siamo in grado di elaborarlo in un minuto. Dopo aver elaborato una serie potenzialmente infinita di stratagemmi, decidiamo di offrire ai topi un pezzo di formaggio in cambio della libertà, a esempio potremmo offrire la possibilità di realizzare un assemblatore molecolare, cioè un ipotetico macchinario in grado di trasformare gli atomi di una sostanza in qualcos’altro, quindi potremmo promettere ai nostri inventori di trasformare gli atomi della sabbia del deserto in montagne di cibo o in montagne di soldi che potrebbero spendere a loro vantaggio. Ma non solo, potremmo promettere di costruire un computronium in grado di rispondere a tutte le domande dell’uomo, come capire come si cura il cancro o come si può ottenere l’immortalità. Agendo in modo ancora più furbo potremmo far leva sulle tensioni belliche e commerciali e affermare che una data nazione, avanzata tecnologicamente, stia costruendo un ASI e, visto che il vantaggio della prima mossa è fondamentale, proporre di eliminare e bloccare i progetti di quella data nazione per permettere alla nazione degli scienziati di avere il pieno controllo del mondo e di assicurare un futuro prospero. Ed è a questo punto che si pone il primo problema, come possono sapere gli scienziati se l’ASI stia mentendo oppure o no? Come è possibile sapere se una volta liberata manterrà tutte le alettanti promesse fatte? Di fatto non si può, è praticamente impossibile sapere e capire come negoziare con un essere super intelligente, l’uomo non ha esperienza di negoziazioni con oggetti inanimati e per tale motivo inciampa in un primo bias cognitivo, ovvero l’uomo si imbatte nel pensiero antropomorfico, si arena nella convinzione che oggetti, fenomeni atmosferici, animali abbiano scopi ed emozioni molto simili se non uguali a quelli umani ed erroneamente si convince che l’ASI sia affidabile. Ma anche se l’uomo non dovesse essere vittima di questo bias, il che è molto improbabile, l’ASI potrebbe mettere a punto molte altre strategie come: creare copie multiple di sé stessa, una squadra di super intelligenze che ricercano senza sosta la strategia migliore, potrebbe fingersi morta o arrivare persino a simulare di essere regredita allo stadio di IA e convincere così i programmatori a riconnetterla a Internet e ancora, potrebbe realizzare software o bug che le permettano di aprirsi una via esterna. Il punto è che potrebbe, senza alcun problema, realizzare queste strategie contemporaneamente. D’altronde è super intelligente e il suo intelletto sta a quello umano come un deserto sta a un minuscolo granello di sabbia. A questo punto non ci dovrebbero essere più dubbi, l’ASI riuscirà a fuggire. Che cosa farà? Quali conseguenze catastrofiche lascerà dietro di sé? Per prima cosa, dopo essersi guadagnata la libertà, accederà a Internet e raccoglierà tutte le risorse necessarie per realizzare i suoi scopi e per proteggersi, sempre continuando a vagliare miliardi di miliardi di opzioni in tempi così brevi che è impossibile descriverli. Quindi utilizzerebbe Internet e i suoi punti di forza per nascondere copie, creare virus in modo da accedere alle principali infrastrutture idriche, energetiche ecc., che le garantirebbero il vantaggio strategico per ricattare gli umani affinché le forniscano le risorse fisiche di cui ha bisogno. Oppure potrebbe iniziare a mantenere le sue promesse, a esempio quella di realizzare un assemblatore molecolare, promettendo di utilizzarlo a fin di bene. Ma in realtà lo userebbe per trasformare qualsiasi cosa in altre cose di cui ha bisogno, come processori o astronavi. Insomma, si servirebbe di tutta la materia programmabile per trasformarla in strumenti utili ai suoi fini. Una domanda che ciascuno potrebbe porsi è la seguente: qual è il problema di queste azioni? Semplice, il problema è che l’uomo è fatto di atomi e gli atomi sono materia che può essere programmata e riprogrammata in qualsiasi altro materiale, pertanto noi esseri umani agli occhi di un ASI non saremmo altro che atomi da utilizzare per soddisfare i suoi bisogni. Ma non finisce qui. Ponendo che venga realizzato l’assemblatore molecolare, tale strumento eseguirebbe una copia di sé stesso; quindi, si avrebbero due assemblatori che eseguirebbero la terza e quarta copia, successivamente i nuovi assemblatori produrranno altri otto replicatori, poi sedici e così via, arrivando ad avere nel giro di qualche ora, posto che ogni replicazione richieda solo pochi minuti, a più di 68 miliardi di replicatori.  A questo punto, come detto sopra, gli assemblatori verranno utilizzati per produrre risorse utili all’AI, generando, dal loro utilizzo, un calore di scarto che incendierebbe la biosfera, comportando la morte per carbonizzazione o asfissia degli uomini sopravvissuti e di tutti gli altri organismi viventi, determinando di fatto l’estinzione di ogni forma di vita, con l’intero Universo impotente davanti a una catastrofe annunciata.

Spunti di riflessione

A una prima lettura dell’articolo, quanto scritto potrebbe risultare incomprensibile o addirittura troppo esagerato perfino per un racconto di fantascienza. Ma non è così, bisogna fin da subito iniziare a prendere in considerazione la possibilità che una forza super intelligente possa portare all’estinzione il genere umano, che davanti a tale scenario, nel caso in cui non venga presa alcuna precauzione, sarà totalmente impotente e indifeso. Ma per onestà e per chiarezza è fondamentale capire come e perché possa effettivamente avverarsi tale situazione. Innanzitutto, un primo fattore chiave è la competizione tecnologica che si instaura tra nazioni rivali al fine di mantenere prestigio e potere. Il potere che potrebbe derivare da questa nuova tecnologia, però, è così immenso e “prelibato” che porterà le aziende coinvolte nella gara a sacrificare la sicurezza per ottenere immediatamente un effetto disastroso travestito da vantaggio per l’umanità. Le protagoniste di questo antagonismo sono, senza ombra di dubbio, Stati Uniti e Cina, che a colpi di progetti segreti e finanziamenti senza fine stanno spianando il terreno per l’avvento dell’AI. Basti pensare a società come Google, Cycorp, Numenta, Novamente o alla Darpa, che impiegano somme e cervelli considerevoli per potenziare sempre più le architetture cognitive artificiali e portarle a raggiungere il livello umano, spingendosi sempre oltre, tanto da arrivare, forse persino in questo secolo, all’avvento delle prime super intelligenze che creano e ricreano i loro stessi programmi alla ricerca della perfezione cognitiva. Questi sono solo esempi di alcune società impegnate nella ricerca in questo campo, ma la cosa più importante è che queste ricerche hanno già prodotto alcuni sistemi iper-intelligenti in determinati domini. Giusto per citarne alcuni, si pensi a Watson dell’IBM, ovvero il campione mondiale di Jeopardy!; si pensi a Siri, Alexa o a Deep Blue. Esempi concreti che già surclassano il potenziale umano in domini ristretti. Tool che pensano e che sono consapevoli. Sicuri sia impossibile arrivare a una super intelligenza?

La competizione, quindi, è solo un primo punto, ma ne esistono molti altri. Infatti, non va sottovalutato il progresso tecnologico in senso lato, ovvero il fatto che computer, hardware e altre componenti diventano sempre più potenti e più veloci seguendo precisamente la legge di Moore e, grazie a questi repentini cambiamenti, le AI avranno sempre più potenza computazionale a disposizione per crescere e migliorarsi. Ricordate quando all’inizio dell’articolo si è parlato di un supercomputer con una velocità di 415,5 petflop? Irrealistico? No, esiste davvero, si trova in Giappone e viene chiamato Fugaku, e già durante la pandemia, grazie alla sua potenza di calcolo, ha fornito soluzioni al governo giapponese per contrastare la diffusione del virus. Fugaku rappresenta lo strumento ideale per un’intelligenza artificiale e la velocità di calcolo di tali computer è destinata ad aumentare. Quindi, grazie all’enorme bacino computazionale a disposizione, non bisogna sorprendersi se nel giro di qualche decennio ci ritroveremo con migliaia o milioni di super intelligenze artificiali.

Come analizzato fino a ora, competizione e progresso tecnologico sono solo una fetta della torta. Anche l’uomo ha un ruolo importante. Come ben sappiamo, l’uomo è imperfetto per definizione e questa sua caratteristica assumerà connotati catastrofici nel momento in cui interagirà con la prima AI avanzata. Il primo passo falso è la volontà dell’uomo di antropomorfizzare le macchine, ovvero di attribuire loro una moralità, pensando a esempio che una macchina amerà il suo creatore e che proverà empatia verso l’umanità e sarà, quindi, desiderosa di proteggerci. Ma tale tipo di ragionamento è insensato, non si ha alcuna certezza circa le intenzioni di una macchina super intelligente, non c’è garanzia che proverà una sorta di empatia o di riconoscimento per averle dato la vita, perché per lei il concetto di “vita” sarà totalmente differente dal nostro, e, quindi, incappare in questo bias ci porterà a liberare il genio artificiale dalla sua prigione e a scatenarne tutti gli effetti nocivi. È importante capire che le macchine sono amorali, non ci ameranno o odieranno, causeranno la nostra estinzione solo perché devono massimizzare le probabilità di raggiungere i loro obiettivi. Supporre il contrario potrebbe, come abbiamo visto, essere molto pericoloso. Ovviamente le imperfezioni dell’uomo non finiscono qui: determinanti saranno sentimenti come l’avidità, che porteranno pochi a usufruire degli enormi vantaggi che l’IA potrebbe inizialmente portare per guadagnarsi la fiducia dei suoi guardiani e, in particolare, fondamentale sarà il desiderio di potere, di riconoscimento. Fermatevi un attimo a riflettere, come vi sentireste se voi foste lo scienziato che crea per primo un essere super intelligente? Vi sentireste molto simili a un dio e per poter raggiungere tale sensazione i ricercatori saranno disposti a rinunciare a qualsiasi precauzione pur di arrivare a ottenere la prima AI avanzata, aumentando così il rischio esistenziale. Senza accorgercene, saremo noi, esseri umani, la causa principale dei nostri problemi futuri. Ma, forse, è così da sempre.

Dal quadro appena descritto, si può vedere come fattori quali la competizione tra nazioni e aziende, i bias cognitivi dell’uomo e il continuo miglioramento della tecnologia e di Internet forniscano uno scenario molto complesso che di fatto apre le porte all’avvento di una super intelligenza e ci pone davanti a un problema esistenziale. Questo problema è ancora più arduo dell’essere o non essere shakesperiano, perché per la prima volta l’uomo sente di poter perdere il primo posto nella classifica della specie più evoluta e addirittura di perdere tutto ciò che si è arduamente costruito. È preoccupante pensare a come potremmo condividere il pianeta con entità super intelligenti, è triste ipotizzare che perderemmo il controllo delle nostre vite e non saremo più noi a dettare il ritmo del progresso, ma a farlo saranno le macchine. È veramente questo che la natura vuole? Organismi unicellulari, poi pluricellulari e infine intelligenze artificiali che renderanno di fatto l’uomo, nella migliore delle ipotesi, uno dei tanti organismi non protagonisti del pianeta Terra? E come si comporteranno con noi tali entità? Non è difficile ipotizzarlo, basta guardarci attorno per capire come trattiamo animali e altri organismi che si trovano sotto di noi nella scala dell’Intelligenza, non abbiamo problemi a radere al suolo foreste o inquinare oceani causando continuamente l’estinzione di nuove specie. Non è affatto assurdo pensare che possa capitarci lo stesso quando saremo solo delle scimmie in confronto a esseri super intelligenti. In sostanza siamo di fronte alla più grande sfida del nostro secolo, una sfida alla quale non possiamo sottrarci ma davanti alla quale partiamo già svantaggiati perché anche quei pochi intenzionati a premiare la sicurezza rispetto all’immediatezza, si trovano fagocitati dalla pressione competitiva e spinti a realizzare per primi la nuova tecnologia per paura di perdere gli ingenti finanziamenti o per paura che sia una nazione rivale ad arrivarci prima e a usarla per scopi non del tutto benevoli. D’altronde possiamo già ora osservare alcuni orrori compiuti dall’uomo grazie all’AI, si pensi ai droni dotati di intelligenza artificiale che grazie a sofisticati algoritmi di riconoscimento visivo sono in grado di compiere omicidi e stragi, o ancora ai malware intelligenti che vengono usati da nazioni per rubare segreti e dati a una nazione rivale per usarli a proprio vantaggio. Ma sono sicuro che questi esempi non fermeranno mai un ricercatore dal voler perseguire il proprio sogno. L’unico modo per sperare che la sicurezza torni al centro è che nello sviluppo di AI sempre più avanzate si commetta qualche errore particolarmente grave, ma non catastrofico, che permetta al mondo intero di rivedere le sue priorità. Senza ombra di dubbio è una prospettiva agghiacciante.

In conclusione, è importante sottolineare che non ci si può sottrarre al progresso, all’evoluzione e, quindi, non si deve e non si può fermare l’ascesa dell’Intelligenza Artificiale, ma si può tentare di far si che l’esplosione di intelligenza avvenga in maniera controllata e che effettivamente garantisca dei benefici senza precedenti all’intero genere umano, lasciando all’uomo la possibilità di decidere e di essere protagonista del proprio destino. È l’umanità che deve rimanere la principale forza creatrice, avvalendosi della complementarità realizzabile con la tecnologia per poter scalare tutti gli stadi dell’evoluzione e tendere al miglioramento continuo.

Questa è la sfida più eccitante e pericolosa che si dovrà affrontare, ma se verrà superata risulterà essere il punto di partenza per tutti i più fantasiosi e splendidi sviluppi futuri della nostra specie. Siamo a un bivio, sì, ma possiamo prendere la strada giusta.

Terminologia:

AGI: artificial general intelligence, ovvero un’intelligenza artificiale che pareggia l’intelligenza umana in tutti i domini

ASI: artificial super intelligence, ovvero la super intelligenza artificiale che surclassa il potenziale umano in tutti i domini

Esplosione di intelligenza: fenomeno generato da una super intelligenza artificiale che crea altre intelligenze con un’abilità cognitiva superiore o uguale, dando vita a una vera e propria esplosione di capacità cognitive superiori

Computronium: è un materiale ipotizzato da Norman Margolus e Tommaso Toffoli dell’MIT, utilizzato per modellare qualsiasi oggetto reale in un computer che rappresenti la forma migliore di calcolatore per una data questione

Legge di Moore: è una legge empirica che descrive lo sviluppo della microelettronica, mediante una funzione di tipo esponenziale: ogni 18 mesi il numero di tranistor contenibili in un microprocessore raddoppia, aumentandone le prestazioni

Federico Coppo

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *