Intelligenza Artificiale e Pace

Pubblichiamo integralmente la relazione resa da Francesco Luigi Gallo in Cattedrale in occasione della Marcia per la pace diocesana. 

Stimabili ospiti, fedeli e membri della comunità buonasera. Vorrei ringraziare in modo particolare il nostro amato Vescovo che mi ha permesso di conversare con voi su di un tema divenuto oggi pressoché centrale nella nostra vita quotidiana. A dire il vero la trattazione di questa tematica mi pone in una condizione di grande imbarazzo. È una condizione tutto sommato normale per chiunque abbia consapevolezza di quanto complesso e vasto sia un determinato argomento e di quanto possa apparire striminzita e stiracchiata una relazione come la mia che per la vastità della materia dovrebbe comunicare tanto in tanto tempo. Allora ho deciso, forzando un po’ la mia tendenza alla prolissità, per la quale anticipatamente mi scuso, di cercare di comunicare bene e in poco tempo soltanto una manciata di punti sui quali mi auguro che l’uditorio avrà poi voglia di riflettere in autonomia. Per questa ragione quello che mi propongo di fare è presentare all’uditorio soltanto alcuni accenni a: una definizione – quasi – impossibile, ad un pregiudizio da superare, e a tre scenari possibili sui quali bisognerà riflettere bene a partire dalle parole del nostro Santo Padre.

Si parla tanto di IA in televisione e online (“etica dell’IA”, “rischi dell’IA”, “rivoluzione dell’IA”), si tengono interi corsi universitari su questo, si organizzano seminari e convegni in tutto il mondo eppure sono sicuro che se tutti noi qui presenti dovessimo arrivare a stabilire una definizione di IA chiara, precisa e condivisa avremmo non poche difficoltà. Il problema non sta nell’aggettivo, artificiale, ma nel sostantivo, intelligenza. Il punto è che l’intelligenza come direbbe Aristotele, si dice in tanti modi. La prima domanda da porre è: a quale intelligenza ci riferiamo? Anche qui, tra i molti riferimenti possibili, mi limiterò a farne due. Rammento prima di tutto la tesi del neuropsicologo Howard Gardner (Forme mentis, 1983 – Saggio sulla pluralità dell’intelligenza 1983 – Intelligenze multiple 1994) stando alla quale non esiste un’unica forma di intelligenza umana, perfettamente misurabile da qualche test cognitivo e quindi oggettivabile in una misurazione standardizzata (il QI) e quindi, sostengo io, perfettamente replicabile dalle macchine. Gardner arriva ad individuare, invece, ben nove tipi di intelligenza (esistenziale, naturalistica, musicale, interpersonale, intrapersonale, cinestetica, logico-matematica, spaziale, linguistica) che caratterizzano i diversi profili cognitivi caratteristici dell’estrema varietà dell’essere umano. Pertanto oggi è ormai chiaro che non è esiste un modello unico di intelligenza, e quindi ogni programma di ricerca sull’IA dovrebbe preliminarmente far chiarezza su quale tipo di intelligenza sta lavorando. Oltre a ciò vorrei anche ricordare che un altro autore, lo psicologo americano Daniel Goleman nel 1995 pubblicò Emotional Intelligence facendo riferimento ad un altro tipo di intelligenza, l’intelligenza emotiva, e ad un meccanismo centrale nella vita relazionale dell’essere umano, l’empatia.

La pluralità semantica del termine intelligenza ci costringe, quindi, a doverci accordare convenzionalmente su di una definizione, onde evitare una paralisi totale del discorso. Sebbene esistano 53 definizioni di intelligenza e 18 definizioni di intelligenza artificiale, la definizione di riferimento più frequentemente utilizzata è quella avanzata nella Proposta per il progetto estivo di ricerca sull’intelligenza artificiale di Dartmouth del 1955:

Per il presente scopo il problema dell’intelligenza artificiale è quello di far sì che una macchina agisca con modalità che sarebbero definite intelligenti se un essere umano si comportasse allo stesso modo.

Per comprendere bene questa definizione dobbiamo fare riferimento a quelle che Floridi definisce come le «due anime» dei programmi di ricerca sull’IA. L’anima ingegneristica, che orienta i suoi sforzi verso il tentativo di riprodurre il comportamento umano intelligente, e l’anima cognitiva che tenta invece di riprodurre la fonte stessa dell’intelligenza umana. La differenza fra i due tentativi è infinita. Lavare i piatti, mantenere la temperatura della propria casa entro certi parametri, giocare a scacchi, prelevare prodotti da scaffali (penso alla robotica dei magazzini di Amazon) sono compiti specifici che le macchine riescono a svolgere sempre meglio, e questi sono i grandi risultati dell’approccio ingegneristico. Tuttavia bisogna notare che:

L’IA di successo non riguarda la produzione ma la sostituzione di intelligenza umana. Una lavastoviglie non pulisce i piatti come facciamo noi ma alla fine del processo i suoi piatti puliti sono indistinguibili dai nostri, anzi possono essere anche più puliti (efficacia), utilizzando meno risorse (efficienza).

Pertanto, ci troviamo di fronte un concetto, quello di IA, che non soltanto è difficilmente inquadrabile (proprio per la difficoltà a comprendere che cosa sia l’intelligenza) ma che, una volta che è convenzionalmente stabilito sulla base di quelle che sono ad oggi le reali intelligenze artificiali, non è assolutamente coincidente con ciò che, i film di fantascienza o taluni giornalisti allarmisti sostengono. Per dirla in altri termini, non ci troviamo di fronte una rivoluzione imminente – ciò che taluni transumanisti definiscono l’avvento prossimo della singolarità – che cambierà le sorti del genere umano. Una superintelligenza non sta per apparire miracolosamente per soggiogarci. Star Wars resta un film e non c’è Will Smith pronto a combattere contro androidi capaci di sognare. La realtà dei fatti è più sobria e forse anche più complessa. Una sempre maggiore potenza di calcolo, una quantità spaventosa di dati e tecnologie sempre più raffinate stanno permettendo all’umanità di elaborare complessi modelli di previsione e svolgere operazioni che altrimenti richiederebbero tempi smisurati e una quantità maggiore di lavoro umano. Il grande successo dell’IA risiede proprio nella capacità, come spiega Floridi, di risolvere efficacemente dei problemi e svolgere correttamente dei compiti senza il coinvolgimento dell’intelligenza umana. Ogni volta che un obiettivo può essere conseguito senza comprensione, consapevolezza, acume, sensibilità, preoccupazione, sensazione, intuizione, semantica, esperienza e bio-incorporazione, allora l’IA – che è capace di simulare, l’ho detto, il comportamento intelligente non l’intelligenza umana – riesce ad avere successo. Il problema etico nasce proprio dal fatto che le continue deleghe che l’umanità concede a sistemi di IA, per compiti diversi e sempre più importanti (che vanno dalla banale Alexa che soddisfa le nostre preferenze musicali fino ai modelli di simulazione dei cambiamenti climatici) devono tener conto del fatto che questi calcolatori non sono intelligenti ma si comportano come se fossero intelligenti. Pertanto lo scopo ultimo è quello di evitare, come sostiene Floridi, che l’uomo diventi parte del grande meccanismo digitale («Questo è proprio ciò che Kant raccomandava di non fare mai: trattare gli esseri umani solo come mezzi anziché come fini») e stabilisca programmi di governance efficaci, in grado di equilibrare i crescenti livelli di autonomia delle macchine con gli irrevocabili livelli di autonomia degli esseri umani.   

Veniamo ora ai tre scenari antropologici che anticipavo all’inizio. Si tratta di tre linee di evoluzione diverse dell’IA altamente plausibili, nella misura in cui esse non descrivono l’avvento di una superintelligenza che soggiogherà l’uomo ma mostrano, in modo più realistico, le possibilità prossime dell’IA in modo molto più coerente alle premesse del nostro tempo.

Primo scenario:

In un futuro non troppo lontano ad un sistema di intelligenza artificiale chiamato Coach vengono affidate tutte quelle valutazioni che, tradizionalmente, con i “timori e tremori” tipiche dell’innamoramento, erano affidate all’intuito, alle aspirazioni e alle capacità di valutazione dell’essere umano. Sulla base di molti parametri presi in considerazione, questo complesso algoritmo riesce, in una percentuale di successo del 99,8%, a definire la compatibilità sentimentale tra due soggetti. In estrema sintesi l’app di incontri arriva a stabilire la compatibilità realizzando, in uno spazio virtuale e in parallelo, ben 1000 simulazioni diverse della coppia. Se le coppie – copie di stesse – arrivano a scegliersi reciprocamente in 998 simulazioni (corrispondenti alla soglia di compatibilità del 99,8%) il sistema di intelligenza artificiale stabilirà la compatibilità tra i due soggetti. In 51 minuti questa puntata di Black Mirror riesce a mostrarci la rivoluzione radicale che l’IA sarebbe capace di fare in ambito sentimentale. L’app Coach, infatti, riesce a mettere in crisi una costellazione di esperienze umane (probabilmente quelle più importanti nell’ambito della vita mondana) legate all’innamoramento e alla scelta del partner. Difficile dire in che rapporto stanno i vantaggi e gli svantaggi di un simile utilizzo dell’IA. Qualcuno potrebbe sostenere che forse il tasso di divorzi calerebbe drasticamente, e questo sarebbe un successo tutto sommato apprezzabile. Il problema, però, si pone sul piano etico. In questo scenario antropologico, infatti, la scelta del partner sarebbe totalmente eterodeterminata dall’IA. Questa eterodeterminazione avrebbe come conseguenza antropologica una decentralizzazione dell’uomo inteso sia come singolo uomo, che difatti sarebbe scelto dall’IA come possibile partner e quindi non sceglierebbe, sia come specie umana, che seguirebbe quindi un percorso evolutivo stabilito dalla tecnologia. Sarebbe interessante inoltre domandarsi se questo sistema d’IA sceglierebbe la compatibilità degli amanti sulla base della tolleranza dei difetti dell’altro oppure sulla possibilità di un incastro perfetto (che sarebbe utopico per l’intelligenza umana ma facilmente raggiungibile da un’IA che lavora con una quantità di dati difficilmente immaginabile). Come sarebbe poi la vita di queste coppie eterodeterminate? Assaporerebbero mai il piacere della riconciliazione dopo le fisiologiche incomprensioni della vita sentimentale oppure vivrebbero una vita tanto fredda quanto la matematizzazione dei processi che l’hanno costruita? Su quale base, infine, le coppie continuerebbero a scegliersi dopo il giudizio iniziale dell’algoritmo?

L’IA dà l’illusoria percezione all’uomo di poter costruire un mondo sotto il totale controllo della tecnica. Se ripercorriamo tutte le scelte importanti che abbiamo compiuto nella nostra vita ci rendiamo conto che, giunto il momento cruciale della decisione, abbiamo compiuto una sorta di salto nel buio. È successo agli seminaristi quando hanno scelto di vivere nel segno del Signore seguendo la loro vocazione, è successo a chi ha scelto il proprio percorso universitario, è successo a chi ha risposto “si” alla proposta di matrimonio, ma è successo anche a chi ha compiuto una rinuncia (è lo stesso domandarsi “come sarebbe la mia vita se facessi questo?” e “come sarebbe la mia vita se rinunciassi a questo?”). Nel momento in cui scegliamo, letteralmente, noi saltiamo nel buio. Non sappiamo se la nostra scelta (o la nostra rinuncia) si rivelerà nel tempo la scelta giusta. Per saperlo dovremmo vivere tante vite quante sarebbero, a conti fatti, le opportunità che ci si prospettano davanti. L’IA in un certo senso è proprio questo che consente: simulare più vite per sceglierne una. L’esistenza umana, invece, ne sceglie una scartandone mille altre. Nel primo caso l’esistenza si trasforma in un puro calcolo delle possibilità, nel secondo caso realizza invece un progetto in fieri che si costruisce man mano nel dialogo, nello scontro, nelle esperienze, nel miglioramento, nei fallimenti, nella fiducia, nei tentativi.

Secondo scenario:

Yorkie e Kelly sono due anziane donne giunte al termine della propria vita. Yorkie è in stato vegetativo da oltre quarant’anni mentre Kelly è un’anziana donna giunta, per una malattia allo stato terminale, alla fine della sua vita. Eppure, giovani e affascinanti esse s’incontrano, per cinque ore a settimana a San Junipero, una città in cui è sempre sabato sera. San Junipero non esiste, non è un luogo fisico, è un programma virtuale di simulazione ultrarealistica dove le coscienze delle persone, smaterializzate, possono essere trasferite per vivere per sempre una realtà virtuale. Fintantoché le persone sono in vita possono trascorrere a San Junipero soltanto poche ore a settimana. Volendo, però, le persone possono scegliere di effettuare il passaggio (l’eutanasia) e autorizzare un trasferimento definitivo della coscienza in questo spazio virtuale, guadagnando così l’immortalità digitale. Mentre Yorkie decide di vivere a San Junipero per sempre, Kelly è in dubbio: sua figlia morì prima che il programma di intelligenza artificiale fu realizzato e suo marito decise, per ragioni morali, di non accedere al programma di immortalità. Kelly pertanto si trova di fronte non due ma tre strade: scegliere l’imprevedibilità della morte e di ciò che da essa consegue (che potremmo definire la strada umana e religiosa), scegliere di rinunciare all’accesso al programma seguendo l’indirizzo etico del marito, oppure accedere al programma e sposare quindi la nuova logica transumanista dell’eternità digitale. Alla fine Kelly sceglierà la terza strada, trasferendo la sua coscienza a san Junipero e chiedendo che il suo corpo – che simboleggia l’ultimo residuo materiale di una cultura ormai tramontata – venga sepolto accanto a quelli della figlia e del marito. In questo episodio emerge uno scenario diverso rispetto a quello delineato prima. In questo caso l’uomo non si decentra rispetto ad un meccanismo, quello dell’innamoramento, che è stato sempre frutto della libera scelta umana. In questo caso, invece, l’uomo si avvita totalmente su se stesso fino al punto da escludere ogni tipo di trascendenza verticale con Dio. In questa prospettiva Dio muore e rivive nella capacità tecnica giunta al punto di travalicare i confini della caducità umana per approdare ad una esistenza completamente digitalizzata. Lo storico problema filosofico dell’immortalità dell’anima nel nostro tempo si traduce nel problema della trasferibilità della coscienza. Il punto non è più quello di interrogarsi sul destino dell’anima dopo la morte ma capire come la morte, da sempre considerata il limite insuperabile della nostra esistenza, possa difatti essere aggirato.

 

Terzo scenario:

C’è in verità un terzo scenario antropologico che, dalla nostra prospettiva di credenti, potrebbe risultare particolarmente inquietante. Ash era una persona particolarmente attiva sui social al punto che una distrazione col cellulare gli è risultata fatale in un incidente stradale. La tragedia della morte prematura ha fatto sì che Martha – la compagna che intanto aveva scoperto di essere incinta – viene iscritta senza volerlo da un’amica ad un programma online che consente alle persone di restare in contatto con i defunti. Tutto ciò è reso possibile dal fatto che ogni nostra navigazione online, ogni nostra registrazione sui vari siti, ogni condivisione lascia una traccia di noi stessi nella rete, contribuendo a costruire una sorta di identità digitale. Ebbene, questo servizio online, recuperando tutti i dati digitali della persona defunta crea un bot con il quale il parente addolorato dalla perdita può continuare a chattare (una sorta di ChatGPT costruita però sulle caratteristica di una singola persona). Il programma però prevede dei livelli superiori: grazie a delle autorizzazioni il bot può avere accesso alle registrazioni audio presenti in rete ricreando quindi la voce del defunto. Quindi il parente non soltanto può chattare, ma può anche telefonare al bot che, con la voce del defunto perfettamente ricostruita (e sulla base dei dati personali costituenti l’identità digitale) può intrattenere lunghe conversazioni. Grazie ad un’ultima autorizzazione il programma prevede un ultimo inquietante step. Il bot – che è un’entità totalmente informatica – potrebbe essere caricato su di un clone fatto di carne sintetica con sembianze identiche a quelle del defunto (la somiglianza è resa possibile dall’enorme mole di fotografie e videoregistrazioni che ogni utente medio carica quotidianamente online). Dopo una commozione iniziale Martha pian piano si accorge che il clone pur essendo perfettamente simile al vero Ash, non è il vero Ash. Non si tratta di una banalità. Nella constatazione di Martha, che in prima battuta può sembrarci un’ovvietà, c’è invece espressa in modo assai mirabile la consapevolezza che l’IA, per quanto elaborata, difetta di quell’ineffabile senso di umanità che può essere percepito ma non descritto.

 Abbiamo quindi visto come, in un futuro forse non troppo lontano (e comunque coerente con le premesse del nostro tempo) l’essere umano possa essere o:

1)      Essere completamente eterodeterminato dall’IA (l’esempio del programma Coach che riesce, grazie a centinaia di simulazioni realizzate in parallelo, ad identificare il gradiente di compatibilità relazionale);

2)      Essere completamente avvitato su se stesso (è il caso del programma San Junipero che fa sopravvivere la coscienza umana in un tempo escatologico…digitale, dando all’uomo la percezione di essere Dio);

3)       Essere completamente padrone della vita dell’altro (facendo resuscitare digitalmente qualcuno soltanto per l’impossibilità di elaborarne il lutto – qui emergerebbe anche il problema, assai importante oggi, della sopravvivenza dell’identità digitale dopo la morte della persona – e se anche quella persona desse il consenso a farsi resuscitare, il clone non sarebbe certamente lui stesso, ma la sua controparte digitale, totalmente appannaggio degli altri);

Questi non sono sicuramente gli unici scenari antropologici possibili, sono semplicemente quelli che, nella ristrettezza del tempo dell’incontro di oggi ho scelto deliberatamente di presentarvi. A dire il vero su ognuno di essi sarebbe stato possibile dire tanto altro, senza dimenticare che ci sono altri settori della vita umana in cui la perdita della centralità dell’uomo potrebbe essere messa seriamente a rischio (penso alla pedagogia e alla psichiatria). Sta di fatto che questi scenari che vi ho appena presentato – affidandomi alla genialità dei produttori di Black Mirror – richiamano una serie di concetti sui quali Papa Francesco, nel suo discorso per la 57ª Giornata Mondiale sulla Pace ha fissato l’attenzione. Leggiamo il passo integrale:

Questo deve farci riflettere su un aspetto tanto spesso trascurato nella mentalità attuale, tecnocratica ed efficientista, quanto decisivo per lo sviluppo personale e sociale: il “senso del limite”. L’essere umano, infatti, mortale per definizione, pensando di travalicare ogni limite in virtù della tecnica, rischia, nell’ossessione di voler controllare tutto, di perdere il controllo su se stesso; nella ricerca di una libertà assoluta, di cadere nella spirale di una dittatura tecnologica. Riconoscere e accettare il proprio limite di creatura è per l’uomo condizione indispensabile per conseguire, o meglio, accogliere in dono la pienezza.

Noi non abbiamo ancora idea, ribadisce giustamente Floridi, di come funzioni il nostro cervello e di che cosa realmente sia la nostra intelligenza. Per quello che ne sappiamo oggi è assolutamente imprevedibile (per non dire impossibile) uno scenario in cui si paleserà una macchina capace di replicare la nostra intelligenza e pertanto «non dobbiamo perdere il sonno per la possibile comparsa di qualche forma di ultraintelligenza» che ad un certo punto della storia irromperà nella società umana per soggiogarla. Per questa ragione, sostiene il filosofo di Oxford, «noi siamo e rimarremo, in qualsiasi prevedibile futuro, il problema». Alla luce di tutto ciò è assai importante sottolineare che la pace, considerata sia nella dimensione soggettiva (pace con se stessi), sia nella sua dimensione relazionale (pace con l’altro che mi sta di fronte), sia nella sua dimensione globale (pace con il tutto che mi circonda) non è una condizione minacciata direttamente dalla tecnologia ma dal modo in cui noi ci posizioniamo rispetto ad essa. Pertanto, in che direzione dobbiamo andare? Sono stati messi a punto diversi programmi etici dal 2017 ad oggi (I principi di Asilomar per l’IA, la Dichiarazione di Montréal per uno sviluppo responsabile dell’intelligenza artificiale, i Principi di partenariato sull’IA, la Dichiarazione su intelligenza artificiale, robotica e sistemi autonomi) ma tuttavia mi sento di condividere con voi, ancora una volta, la tesi del filosofo le cui riflessioni hanno fatto da sfondo a questo intervento, Luciano Floridi. Lui ritiene che l’innumerevole mole di principi etici possano difatti ridursi a cinque, e con questi mi avvio alla conclusione della mia relazione con la ferma convinzione che essi possano davvero fungere da garanzia per preservare la pace, in tutte e tre le dimensioni a cui ho fatto riferimento:

 

–          Principio di beneficienza (le macchine dovranno promuovere il benessere dell’umanità);

–          Principio di non maleficienza (le macchine dovranno evitare di compiere il male);

–          Principio di autonomia (gli esseri umani devono preservare la possibilità di decidere di ritirare alle macchine il potere decisionale);

–          Principio di giustizia (equa distribuzione dei benefici nella società);

–          Principio di esplicabilità (essere sempre consapevoli dei processi realizzati dalle macchine);

 

Se riusciamo a interiorizzare il grande significato sotteso a questi principi etici fondamentali, forse saremo in grado anche di abbandonare le paure della visione hollywoodiana dell’IA, e godere invece delle sue potenzialità a favore e non in contrasto con il senso più profondo della nostra umanità.

* Docente Istituto teologico cosentino