Mentre la società civile guarda allo sviluppo dell’I.A. con un misto di interesse e preoccupazione, quello genericamente riservato a ciò che è nuovo ma col carico di trasversalità e onnipresenza che l’argomento comporta, sorgono nuovi interrogativi di natura etica, morale, giuridica e religiosa.
Va fatta innanzitutto un’importante distinzione fra intelligenza artificiale «predittiva» e «generativa», partendo dal presupposto che nel primo caso si tratta di un tipo di intelligenza che, data una serie storicamente determinata, elabora statisticamente la risposta più coerente, e che viene utilizzata prosaicamente per il riconoscimento delle targhe automobilistiche o, in alcuni supermercati, per la classificazione visiva di frutta o ortaggi, mentre nel secondo si entra nel complesso discorso che ruota attorno a ChatGPT, la cui ultima versione (ChatGPT4) è riuscita a superare il test di Touring, e cioè quello che serve per verificare se una macchina può convincere un umano di essere umana a sua volta; ovvio che i nuovi parametri dell’intelligenza generativa rendano obsoleto il test di Touring, che va quindi abbandonato e/o ripensato, com’è altrettanto ovvio che l’aggettivo «generativo» è cosa ben diversa dall’aggettivo «creativo», esclusivo appannaggio umano e fondato su una serie di prerogative estranee a qualsiasi surrogato (per quanto evoluto) digitale.
Chiunque abbia «giocato» con ChatGPT, per la costruzione di un testo di varia natura, dal saggio all’articolo, passando attraverso qualcosa di più elaborato come un racconto, una sceneggiatura o un romanzo, sa che il risultato è fallace e spesso slegato dalla realtà, mentre diviene più efficace se limitato a una questione di stile o puramente finzionale, ed è proprio sotto quest’ultimo aspetto che può essere compresa la protesta degli sceneggiatori hollywoodiani, anche se ormai in molti settori ChatGPT viene già ampiamente utilizzata, come ad esempio nelle redazioni di giornali, soprattutto per la stesura di articoli ad alto contenuto tecnico e che non necessitano di una valutazione soggettiva.
L’immagine degli anchor man coreani trasformati in avatar per dare le principali notizie del giorno mentre la loro versione in carne ed ossa è altrove affaccendata può richiamare scenari distopici o evocare le filosofie del postumano, ma ha degli innegabili vantaggi (tipo fornire le breaking news da remoto, non dovendo per forza tornare in redazione) anche se un articolo scritto con, o attraverso, ChatGPT presenta un grosso problema di deresponsabilizzazione individuale, senza andare a scomodare le complesse implicazioni legate al diritto d’autore.
La faccenda diviene ancor più spinosa se si affrontano le questioni legali connesse al mondo dell’I.A: basta pensare al mercato delle automobili a guida autonoma che si è arenato non per un problema di cattivo funzionamento ma per le difficoltà incontrabili nell’individuare responsabilità civili e penali in caso di incidente, oltre ovviamente all’inevitabile reset assicurativo globale, per non parlare del venir meno del diritto di oblio in una società pervasa da un’intelligenza incapace di dimenticare o rimuovere gli stessi dati su cui si fonda la sua ratio essendi, ed è ben noto ai giuristi (e non solo) che senza oblio non v’è perdono.
Open AI, l’azienda proprietaria di ChatGPT, ha dichiarato ufficialmente che «L’IA generativa non ha alcuna fonte di verità, è soltanto una correlazione statistica secondo il linguaggio binario», ed anche se è ovvio che tale affermazione sembra pensata per sottrarsi a tutta una serie di beghe legali (e culturali), è innegabile che l’ampliarsi della vita digitale ha moltiplicato le scelte che ognuno deve compiere e che ognuna di esse comporta una data capacità etica, al punto che anche il Papa ha detto la sua sull’intelligenza artificiale affermando che non è in grado di «tenere insieme l’Io e il Noi, il tutto e le parti, il presente e il passato».
Il filosofo Massimo Cacciari si è espresso così: «la macchina pensa con più efficacia di noi perché non dubita ed esclude che le regole possano essere violate», facendo eco all’etica del dubbio postulata da Zagrebelsky: «[il dubbio] non è il contrario della verità ma una sua riaffermazione, un omaggio, una verità che deve essere sempre esaminata e riscoperta», ed entrambi questi pensieri obliterano quello di Roberto Calasso che equiparava il turismo alla pornografia proprio per la comune assenza di dubbio, che è categoria umana mancante a qualsiasi supporto tecnologico, inclusa e soprattutto l’intelligenza artificiale.
Uno dei settori più minacciati dalla pervasività dell’I.A. è quello giornalistico, dal punto di vista della verità dei fatti (fact checking e fake news), del rispetto della persona, della trasparenza delle fonti e dell’attualità delle notizie, visto che è molto difficile collocare nel tempo un’informazione data da questo tipo di intelligenza, e va ricordato che l’informazione è tale proprio perché si pone dei limiti, etici e deontologici, altrimenti scadrebbe a semplice comunicazione o libera manifestazione del pensiero.
Le immagini create dall’I.A. (ma basta considerare il semplice Photoshop) alterano la realtà e, cosa ben peggiore, ne sdoganano il principio dal punto di vista etico, anche se le due considerazioni più importanti da fare sull’intelligenza artificiale sono che nessuno sa con precisione quali dati siano finiti all’interno della sua memoria e che tutte le società che la possiedono sono private, mentre agli Stati non resta che provare a regolamentarla, operazione fallimentare in partenza vista la lentezza di qualsiasi legislazione rispetto alla velocità dello sviluppo tecnologico.
Le moderne macchine «pensano» in base a relazioni statistiche ricavate da quantità sovrumane di dati, ma tale operazione si fonda su un principio di correlazione che non coglie necessariamente il nesso causale della realtà materiale, fornendo utili scorciatoie che però escludono l’aspetto emotivo e analogico, e cioè il pathos: «la prima immagine del pensiero è la pelle d’oca», scrive infatti il filosofo tedesco di origini coreane Byung-chul Han, nel bellissimo libro «Le non cose. Come abbiamo smesso di vivere il reale».
L’I.A. si fonda su un’analisi macroscopica del passato che non può inaugurare il futuro in quanto non sceglie, poiché per scegliere e fare il salto di paradigma verso il Nuovo serve il pensiero divergente e la negatività della rottura; secondo una precisa corrente di pensiero che da Parmenide e Platone arriva ad Heidegger, il pensiero (o logos) è strettamente collegato all’Eros e non v’è pensiero senza il mistero della seduzione, ed è per questo che gli uomini possono essere definiti macchine desideranti.
Gilles Deleuze diceva che la filosofia non si eleva tramite il pensiero ma tramite l’idiozia, intesa come balzo al di là delle evidenze nel terreno ancora vergine dell’assurdo, e sotto questo punto di vista l’I.A. non permette all’uomo di compiere un passo in avanti (quello che per Freud avviene tramite la frattura dei tabù), perché «ne sait faire l’idiot», non sa fare l’idiota.
Sono quindi il dubbio, l’eros e l’idiozia ad aver veicolato la scoperta dell’America, l’invenzione della penicillina e il salto alla Fosbury, e non certo il calcolo e i dati, che non possono né mai potranno sostituire, nell’esigenza di semplificare, il libero arbitrio.