In un precedente articolo ci siamo occupati di intelligenza artificiale cercando di circoscrivere e catalogare un fenomeno destinato a penetrare trasversalmente la nostra società: da una prima differenziazione fra IA predittiva e generativa (in estrema sintesi quella legata a ChatGPT e simili), abbiamo tracciato un’importante linea di demarcazione con l’intelligenza creativa, che è puro appannaggio dell’essere umano in quanto fondata sul dubbio, sul desiderio e sul pensiero divergente, e non su semplici correlazioni statistiche secondo il linguaggio binario.
Sondando i rischi etici e quelli legati alla polarizzazione dell’informazione che potrebbero levigare il pensiero critico e livellare al ribasso il pluralismo, abbiamo ventilato l’ipotesi di una Carta Costituzionale digitale che sancisca i principi inalienabili del rapporto uomo/intelligenza artificiale perché, se è vero che l’IA è proprietà esclusiva di società private che ne cedono l’utilizzo a organizzazioni pubbliche, e che gli Stati saranno sempre in ritardo nel regolamentarne l’uso rispetto alla velocità di sviluppo tecnologico, è altrettanto vero che si possono stabilire delle regole universali che tutelino i più elementari umani rispetto all’ascesa di un così potente e intrusivo mezzo.
In quanto imitativa dell’intelligenza umana, l’intelligenza artificiale si serve degli stessi codici linguistici e questo determina già un primo cortocircuito semantico perché non si può adattare il linguaggio umano a quello degli artefatti tecnologici: la «robotizzazione» del mondo nasconde, dietro la pretesa politica di liberare l’uomo dalla schiavitù del lavoro, una latente voglia di abdicare alla propria umanità creando dei simulacri che, per dirla à la Baudrillard, «sono una realtà che non nasconde niente», e per istituire quella che potremmo definire non più una sostituzione etnica ma «tecnica».
I corifei dell’IA sono i portavoce del «mito della neutralità dell’algoritmo», un pensiero che affonda le sue radici nell’arte combinatoria del filosofo duecentesco Raimondo Lullo, fondativa della filosofia computazionale e che afferma, semplificando, quanto la realtà si possa scomporre in parti e/o elementi più semplici che ne aiutino a comprendere la complessità.
Dall’opposto lato di questo segmento di pensiero si pongono invece gli esponenti della «cultura algoritmica», i quali ritengono alquanto ingenuo il ragionamento secondo cui automatizzazione e oggettività coinciderebbero, non soltanto per le scelte parziali dei dati che vengono inseriti nella memoria monstre dell’algoritmo ma anche perché quest’ultimo è sempre l’espressione della cultura, della classe sociale e dell’intelligenza di chi lo elabora: non si può non citare a tale proposito il sociologo McLuhan, inventore del villaggio globale e dell’aforisma «il mezzo è il messaggio», che esortava a studiare non i contenuti veicolati da un medium ma la natura del medium stesso, e i criteri strutturali in base ai quali esso organizza la comunicazione.
Gli algoritmi non sono neutrali perché producono cultura intervenendo sul modo in cui l’uomo vede e percepisce il mondo, e lo dimostra il fatto che se un campione eterogeneo di persone eseguisse la stessa ricerca sullo stesso motore si otterrebbero tutti risultati diversi, ognuno legato alla nostra identità digitale, ultimo doppio o maschera pirandelliana di quella frantumazione del soggetto iniziata coi primi mass media, ed ora approdata alle echo chambers.
Ma quali sono le conseguenze di questo braccio di ferro fra i cultori della neutralità dell’algoritmo e i suoi detrattori?
Innanzitutto, sembra abbastanza evidente, anche dall’utilizzo sempre più ricorrente di ChatGPT, quanto l’IA potrebbe non liberarci dalla schiavitù del lavoro ma dal lavoro e basta, in quanto la ricchezza prodotta dall’automazione non viene equamente suddivisa fra chi verrà (viene) sostituito da una macchina, ma finisce nelle solite mani, e inoltre il mantra algoritmico esclude gli «outlier», e cioè i casi fuori statistica o modello.
Cambiano le relazioni con gli altri e si frammentano le identità, al punto che nell’iperfetazione degli avatar la profilazione della realtà non coincide con la sua comprensione, e nel riconoscere ai sistemi operativi un’autorità pratica fondata sul mero principio d’efficienza, noi deleghiamo la nostra capacità critica agli strumenti digitali, diventando non soggetti ma oggetti dello sviluppo tecnologico.
Un’altra questione di scottante attualità, non esclusa ma trascinata in icona dalle pratiche discorsive del mainstream, è che l’IA è estremamente energivora, andando a infrangere quel possibile patto tecnologia/ambiente auspicato dal professor Floridi, e rafforzando il gap di sovrastrutture che è alla base del digital divide non solo fra la Silicon Valley e il terzo e quarto mondo, ma anche fra i vertici della ricerca mondiale e ad esempio il nostro paese, che non possiede gli strumenti d’ultima generazione necessari a produrre innovazione.
Nel 2023, la foto del tedesco Boris Eldagsen «The Electrician» (parte della serie «Pseudomnesia Fake memories»), riproponendo uno stile fotografico anni 40 attraverso l’intelligenza artificiale generativa, ha vinto il Sony World Photography Award ma l’autore non ha accettato il premio della categoria «creative» affermando: «le immagini AI e la fotografia non dovrebbero competere fra loro in un premio come questo. Sono entità diverse. L’AI non è fotografia. Per tanto non accetterò il premio.»
L’anno precedente, Jason Allen aveva vinto il Colorado State Fair con la foto «Space Opera Theater», un’immagine creata col programma Midjourney e se è vero che, tranne la prima foto eseguita da un algoritmo che fu battuta all’asta per 400 000 dollari, nessuna delle immagini prodotte dall’IA ha finora raggiunto il valore degli iconici scatti del Novecento, è altrettanto vero che se si bypassa l’alterazione della realtà e la miriade di imperfezioni che ne fallano la credibilità, le foto generate dall’intelligenza artificiale coniugano ad un’altissima qualità un notevole abbattimento dei costi (niente fotocamere, set, filtri, obiettivi, cavalletti, eccetera).
Tralasciando per un attimo le distorsioni grafiche dei deep fake (dai nudi tarocchi di Rose Villain e Taylor Swift alla pornografia), per immagini generate con l’AI intendiamo quelle non create da fotocamere ma generate da software basati su algoritmi text-to-image di machine o deep learning, che sviluppano oggetti, esseri umani o ambientazioni che non esistono tramite l’elaborazione di una quantità abnorme di notizie.
Nel mondo del giornalismo, a seguito di una serie di immagini create o rielaborate dall’AI che manipolavano e/o strumentalizzavano la realtà, si sta chiedendo alle testate di specificare se la foto in oggetto sia o meno generata da un algoritmo, ma ormai esistono in Rete degli appositi tool on line di smascheramento che ne consentono, caricando direttamente l’immagine o l’url di riferimento, la verifica: uno dei più efficaci è Fake Catcher della Intel che grazie a un’analisi di flusso sanguigno sui volti (fotopletismografia), passa in rassegna i capillari dei volti attraverso lo spettro dei colori dei pixel.
Più in generale, si può capire la natura algoritmica dell’artefatto attraverso un’errata profondità di campo, dei movimenti innaturali del viso (luci o battito delle palpebre), ma anche da anomalie ai denti, asimmetrie o deformità dei volti, arti mancanti, texture della pelle o capelli troppo perfetti (talvolta tramutati in sciarpe), errori architettonici, testi confusi (segnali stradali o insegne dei negozi) e tutta una serie di imperfezioni perfettibili che si tende a nascondere tramite sfocature.
Il più singolare elemento di smascheramento è quello delle dita delle mani perché, come sostiene Amalia Winger Bearskin, esperta di AI presso l’università della Florida: «L’AI non capisce veramente cosa sia una mano, almeno non nel modo in cui si collega anatomicamente a un corpo umano», così si possono notare arti con 6 o più dita, privi di pollici, o fuse fra loro e questo ricorda la vecchia storia della quattro dita dei primi cartoon Disney, la cui motivazione, al di là di fantasiose rielaborazioni postume, era il puro risparmio di tempo dei primi disegnatori a mano che, come disse Walt Disney stesso: «mi hanno fatto risparmiare negli anni milioni di dollari».
Un’educazione digitale permanente e una Costituente dei diritti dell’uomo di fronte alle macchine potrebbero essere un ottimo antidoto, insieme al recente impegno di Big Tech in termini di «spiegabilità dell’algoritmo», alla filosofia del postumano, salvaguardando il libero arbitrio e la coscienza critica dal mito deteriore della sostituzione tecnica.