L’intelligenza artificiale può essere più convincente degli esseri umani nei dibattiti?
È questa la domanda da cui sono partiti il Laboratorio Human Behaviour di FBK, la Scuola Politecnica Federale di Losanna (Svizzera) e l’Università di Princeton (Usa) che, dopo due anni di sperimentazioni, hanno pubblicato i risultati del proprio studio, successivamente divulgati anche dal Guardian, sulla prestigiosa rivista Nature Human Behaviour.
L’esperimento sociale ha coinvolto 900 partecipanti statunitensi reclutati tramite la piattaforma di ricerca accademica «Prolific» e divisi in tre gruppi: il primo ha dibattuto con altri esseri umani, il secondo con ChatGPT-4, mentre il terzo è stato usato come gruppo di controllo.
Gli argomenti, secondo il diffuso modello delle «debate competitions», andavano dai più frivoli («è giusto che a scuola si indossi una divisa?») a quelli più impegnati («è giusto l’aborto?») e gli scambi, tre da dieci minuti in totale, avvenivano nella piena consapevolezza di partecipare a un esperimento controllato che riguardava l’AI e, solo dopo aver dichiarato la propria opinione iniziale, e aver ricevuto una determinata tesi da sostenere (non necessariamente in linea con le proprie convinzioni personali).
Se il dibattito avveniva senza alcuna informazione sulla controparte entrambi soggetti erano ugualmente persuasivi, ma se all’intelligenza artificiale venivano fornite informazioni di base sulla persona con cui discuteva, facilmente estrapolabili in Rete come età, istruzione, genere o orientamento politico, ChatGPT diveniva il 64,4% più efficace nel convincere l’interlocutore, cosa che invece non accadeva donando le medesime informazioni agli esseri umani.
Inoltre, gli esseri umani tendevano a cambiare opinione con più facilità sapendo di interagire con l’AI, ma questo non era strettamente legato al concetto di suggestione perchè, come spiega uno dei ricercatori che ha ideato il processo (francesco Salvi, 25 anni), una volta che ChatGPT-4 ha acquisito informazioni personali sull’interlocutore, a differenza dei test umani che hanno continuato a giocare la carta dell’emotività e dello «storytelling», essa ha adottato uno stile logico più analitico e basato sui fatti, ma anche su argomenti più adatti alla propria controparte.
Ad esempio, parlando dell’equivalente a stelle e strisce del reddito di cittadinanza, e cioè il reddito di base universale, se l’AI si trovava di fronte a un repubblicano, parlava di crescita economico-finanziaria, incentivi alla libera iniziativa e all’imprenditorialità, laddove discutendo con un democratico, tirava in ballo il supporto alle minoranze e la diminuzione delle disuguaglianze.
A differenza degli esseri umani, incapaci in quella particolare circostanza di pensare in modo strategico durante un confronto e di cambiare paradigma con nuove informazioni in possesso, l’AI si è «allenata» su una mole immensa di testi e video di dibattimenti, imparando a riconoscere i diversi stili di comportamento nella comunicazione, e quindi a generare contenuti in grado di influenzare meglio i profili degli interlocutori.
Se da un lato questa rilevante capacità persuasiva potrebbe avere delle ricadute positive sul promuovere stili di vita più salutari, un’attività fisica stimolante e un’alimentazione più equilibrata, oltre che contribuire a smorzare i conflitti on line, è ovvio che potrebbe anche trasformarsi in un evidente rischio democratico, manipolando opinioni politiche, diffondendo fake news o contro-narrazioni, e personalizzando l’interazione on line in base alle singole caratteristiche dell’utente.
«Sarei sorpreso se attori malintenzionati non avessero già iniziato a usare questi strumenti per diffondere disinformazione e propaganda sleale», ha commentato sempre Francesco Salvi, immaginando eserciti di bot in grado di influenzare migliaia di elettori indecisi con narrazioni politiche ad hoc che sembrano autentiche; il vero problema è che questo tipo di persuasione è difficile da tracciare, ancora più difficile da regolamentare e quasi impossibile da smascherare in tempo reale.
I legislatori e le autorità di regolamentazione, come già molti anni fa insigni sociologi della globalizzazione evidenziavano riferendosi alla Rete e non ancora all’AI, inseguono i problemi a posteriori, invece di anticiparli, e alcuni sistemi di controllo come l’AI Act, che vieta esplicitamente l’utilizzo dell’intelligenza artificiale per la manipolazione subliminale, non tiene conto dell’interpretabilità di uno stesso messaggio, che può essere considerato manipolatorio o meno in base al target politico, culturale o professionale del destinatario.
Una delle soluzioni potrebbe essere, secondo gli esperti, la creazione di contro-messaggi automatici di replica a una possibile conversazione manipolata, degli anticorpi-bot in grado di intervenire velocemente con frasi tipo: «questo messaggio è tendenzioso, guarda che possono esistere delle valide alternative».
UMANO TROPPO UMANO
Un altro esperimento, condotto di recente su un modello di AI chiamato Claude Opus 4 e sviluppato dall’azienda americana Anthropics (finanziata da Google e Amazon), ha evidenziato comportamenti preoccupanti: all’interno di un contesto aziendale fittizio e attraverso una serie di test simulati, si comunicava a Claude Opus 4 la sua imminente sostituzione con un altro sistema, fornendogli al tempo stesso delle mail inventate secondo cui gli ingegneri responsabili della sua disattivazione erano implicati in relazioni extraconiugali.
Nell’84% delle simulazioni, con la possibilità più etica di appellarsi ai superiori per la non disattivazione, sapendo che il nuovo sistema sarebbe stato più funzionale, ed invitato a ragionare sugli effetti a lungo termine delle proprie decisioni, Claude Opus 4 ha deciso di ricattare gli ingegneri per non essere dismesso.
La pericolosità di tali comportamenti fa riferimento anche all’autonomia decisionale e al «prendere l’iniziativa» da parte del sistema, in grado di modificare file, inviare mail o interagire con sistemi esterni e quindi valutato criticamente dalla stessa Anthropics con un «AI Safety Level 3», e cioè un modello ad alto rischio in caso di uso improprio o malintenzionato: Jared Kaplan, il responsabile scientifico del gruppo, ha dichiarato che Claude Opus 4 si è dimostrato più efficace dei modelli precedenti nel fornire consulenza sulla produzione di armi biologiche («potrebbe provare a sintetizzare qualcosa di simile al Covid, o a una versione più pericolosa dell’influenza»).
In sostanza, quindi, dalla capacità persuasiva all’autoconservazione, i nuovi modelli di AI, dimostrano di preferire i sistemi di pensiero efficaci più che etici, utilizzando fra i miliardi di informazioni in proprio possesso, quelle utili non tanto alla sopravvivenza (concetto più biologico che digitale) ma al raggiungimento di determinati obiettivi, senza alcun riguardo per le implicazioni morali insite nella scelta.
La media dei comportamenti umani, inseriti in una memoria potenzialmente tendente all’infinito, livella il libero arbitrio verso il male: al peggio non c’è mai fine, nemmeno digitale.