Artificial Intelligence Act: genesi, limiti e possibili scenari

da | Gen 19, 2024 | IN PRIMO PIANO

La notte fra l’8 e il 9 dicembre scorsi, dopo due anni di lavoro e un’estenuante maratona finale di 72 ore, a Bruxelles, l’Europarlamento, la Commissione e il Consiglio hanno trovato un accordo politico sull’A.I. Act (Artificial Intelligence Act) divenendo di fatto il primo consesso di stati a porre un freno legislativo e una maglia flessibile ma tenace allo sviluppo dei sistemi di intelligenza artificiale immessi nel mercato comunitario.

Sulla carta sembra si avveri l’oracolare affermazione dell’allora cancelliera tedesca Angela Merkel quando, prima della pandemia, dichiarò al Forum di Davos che l’Europa poteva aprire la pista «per proteggere i diritti individuali sul web», ponendosi a metà strada fra l’eccesso di libertà statunitense e la sua assenza cinese, e dello stesso avviso è stato anche Thierry Breton, il commissario europeo che ha salutato a caldo il risultato raggiunto scrivendo su X: «Accordo storico! È un trampolino di lancio per guidare la corsa all’intelligenza artificiale».

Il principio base è la distinzione delle applicazioni dell’A.I. a seconda del livello di rischio (che alcuni hanno definito «la piramide del rischio»), da molto basso a inaccettabile: l’A.I. sarà vietata per i sistemi di rating, o credito sociale, quelli che assegnano voti alle persone in base ai loro comportamenti, ma anche per i sistemi di classificazione basati su razza, religione o orientamenti politici, o per i sistemi di polizia predittiva, che segnalano la pericolosità di una persona prima che commetta il crimine (in piena assonanza con la «Precrimine» di Philip Dick), per i sistemi di riconoscimento biometrico (volti e impronte), a meno che non siano autorizzati da un giudice in situazioni di terrorismo o ricerca delle vittime, ma anche per gli algoritmi che riconoscono le emozioni, almeno nelle scuole o sui posti di lavoro, mentre la polizia potrà utilizzarli in contesti di sicurezza e immigrazione.

D’altra parte, l’A.I. sarà utilizzabile, ma solo dopo un’attenta valutazione, per la correzione di compiti scolastici o prove d’esame, per la lettura dei CV nelle selezioni del personale, per la valutazione delle richieste di credito o mutui, per i servizi di trasporto pubblico, per la gestione delle migrazioni e delle richieste di asilo, per i processi civili e penali e per la chirurgia robotica.

Uno dei principali nodi da sciogliere sarà la regolamentazione dei grandi modelli di A.I., quelli così potenti da prestarsi a differenti utilizzi (come quello alla base di ChatGPT), che dovranno pubblicare documentazioni tecniche adeguate, comprensive di una lista dei materiali usati per addestrare gli algoritmi, necessaria per i produttori di contenuti a difendere il copyright, ma anche rendere tracciabili e riconoscibili gli stessi, producendo delle valutazioni dei pericoli possibili per poi comunicarli alla Commissione, che dovrà dotarsi di un A.I. Office apposito; le multe, in caso di violazione di tali disposizioni, saranno salatissime, da un minimo di 1,5% a un massimo del 7% del fatturato globale.

La prossima tappa sarà il 2 o il 9 febbraio, quando si determinerà il voto finale del Consiglio Europeo sull’A.I. Act, mentre entro metà febbraio è previsto il passaggio del regolamento (che, come tale, non avrà bisogno di essere recepito a livello nazionale) alla Commissione per il mercato interno del Parlamento europeo, prima della votazione definitiva dell’assemblea che avverrà a marzo o, più verosimilmente ad aprile per via della traduzione dei testi, quindi il tutto prima delle prossime elezioni europee di giugno: dopo sei mesi scatteranno i divieti ed entro un anno le norme dei modelli fondativi, con un livello di inquadramento ad alto impatto o piccolo cabotaggio, mentre solo nel 2026 si applicherà il pacchetto per intero.

Il riconoscimento biometrico da remoto in tempo reale potrà essere utilizzato da un giudice in caso di terrorismo o di ricerca delle vittime di reati, come già visto, ma Bruxelles ne ha autorizzato l’impiego anche per identificare i sospettati di «seri crimini», la cui tassonomia prevede 16 casi: terrorismo; traffico di esseri umani; abusi sessuali su minori e pedopornografia; traffico di droghe e sostanze psicotrope; traffico illecito di armi, munizioni ed esplosivi; omicidio o gravi feriti; traffico di organi; traffico di materiale radioattivo o nucleare; sequestro di persone e ostaggi; dirottamento di aerei e navi; crimini sotto la giurisdizione della Corte penale internazionale; stupri; crimini ambientali; sabotaggio; rapine organizzate e armate; partecipazione ad un’organizzazione criminale coinvolta in uno o più crimini fra quelli elencati.

Il previsto A.I. Office sarà affiancato da un team di esperti per le A.I. di uso generale, per fornire una consulenza scientifica e valutare rischi e potenziali minacce o nuove applicazioni da inquadrare nel regolamento, mentre ogni Stato dovrà nominare un’autorità locale che si occupi della sua attuazione insieme al Garante della protezione dati.

Per evitare i cortocircuiti del Gdpr (Regolamento Europeo sulla protezione dei dati generali), approvato nel 2016 e in vigore dal 2018, ma di fatto in gran parte inapplicato nella maggior parte degli Stati europei (inclusa l’Italia), a causa delle difficoltà nel raggiungere accordi coi giganti del mercato dei dati generali, Bruxelles vuole promuovere un A.I. Pact, e cioè un accordo fra Commissione Europea, imprese, istituzioni e realtà che sviluppano e utilizzano l’intelligenza artificiale, per adeguarsi alle nuove norme prima della loro entrata in vigore, con una sorta di compliance volontaria.

Sono molte le critiche piovute addosso all’A.I. Act da parte delle associazioni dei consumatori perché, se è vero che il regolamento tutela i diritti fondamentali delle persone, consentendo ai privati la possibilità di presentare un reclamo a un’autorità pubblica o di richiedere un risarcimento collettivo in caso di danno di massa provocato dall’intelligenza artificiale, è altrettanto vero che gli algoritmi in grado di riconoscere i sentimenti dei consumatori saranno ancora consentiti, nonostante la loro invasività e imprecisione, così come saranno privi di regolamentazione i giocattoli intelligenti e gli assistenti virtuali e non è stata prevista la terzietà per i modelli alla base di sistemi come ChatGPT.

L’A.I. Act è solo una cornice, per quanto complessa, ed ora i giuristi ne vivisezioneranno il testo definitivo in cerca di idiosincrasie e imprecisioni, ma le critiche strutturali più pertinenti sono quelle che un simile apparato sia inevitabilmente anacronistico rispetto alla velocità di sviluppo del digitale, e che potrebbe imbrigliare le start-up europee rispetto a quelle internazionali, soprattutto quelle a stelle e strisce e cinesi.

Nel primo caso la critica è una sineddoche del più ampio problema legale in merito al Digitale come categoria assoluta, visto che il Diritto sarà sempre in ritardo rispetto all’evoluzione tecnologica, quasi quanto lo era nel secolo scorso rispetto alla Società Civile, mentre nel secondo la scommessa è che le aziende internazionali operino secondo le regole tracciate dall’A.I. Act nel loro stesso interesse economico, per non perdere una considerevole fetta di mercato.

L’affermazione del ministro francese per il digitale, Joel-Noël Barrot: «Il dominio tecnologico precede il dominio economico e politico», è preoccupante in quanto statica fotografia di una realtà che denuncia impietosamente l’ormai ruolo cadetto di una politica che sembra più un’obsoleta e onorifica maschera di potere, che non la concreta guida del consesso sociale.

Articoli Recenti