L’ A.I. Act approvato nel febbraio scorso intende promuovere lo sviluppo e l’adozione di un’Intelligenza Artificiale sicura e affidabile nell’intero mercato unico dell’Unione Europea. Segue un approccio “basato sul rischio”, in cui le regole diventano più stringenti in relazione al potenziale danno alla società.
I sistemi con rischi limitati di provocare violazioni dei diritti fondamentali sono soggetti a obblighi di trasparenza, quelli ad alto rischio possono essere autorizzati con una serie di vincoli e di requisiti, ad esempio sulla documentazione tecnica o altri aspetti, come la qualità dei dati. Nei casi di rischio inaccettabile i sistemi sono vietati. Rientrano in questa categoria i sistemi in grado di condizionare i comportamenti cognitivi, le indagini generalizzate sulle immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la classificazione biometrica di dati sensibili, quali l’orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per le persone.
Il Regolamento non si applica a settori che non rientrano nell’ambito di applicazione del diritto dell’Unione europea e non incide sulle competenze degli Stati membri in materia di sicurezza nazionale. Sono esclusi dall’applicazione del regolamento i sistemi utilizzati esclusivamente per scopi militari o di difesa e quelli utilizzati solo a scopo di ricerca e innovazione.
Il quadro delle regole è complesso, va integrato con le normative esistenti sulla Privacy ed è ancora passibile di cambiamenti, che non dovrebbero modificare il quadro generale.
Quali sono i punti di forza e di debolezza dell’ A.I. Act ?
Il Regolamento è stato definito il primo regolamento sull’Intelligenza Artificiale al mondo e istituisce un quadro giuridico uniforme volto a regolare lo sviluppo, la commercializzazione e l’uso dei sistemi di Intelligenza Artificiale, ovviamente in conformità con i valori e i diritti dell’Unione Europea.
Se bastasse “usare bene” l’Intelligenza Artificiale per avere risultati positivi, sarebbe stato sufficiente disciplinarne l’uso. Ma per le caratteristiche stesse dell’ I.A. può succedere che rischi potenzialmente dannosi possano essere introdotti fin dal momento dello sviluppo tecnologico. E le tecniche di Intelligenza Artificiale possono essere inglobate in molteplici prodotti e servizi, senza che ciò sia visibile a chi ne fruisce. Ecco allora l’esigenza di dare norme anche riguardo alla commercializzazione dell’Intelligenza Artificiale.
Dal punto di vista giuridico è importante la definizione di “Intelligenza artificiale” contenuta all’articolo 3, perché costituisce la prima definizione legislativa al mondo in materia:
“Il sistema di intelligenza artificiale è un sistema basato su macchine, progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Il linguaggio è piuttosto tecnico, ma sottolinea gli aspetti di autonomia d’azione, capacità di adattarsi alle situazioni che si verificano durante il funzionamento, e l’effetto di poter influenzare l’ambiente circostante.
La definizione contiene tante sfumature, tanto che è stata oggetto di un documento aggiuntivo ed è stato affidato alla Commissione Europea il compito di emanare apposite Linee Guida.
La debolezza del regolamento sta innanzitutto nella sua struttura, fatta di enunciati, di premesse, di rimandi a Linee Guida ancora da scrivere. Una seconda debolezza sta nella sua formulazione, frutto di equilibri e compromessi tra i tre organismi decisori, Parlamento, Consiglio e Commissione, ma soprattutto di una difficile composizione di interessi con le aziende europee del settore, che temono di essere troppo penalizzate rispetto a quelle operanti in altre parti del mondo. In particolare, l’esclusione di sistemi d’arma lascia ampi spazi per sviluppare sistemi di Intelligenza Artificiale non soggetti a controlli. Una terza debolezza sta nei tempi di entrata in vigore: due anni, con la velocità dell’innovazione in corso, possono significare un quadro tecnologico profondamente cambiato.
Ci sono poi alcune debolezze ineliminabili. I diritti tutelati sono quelli percepiti come tali nella cultura europea, con le priorità che la sensibilità europea stabilisce. Si pensi al conflitto tra le esigenze della sicurezza e quelle della privacy, ad esempio. La ricerca di un Regolamento mondiale trova proprio nelle diversità culturali e giuridiche l’ostacolo maggiore.
Vi è inoltre una debolezza concettuale, quella che Gerd Gigerenzer chiama “paternalismo tecnologico”: l’idea che sia possibile fissare per legge non solo i principi generali, ma anche e minuziosamente gli aspetti operativi di attività complesse e di sistemi tecnologici in continua evoluzione.
Il limite intrinseco delle leggi che stabiliscono limiti e vincoli sta, infine, nel fatto che esse arrivano dopo che gli eventuali danni sono avvenuti. Si tratta di quelle situazioni che rientrano nei casi considerati da Geoffrey Hinton, un manager protagonista del settore, che ha affermato che “il problema che abbiamo di fronte è l’impossibilità di impedire ai malintenzionati di fare cose dannose tramite l’Intelligenza Artificiale”.
Allora alle leggi va affiancato un impegno culturale, educativo, etico, per formare nelle persone una mentalità capace di esercitare la responsabilità, potenziare le proprie capacità con l’Intelligenza Artificiale senza farsi sostituire dall’ Intelligenza Artificiale.
Testi: Andrea Tomasi