La Commissione Ue ha presentato il 21prile la proposta di regolamento sull’Intelligenza Artificiale (AI) e un nuovo Piano coordinato con gli Stati membri per “garantire la sicurezza e i diritti fondamentali di persone e imprese, rafforzando nel contempo l'adozione dell'AI e gli investimenti e l'innovazione nel settore in tutta l'UE”.
Il rapido sviluppo tecnologico dell'AI e l’aumentano degli investimenti delle autorità statali nel settore, ha spinto l'Unione ad agire per sfruttare le opportunità offerte dalle tecnologie e affrontarne le sfide. L’obiettivo è quello di sviluppare l’affidabilità delle tecnologie e incentivare la fiducia nell’AI. Le nuove capacità alimentate dalla potenza di calcolo offrono, infatti, nuove potenzialità in tanti settori come la sanità, i trasporti, l'energia, l'agricoltura, il turismo, la "cyber sicurezza", ma non senza nuovi potenziali pericoli: alcuni degli usi e delle applicazioni dell’intelligenza artificiale possono, infatti, causare dei danni ai singoli individui, sia rispetto alla sicurezza e alla salute, sia nei confronti dei loro beni o di altri diritti e interessi fondamentali tutelati dal diritto dell’UE.
Le proposte della Commissione Ue hanno come scopo quello di garantire che l’intelligenza artificiale rispetti i diritti fondamentali, per poter sfruttare, “in sicurezza”, il potenziale dell'AI per uso industriale. Negli intenti della commissione il nuovo regolamento sull'AI garantirà che i cittadini europei possano fidarsi di ciò che l'AI ha da offrire, attraverso “regole proporzionate e flessibili che affronteranno i rischi specifici posti dai sistemi di AI e fisseranno i più elevati standard a livello mondiale”.
Il piano coordinato, invece, dovrebbe indicare i cambiamenti strategici e gli investimenti necessari per gli Stati membri “per rafforzare la posizione di primo piano dell'Europa nello sviluppo di un'AI antropocentrica, sostenibile, sicura, inclusiva e affidabile”.
Le nuove regole saranno applicate direttamente in tutti gli Stati membri, sulla base di una definizione di AI “adeguata alle esigenze future” e seguendo “un approccio basato sul rischio.”
Tale approccio sul rischio prevede un sistema specifico di divieti e di procedure più rigorose.
In base alle nuove regole proposte dalla Commissione saranno vietati, in virtù della considerazione del rischio come inaccettabile, i sistemi di AI considerati una evidente minaccia per la sicurezza, per i mezzi di sussistenza e per i diritti delle persone. In tale categoria sono ricompresi i sistemi o le applicazioni di AI che “manipolano il comportamento umano per aggirare il libero arbitrio degli utenti”, come ad esempio, giocattoli che utilizzano l'assistenza vocale per incoraggiare i comportamenti pericolosi dei minori e i sistemi che consentono ai governi di attribuire un "punteggio sociale".
Saranno, invece, considerati ad alto rischio i sistemi in cui la tecnologia di AI è utilizzata: in infrastrutture critiche (come i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini; nell'istruzione, poiché può determinarne l'accesso e influire sul percorso professionale; in componenti di sicurezza dei prodotti (ad esempio nella chirurgia assistita da robot); nell'ambito dell'occupazione e della gestione dei lavoratori (come software di selezione dei CV); in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell'affidabilità delle prove); nella gestione della migrazione, dell'asilo e del controllo delle frontiere; nell'amministrazione della giustizia. Tutti i sistemi ad alto rischio saranno soggetti a obblighi rigorosi ulteriori prima dell’immissione sul mercato, tra i quali: adeguati sistemi di valutazione e attenuazione dei rischi; elevata qualità dei set di dati che alimentano il sistema; tracciabilità dei risultati; documentazione dettagliata sul sistema e sulle sue finalità; informazioni chiare e adeguate; appropriate misure di sorveglianza umana; elevato livello di robustezza, sicurezza e accuratezza.
Anche i sistemi di identificazione biometrica remota sono considerati ad alto rischio e, pertanto, sono soggetti a requisiti rigorosi. Al divieto del loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico sono previste alcune eccezioni, rigorosamente definite e regolamentate. Tra le deroghe si segnala l’utilizzo, ove strettamente necessario, per la ricerca di un minore scomparso, per prevenire una minaccia terroristica specifica e imminente. Tale uso è, comunque, soggetto all'autorizzazione di un organo giudiziario (o di altro organo indipendente) e a limiti ulteriori per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.
Per i sistemi di AI a rischio limitato, sono previsti specifici obblighi di trasparenza. Per i sistemi a rischio minimo (come videogiochi o filtri spam basati sull'AI), il progetto di regolamento non interviene con obblighi ulteriori.
Il regolamento costituirebbe il primo quadro giuridico dell’AI a livello globale: al primato giuridico, potrebbero seguire importanti conseguenze sul piano economico, industriale e di sviluppo tecnologico. Tali considerazioni non devono mettere in secondo piano l’esigenza di un approccio etico all’AI, sin dalla progettazione.
Mentre continuerà l’iter per l’approvazione del regolamento sull’intelligenza artificiale, alcuni articoli hanno ricordato l’esigenza di una riflessione etica in materia, anche rispetto all’emergenza pandemica. Nell’articolo “Using AI ethically to tackle covid-19”, pubblicato su BMJ, l’autore ricorda come nella crisi sanitaria molto utili si sono rivelati i dati, soprattutto quelli relativi alla salute: l'intelligenza artificiale consente (e consentirà sempre più) di monitorare l'avanzamento di un virus o aiutare nell’allocazione delle risorse. Per la difesa della vita e della salute, rispetto anche ai nuovi virus, si implementerà sempre più la ricerca sulle tecnologie che utilizzano i dati. È però messa in luce l’esigenza, sin dalla progettazione, di una riflessione etica. L’uso di dati potrebbe infatti violare importanti diritti fondamentali, generando nuove forme di disuguaglianza o sfruttamento.
L’adozione di un approccio etico coerente, fin dall'inizio, consentirà di sfruttare pienamente i vantaggi dell'AI. Al contrario, se non è adottato un approccio etico, aumenterà la possibilità di conseguenze dannose, anche non intenzionali, e di perdita della fiducia.
Quando si considera l'uso dell'AI in un contesto di salute pubblica, per l’autore sarebbe utile considerare in che modo le sfide poste dall'AI interessino i principi della beneficenza, della non maleficenza, dell’autonomia e della giustizia.