Miriam D’Arrigo, Legal and Policy Officer della Commissione europea, DG CONNECT, Artificial Intelligence Policy Development and Coordination Unit ha parlato di IA e regolamento durante un webinar organizzato da Confindustria.
L’Europa è il primo continente a proporre un quadro normativo sull’IA ma è ancora complicato capire per le aziende come confrontarsi con questa novità.
Per Miriam D’Arrigo ” l’IA Act può contribuire al conseguimento di risultati vantaggiosi da tutti i punti di vista: ambientale, sociale e fornire vantaggi competitivi fondamentali per le imprese e per l’economia europea, ma anche portare nuovi rischi o conseguenze negative per persone fisiche e società”.
Il punto è che questa tecnologia “con opacità e complessità, dipendenza dai dati e a comportamento parzialmente autonomo può incidere sui diritti fondamentali”. Ecco perché la Commissione europea è intervenuta a tutela dei diritti fondamentali ed ha cercato di “sviluppare un un quadro giuridico per una IA affidabile”.
Il punto centrale del regolamento sono i sistemi di IA ad alto rischio.
“La classificazione di un sistema di IA ad alto rischio si basa sulla sua finalità – spiega Miriam D’Arrigo – in linea con la normativa europea in materia di sicurezza dei prodotti. Di conseguenza la classificazione ad alto rischio non dipende solo dalla funzione svolta dal sistema di IA, ma anche dalle finalità e modalità specifiche di utilizzo di tale sistema. I punti cardine sono protezione della salute, sicurezza e diritti fondamentali”.
Il regolamento ruota sulla difesa laddove i rischi significativi sono proprio per la salute, la sicurezza e i diritti fondamentali delle persone.
Per l’esperta “l’IA Act o legge sull’IA è un atto orizzontale che presenta un approccio normativo equilibrato e proporzionato che si limita ai requisiti minimi necessari per affrontarne i rischi e i problemi ad essi legati senza eliminare o ostacolare lo sviluppo tecnologico”.
Infatti tiene a precisare che l’idea dell’Europa è stata proporre un quadro normativo a favore dell’innovazione al fine di ridurre gli oneri normativi e sostenere le piccole e medie imprese e le startup e che la maggioranza dei sistemi di intelligenza artificiale non presenta nessun rischio o presenta un rischio minimo e, dunque, ne è assolutamente permesso l’immissione nel mercato dell’Unione europea “senza nessuna rispondenza ad obblighi particolari. Questo include applicazioni come videogiochi abilitati per l’intelligenza artificiale o per esempio filtri anti spam”.
Gli usi dell’intelligenza artificiale particolarmente dannosi che contravvengono ai valori europei perché violano appunto i diritti fondamentali saranno sempre vietati, così come quei sistemi che riguardano lo sfruttamento delle vulnerabilità delle persone o l’utilizzo di tecniche criminali. Anche in questo contesto si parla di “pratiche che presentano delle potenzialità molto elevate in termini di manipolazione di persone o di specifici gruppi vulnerabili”.
L’esempio in questo caso sono i giocattoli che possono interagire col bambino suggerendo dei messaggi subliminali violenti. Ciò può accadere con le persone con disabilità o altri gruppi specifici vulnerabili per distorcerne il comportamento in maniera tale da provocare a un’altra persona un danno fisico o psicologico.
Parla anche di social score riferendo di sistemi che valutano o classificano l’affidabilità di persone fisiche sulla base del loro comportamento sociale in vari contesti o secondo caratteristiche personali ed anche di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle autorità di contrasto, definendo i limiti di tali controlli che “possono essere utilizzati solo in alcuni casi circoscritti, ossia per un’attività di contrasto relativa alla lista di crimini specifici: ricerca vittime di rapimento, tratta sfruttamento sessuale di esseri umani, oppure prevenzione di minacce per la vita o l’incolumità delle persone fisiche, o risposta a un attacco terroristico probabile.
La conclusione è positiva: “L’IA Act prevede un sistema di governance a livello di Unione nazionale che fa rispettare un certo set di regole – sottolinea Miriam D’Arrigo – quindi a livello di Unione la proposta istituisce un comitato europeo per l’intelligenza artificiale. A livello di commissione invece avremo un nuovo ufficio europeo per l’intelligenza artificiale che supervisionerà i modelli, in particolare per finalità generali e dopodiché avremo il regolamento che prevede altri corpi di di governance, in particolare l’advisory forum, che sarà costituito da una selezione di portatori di interessi fra cui industrie, startup, società civile. Poi un gruppo di esperti scientifici”.
Scarica la presentazione a questo link.