La proposta di legge europea sull’intelligenza artificiale arriva in Commissione EU ed è stata approvata. A metà giugno verrà sottoposta al Parlamento. Di regolamenti e indirizzi allo sviluppo di questa nuova tecnologia definita AIG (Intelligenza Artificiale Generativa), tutti parlano ed anche noi ne analizziamo da tempo, con le riflessioni di Derrick de Kerckhove, sviluppi e implicazioni nel modo di vivere dell’essere umano.
Il tema è anche al centro dell’incontro organizzato dalla Fondazione Pensiero Solido il 19 maggio a Milano, Antonio Palmieri presidente con il quale abbiamo collaborato e collaboreremo ancora che ne ha scritto su economy up.
Ma facciamo il punto.
In Europa si mettono le basi del regolamento considerando 6 principi su cui non si può transigere. In primis c’è l’uomo che deve, sempre, avere la possibilità di intervenire e super vedere, poi si precisa la necessità di solidità tecnica e sicurezza, di privacy e governance dei dati, di trasparenza, non discriminazione e sostenibilità sociale ed ambientali.
Dagli anni 40, epoca in cui Asimov mise le basi con le tre leggi della robotica non siamo andati molto avanti, abbiamo semplicemente ribadito gli stessi principi aggiornandoli con il contesto attuale. Infatti, le tre leggi di Asimov riportano che:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Insomma, il robot deve servire l’uomo e non viceversa. Oggi la differenza è la chiamata alla responsabilità di tutti colori che sono implicati nel processo realizzativo, ma ancora una volta l’intervento istituzionale arriva dopo molte alert.
Penso a Sam Altman, CEO di OpenAI compartecipata da Microsoft che ha chiesto agli Stati Uniti di regolamentare l’implementazione di modelli avanzati di LLM l, avvertendo dei pericoli dell’IA generativa senza un quadro regolamentare solido. Durante l’audizione al Senato Altman ha affermato che le normative saranno fondamentali per mitigare i rischi di modelli sempre più potenti, man mano che crescono i timori per le minacce alla società. E sottolineo non a caso la testimonianza era incentrate sulla diffusione della disinformazione causata e sulle violazioni delle leggi sulla privacy dei dati associate al modo in cui OpenAI addestra i suoi modelli.
A questo proposito Derrick de Kerckhove ha già più volte condiviso i concetto che “una cosa è la distorsione di una notizia che alla base è vera, un’altra è la costruzione ex novo di una notizia costruita da chi ha per scopo la manipolazione culturale politica e sociale”.
Dunque come dice L’Economist nel regno digitale le leggi locali non funzionano e l’Unione Europea con la nuova regolamentazione sulla IA punta a diventare il super regolatore mondiale dell’IA: “L’esempio da manuale di quello che è stato soprannominato effetto Bruxelles è il regolamento generale sulla protezione dei dati (GDPR) dell’UE, entrato in vigore nel 2018 e rapidamente diventato lo standard globale”.