Automazione e disuguaglianza la natura estrattiva dell’IA
Ho apprezzato l’analisi di Sofia Ranchordas (Professore Ordinario di Diritto Pubblico Europeo e Comparato presso la Facoltà di Giurisprudenza dell’Università di Groningen nei Paesi Bassi e Professore di Diritto, Innovazione e Sostenibilità presso la LUISS) per l’analisi sul rapporto tra IA e uomo che definisce paradossale e diseguale. “Sviluppiamo l’IA per superare i nostri difetti umani in modo da essere più veloci “super umani” – ha spiegato Sofia Ranchordas -. Da un lato l’IA ci offre un’opportunità per ripensare che cosa significa essere umani nell’era digitale e dall’altro l’IA assume un ruolo estrattivo perché sottrae l’umano da questioni legali, sociali, lavorative ed emotive. L’IA rimane estrattiva perché la legge non si è ancora del tutto allineata alla trasformazione digitale”.
I motivi di questa sua asserzione li spiega con un racconto che sancisce alcuni evidenti pregiudizi della decisione robotica.
“Porto alla vostra attenzione la storia di 26mila famiglie olandesi che hanno perso lavoro casa e talvolta anche i propri figli per un piccolo errore nella compilazione di un modulo digitale, utile ad ottenere il sussidio per l’iscrizione dei propri figli all’asilo nido – ha raccontato -“.
I sistemi digitali programmati dallo Stato olandese per rilevare eventuali truffe da parte dei cittadini, a causa di elementi di giudizio basati su pregiudizi dovuti al colore della pelle, istruzione e livello di reddito hanno portato la macchina erroneamente a prendere di mira proprio i cittadini più poveri e le minoranze etniche che si sono visti arrivare multe da 50mila euro. “I cittadini hanno cercato di mostrare la loro innocenza ma non sono stati creduti da nessuno perché tutti si fidavano dei sistemi di intelligenza artificiale – ha precisato Sofia Ranchordas – mentre in questo caso l’IA può è stata un’arma a doppio taglio. L’autorità per la protezione dei dati personali olandese ha poi multato le autorità fiscali olandesi per milioni di euro a causa dell’accaduto, che è diventato noto come lo scandalo olandese per i sussidi all’asilo nido. Ecco perché sono convinta che la legge per la protezione dei dati non è sufficiente a proteggere i cittadini dalla natura estrattiva dell’IA. Anche se il diritto amministrativo può svolgere un ruolo centrale, esistono dei paradossi che impediscono ai cittadini di essere protetti dai rischi derivanti dall’uso dell’IA nel settore pubblico. Di fatto il diritto amministrativo non è concepito per offrire dati e strumenti giuridici per difendere i cittadini. Invito dunque a riflettere su come il diritto amministrativo vada rimodellato per proteggere i cittadini e a formare i cittadini affinché sappiano utilizzare i sistemi digitalizzati. L’IA non distingue errori commessi in buona fede dalle frodi. L’impiego dell’IA nel settore pubblico può provocare dei fallimenti nel sistema, come dimostra il caso Olandese. L’ empatia è la chiave di tutto e può rendere lo Stato amministrativo digitale più umano e costituisce un valore chiave nel diritto, una condizione necessaria per garantire giustizia e democrazia”.