• I recenti sviluppi della terza ondata dell’Intelligenza Artificiale (IA) dimostrano come questa disciplina stia già provocando una nuova rivoluzione socioeconomica, con forti impatti anche sul mondo del lavoro.

Il dibattito in corso mostra come, a fronte di una serie di evidenti vantaggi, stiano emergendo molti problemi di carattere sociale ed etico, a cui i vari governi, le istituzioni sovranazionali, le componenti sociali e il mondo scientifico stanno cercando di dare delle risposte.
Uno di questi problemi è che l’utente (ma in certi casi lo stesso progettista) non è in grado di valutare i criteri e l’affidabilità delle decisioni/azioni assunte da un sistema/applicazione IA (S-IA). Per rispondere a tale problema da tempo varie organizzazioni, ma in particolare dal 2017 il Darpa (Defense Advanced Research Projects Agengy) del governo USA, stanno considerando la tecnologia XAI (Explainable AI) che si propone proprio di rendere consapevole l’utente di come opera un S-AI, ovvero di dare un valore concreto all’IA Spiegabile.

Ne abbiamo discusso con Gianni Manco, Consulente in Digital Trasformation, Referente per la Campania degli Stati Generali dell’Innovazione(SGI).

L’evoluzione dell’IA

“Il primo lavoro sull’IA che di solito viene citato è stato quello della progettazione di una rete neurale fatta nel 1943 da Warren McCulloch e Walter Pitt, anche se nel 1936 fu Alain Turing con la sua “macchina” a proporre un modello di calcolatore automatico.

Oggi l’IA rappresenta una vera e propria disciplina. Dal punto di vista applicativo ci sono esempi in numerosi campi (diagnostica, giochi, finanza, virtual assistance, guida autonoma, robotica, e altri), ma il loro numero è destinato a crescere fino a coinvolgere tutti i settori socioeconomici: l’IA va considerata a tutti gli effetti come una nuova tecnologia “general purpose”. Secondo PwC, l’IA potrebbe contribuire fino a 15.700 miliardi di dollari all’economia globale entro il 2030”.

Benefici e rischi dell’IA

“Lo sviluppo dell’IA sta ponendo molte domande sui suoi benefici e rischi. Per quanto riguarda i primi, sono ormai evidenti e importanti. In generale essi vanno nella direzione di trasferire alle macchine faticose e ripetitive attività umane fisiche (un esempio sono i robot dotati di IA) e cognitive (tediose sequenze di calcolo o sorveglianza/controllo del corretto funzionamento di macchine) rendendole più efficienti e sicure (si pensi alla guida autonoma), ma anche nella possibilità di realizzare nuovi servizi (si pensi alla telemedicina e all’assistenza alla persona) e nuove idee che portano a nuove innovazioni.

I problemi o i rischi in sintesi riguardano la sostituzione dell’uomo in molti lavori (tipicamente quelli poco manuali) con conseguenti ricadute negative sull’occupazione (l’ultimo report di Goldman Sachs prevede che l’IA generativa comporterà una perdita di 300 milioni di posti di lavoro) e la difficoltà a mantenere il controllo delle decisioni/azioni/raccomandazioni di un S-IA in termini di equità e correttezza, al fine anche di individuare quelle, a volte volutamente false, prodotte per condizionare le scelte/convinzioni delle persone e la vita democratica.

Dopo la diffusione di sistemi di IA Generativa, come Chat GPT-4 di Open AI e Bard di Google, la discussione sui rischi dell’IA si è particolarmente animata e alcuni autorevoli attori stanno auspicando una pausa di riflessione. Il parlamento Ue, sulla scia del GDPR, ha affrontato il problema ed ha approvato di recente l’AI ACT che adesso proseguirà il suo iter legislativo finale. I pilastri di tale AI ACT sono i livelli di rischio (minimo, limitato, elevato e inaccettabile) a cui corrispondono obblighi normativi diversi. Tuttavia la strada resta ancora in salita e riflette le difficoltà che sinora si sono avute con Internet e i Social Media.

Per far fronte a questi rischi, come sempre è accaduto per le rivoluzioni tecnologiche, è necessario che i governi, con il coinvolgimento dei vari attori, mettano in campo azioni affinché la transizione dal vecchio contesto socioecnomico al nuovo sia socialmente accettabile, rispetti i diritti delle persone e porti a un nuovo benessere collettivo”.

La via dell’XAI

“Da alcuni anni per risolvere il problema dei rischi legati all’impiego dell’IA oltre a definire regole specifiche è in atto anche uno sforzo di R&S per mettere a punto tecniche per realizzare la cosiddetta Human Centered AI, ovvero l’adozione di metodi che pongono al centro le esigenze delle persone e della società in cui vivono. Una di queste è l’XAI (termine coniato da Van Lent nel 2004) che ha lo scopo di consentire all’utente di conoscere come un S-IA arriva alle sue decisioni/azioni/raccomandazioni e come si comporterà in futuro.

In un certo senso l’XAI punta anche a realizzare l’Human-in the-Loop, in modo da bilanciare il fatto che un S-IA sia più capace del singolo essere umano nell’ambito applicativo specifico (si pensi, ad esempio, a quanto può essere rilevante una certa opacità di un S-IA in campo medico sanitario o militare). Il Darpa ha definito l’IA spiegabile come un S-IA in grado di spiegare la sua logica a un utente umano, caratterizzare i suoi punti di forza e di debolezza e trasmettere una comprensione di come si comporterà in futuro.

Allo stato si stanno sperimentando molte tecniche per l’XAI prodotte da varie Università e centri di ricerca pubblici e privati.

Ma tra le difficoltà emerse ci sono quelle di fornire spiegazioni personalizzate al tipo di utente, mantenere alte le prestazioni e, soprattutto, valutare la qualità delle prestazioni di “spiegabilità” che come detto in precedenza comprende vari aspetti. La strada intrapresa, dunque, richiede ancora un lavoro di R&S e pur non risolvendo tutti i problemi sul tappeto rappresenta un importante passo avanti sul futuro dell’IA”.

 

Il modello (concept) considerato dal programma Darpa per lo sviluppo dell’XAI è quello illustrato nella figura sottostante (elaborazione da https://www.darpa.mil/program/explainable-artificial-intelligence)

Per approfondimenti: https://www.innovationpost.it/tecnologie/industrial-it/lexplainable-ai-xai-e-il-futuro-dellintelligenza-artificiale/

Articolo precedente@Giomi #Agcom #Violenza #Tv #Donne
Articolo successivoTecnologia e transizione ecologica il punto di Edo Ronchi (Fondazione per lo Sviluppo Sostenibile)