Recentemente, DeepSeek e il suo Large Language Model (LLM) ha fatto tremare i giganti della Silicon Valley con suo prodotto open source che ha richiesto investimenti notevolmente più bassi dei suoi omologhi statunitensi. Si è quindi riacceso il dibattito sull’intelligenza artificiale, area che nata oggi nel lontano 1956 (il workshop Dartmouth Summer Research Project on Artificial Intelligence, tenutosi nell’estate del 1956 nel New Hampshire nel Dartmouth College, è considerato l’evento fondante dell’Intelligenza Artificiale. Fu organizzato da John McCarthy, a cui è anche dovuto il nome, Marvin Minsky, Claude Shannon e Nathaniel Rochester che già lavoravano nel campo dei sistemi intelligenti) con orizzonti più ampi e ricchi. In Italia, ma non solo, Luigia Carlucci Aiello ha avuto un ruolo pioneristico nel promuovere e fare avanzare la disciplina: per questo motivo, il 30 settembre dello scorso anno la Sapienza le ha conferito l’onorificenza accademica di Ambasciatrice Sapienza.
Iniziamo con il nuovo ruolo di Ambasciatrice della Sapienza. Come hai recepito questa onorificenza?
Mi ha fatto ovviamente piacere, ma lo considero un riconoscimento tardivo. Per un lungo periodo, la governance della Sapienza non ha considerato il mio lavoro, al contrario della stima e dal calore tributatemi dai miei studenti e colleghi che infatti hanno partecipato numerosissimi alla giornata. Come ebbe a dire Antonio Ruberti “La Sapienza è un elefante ingessato”.
Un consiglio alle giovani di oggi, per le quali potresti essere un modello, che vogliano intraprendere una carriera in una professione legata all’area STEM sia nella ricerca che nell’industria.
Non mi sento un modello, e non mi sono mai posta questa domanda. A volte nella vita ci si trova in situazioni per cui certe scelte vengono facilitate e non sono necessariamente frutto di grandi riflessioni. Per tanti versi mi sono trovata nel posto giusto al momento giusto: dopo l’università, ho lavorato in un ambiente estremamente stimolante e in un momento storico importante che coincideva con la nascita dell’informatica in Italia e dell’intelligenza artificiale soprattutto negli USA e in Inghilterra. L’ambiente italiano era più legato alla cibernetica che all’intelligenza artificiale anche se i contatti internazionali di alcuni scienziati italiani, tra cui il mio relatore di tesi, erano con ricercatori in IA anche se tale nome non era ancora stato coniato.
Non mi sono mai posta il problema di facilitare l’accesso in base al genere, i miei studenti sono stati maschi o femmine senza nessuna preferenza e senza nessun vincolo. L’ambiente condiziona le scelte: a Pisa la maggior parte erano donne, a Roma più uomini perché ero a ingegneria in cui le studentesse sono sempre state poche. Con gli anni sono aumentate, ma ci sono stati momenti di rallentamento non legati a fatti scientifici ma condizionati dall’ambiente e dalla politica, come ad esempio negli anni del berlusconismo imperante in cui i modelli erano ben altri.
In realtà le discipline STEM non sono tutte uguali, in alcune l’accesso per le donne è ancora “ghettizzato” mentre in altre sono quasi la maggioranza.
Io spesso parlo dei figli perché sono i giovani che educhiamo al domani, insieme alla scuola poiché anche gli insegnanti dei primi cicli scolastici hanno influenza sulla formazione e sull’evoluzione delle personalità che poi troviamo in aula.
Ancora oggi l’educazione delle ragazze è maggiormente indirizzata alla cura: anche nell’ambito STEM scelgono indirizzi che hanno a che fare con le scienze della vita, come la medicina.
L’ingegneria attrae meno tranne che ingegneria clinica o bioingegneria, dove il numero delle donne è più alto.
Come donne dovremmo interiorizzare che lo sviluppo della tecnologia ha bisogno del nostro contributo. Una considerazione scaturita da un libro letti di recente: l’ottava sul pianoforte è stata progettata pensando a una mano maschile, come tanti altri strumenti. Non avevo mai seriamente riflettuto sul fatto che molti oggetti hanno una certa forma perché fatti da uomini e modellati su essi: se li progettasse una donna, si porrebbe problemi diversi con il risultato di una maggiore inclusività.
Durante un’intervista che ti feci per Media Duemila nel 2016, abbiamo discusso del crescente ruolo delle macchina nella nostra vita. Tu rispondesti con una provocazione, chiedendoti se gli umani di sesso maschile fossero delle macchine mal programmate a causa del numero di femminicidi, purtroppo sempre in crescita, che ci allontana da un sano concetto di parità. Quali sono le chiavi per una parità nel mondo della scienza e della società in generale? Credi che per arrivare alla parità sia più importante una politica di genere, l’educazione o l’informazione?
Questa è una domanda molto impegnativa, su cui non ho riflettuto molto.
C’è bisogno di molta educazione e molta formazione per i giovani di entrambi i generi perché una vera parità richiede equilibrio e rispetto reciproco, una maggiore maturazione soprattutto da parte degli uomini. In questo periodo abbiamo appreso che il patriarcato è stato abolito per legge: la legge può anche abolire una parola, ma non abolisce un costume o le aspettative con cui i giovani maschi vengono cresciuti.
Rileggere quell’intervista fa uno strano effetto perché il panorama è completamente cambiato e ormai i Large Language Model la fanno da padrone, dimenticato tutti i possibili contributi di altri aspetti dell’IA all’innovazione tecnologica. Che tipo di visione hai sul ruolo dell’IA nel futuro? Andremo oltre i LLM e ritorneremo studiare i veri contributi dell’IA alla vita quotidiana, al sociale, alla politica, ecc.?
Il 2016 non è così lontano: si parlava molto di machine learning e di guida robotica autonoma; c’era già Siri e AlphaGo batteva il campione mondiale di Go. Le problematiche di cui abbiamo discusso sono ancora attuali perché il contesto non è cambiato molto, ma non se ne parla perché il dibattito è monopolizzato da ChatGPT che è un qualcosa che tutti possono usare e credere di capire: la macchina impara da sola e mi risponde, io sono qui e mi lascio servire. Purtroppo, ChatGPT sta nascondendo e glissando qualunque altro aspetto dell’intelligenza artificiale, fatto grave che andrebbe combattuto.
Non tutto quello che sta succedendo in questo momento è attribuibile ai LLM che hanno ancora tanti problemi: farli diventare sinonimi di intelligenza artificiale è molto pericoloso perché si butta via molta ricerca molto più stabile e destinata a durare ed evolvere. Sicuramente anche i LLM subiranno delle evoluzioni e spero proprio che non siano destinati a durare rimanendo in questo stato.
Il processo su cui si basano questi sistemi porta naturalmente a degli errori: tutti abbiamo collezionato esempi di cantonate anche grossolane.
Un aspetto molto critico riguarda proprio la produzione di risposte: genera qualche cosa di plausibile sulla base di quello che gli è stato proposto, che è ben lungi dal dire concepire qualcosa di vero. Non può gestire nessi causali, non può gestire nessi temporali e non ha nessuna idea di che cosa sia vero.
Non voglio però parlare troppo male degli LLM perché può sembrare la solita guerra di religione della persona che, essendo partita dalla dimostrazione automatica di teoremi e dalla logica, non riesce a staccarsene e non riesce apprezzare il valore delle reti neurali, della probabilità, ecc. E io apprezzo moltissimo il loro contributo, però si deve tenere in conto che l’essere molto probabile e l’essere vero sono due cose molto diverse.
Secondo te quali sono le tecnologie emergenti in cui con cui l’intelligenza artificiale potrebbe lavorare in sinergia per produrre veramente dei prodotti dirompenti, innovativi e utili?
I campi di applicazione sono tantissimi e non sono tutti nuovi: alcuni sono lì da anni e aspettano che la tecnologia si irrobustisca. Ad esempio, il riconoscimento di immagini è importantissimo per applicazioni mediche, per la guida autonoma e in tutti quei lavori in cui si devono fare delle categorizzazioni. Lì sicuramente l’intelligenza artificiale ci può aiutare moltissimo.
Con il filone LLM non ci possiamo aspettare niente sul fronte del decision making: la buona vecchia intelligenza artificiale con le tecniche di generazione di risposte esatte e controllate deve ancora trovare il suo spazio, perché non mi fiderei di un sistema che mi suggerisce azioni anche critiche (vendi tutte le proprietà e compra azioni della ditta Y) se non so come sia arrivata a questa conclusione: il percorso logico deve essere comprensibile e spiegabile.
Sono tanti i campi che possono essere impattati pesantemente dall’intelligenza artificiale, ma non è spingendo nella direzione dei modelli probabilistici o delle grandi scatole nere. Sicuramente i LLM si possono migliorare perché ci siamo accorti di molti dei loro problemi, a partire dai bias che avevano già i motori di ricerca: non ne non so quanti ne riusciremo a risolvere.
Possono essere molti utili per applicazioni di servizio, tipo un text editor molto migliorato, perché sicuramente conoscono la grammatica molto meglio degli utenti umani che li stanno usando: possono scrivere delle lettere commerciali, o fare degli spot pubblicitari molto convincenti. Sicuramente possono essere degli assistenti. L’essenziale è mettere in dubbio qualunque frase essi generino.
L’esplosione qualche anno fa del Machine Learning e adesso dei LLM è dovuto al fatto che abbiamo capacità per immagazzinare tantissime informazioni e potenza di calcolo per gestirle. Quello che manca è la vecchia e cara rappresentazione della conoscenza, i dati sono destrutturata per cui è difficile seguire il discorso logico per accertarsi che effettivamente sia stata detta la verità.
Questi problemi ce li siamo posti anche noi tanti anni fa perché è normale quando qualcosa arriva sul mercato e si confronta con le applicazioni vere. Finché sei nei laboratori e giochi, puoi muoverti in assoluta libertà ma quando i sistemi entrano nella pratica di una qualche professione devi porti molti più problemi.
La discussione in corso adesso assomiglia tantissimo a quella degli anni 80, quando si è cercato di vendere i sistemi esperti. I problemi etici, i problemi legali e i problemi della comprensibilità dei ragionamenti ce li siamo già posti come ricercatori in quel periodo.
Non li abbiamo risolti ma qualche cosa l’abbiamo capita.
La prima cosa è che un sistema non si può auto-spiegare se non parla con lo stesso linguaggio dell’utente e soprattutto se non condivide un modello cognitivo.
Senza scomodare l’intelligenza artificiale, immaginiamo che chieda al programma che fa le fatturazioni del gas di spiegami la mia bolletta. Come risposta, mi invia un dump della memoria, che ovviamente è incomprensibile: deve usare un linguaggio e uno schema di ragionamento che io posso seguire, e quindi linguaggio e modello cognitivo. Altrimenti resterà sempre una scatola nera.
Il problema si ripone oggi in tutta la sua serietà, ma riusciremo a fare un passo avanti solo se ChatGPT riuscirà a ragionare su se stesso e raccontarci perché è arrivato a delle conclusioni, usando il linguaggio e i modelli che noi usiamo.
Stiamo invece andando in una strada che è completamente divergente: se riuscissimo invece a inglobare dei modelli cognitivi umani in questi sistemi, faremmo veramente un grande passo avanti.
Io vedo queste grandi basi di dati che vengono macinate a grande velocità. Macinano tanto (G. Marcus, E. Davis, Insights for AI from the Human Mind. Communications of the ACM, Vol. 64 (1), p.38-41, 2020), anche se alla fine tirano fuori un topolino che l’essere umano vedrebbe immediatamente.
La psicologia cognitiva ci ha insegnato veramente tante cose. Mi viene in mente una figura che trovai su un vecchio articolo di Marcus & Davis che conteneva un’immagine ambigua che noi esseri umani comprendiamo subito sulla base del contesto.
Il simbolo centrale della figura a destra è 13 o B? Se la leggi in orizzontale è ABC, in verticale 12, 13 e 14. Una cosa complicatissima per una macchina, immediato per un umano. Noi sappiamo usare il contesto e la capiamo all’istante, senza mobilità, grandi calcoli, grandi reti neurali multistrato o simili.
Questa è una dimensione che si sta perdendo completamente e che invece andrebbe recuperata.
La storia dell’intelligenza artificiale è un andirivieni di cose e di esempi. Adesso va tanto di moda dire che il volo meccanico è stato possibile quando gli ingegneri hanno iniziato a dimenticarsi che il volo animale si basava sul movimento delle ali. E e quindi noi dobbiamo fare la stessa cosa, e andare sempre più veloce e fare basi dati sempre più grosse, etc. Si fa la cosa più grossa e si arriva prima alla soluzione. Purtroppo, il ragionamento umano non è la stessa cosa che il battito delle ali del volo animale e riprodurre il ragionamento umano: secondo me vanno veramente molto rivalutati e riapprezzati gli esseri umani.
Le grandi basi di dati create per i LLM sono influenzate dalle ideologie dei costruttori (M. Buyl, A. Rogiers, S. Noels, et al., Large Language Models Reflect the Ideology of their Creators.arXiv: r2014.18417), nel mondo occidentale le costruiscono in un modo completamente diverso dai cinesi e da altri: che ci fossero degli aspetti legati alla cultura era ben noto, che i bias esistevano prima che li riscoprissimo attraverso ChatGpt o similari era ben noto, l’influenza dell’ideologia può avere pesanti ripercussioni.
Apprezzo tantissimo quello che stanno facendo e dico che sicuramente resterà il segno di questo. Io spero che non sia invece una cosa così trucida che ucciderà tutta l’intelligenza artificiale, perché quando la gente comincerà a capire che non funziona dopo la delusione dei sistemi esperti sarebbe la morte della IA.
Questo ci porta ancora di nuovo al concetto del probabile vs il vero, se una risposta può essere influenzata addirittura dall’ideologia siamo ben lontani dal parlare di verità.
C’è una barzelletta che girava quando eravamo studenti sulla dimostrazione che tutti i numeri dispari sono primi, e che distingueva i matematici dai fisici. 1 è un numero dispari e anche primo; 3 è un numero dispari e primo; 5 è un numero dispari è anche primo; 7 e un numero dispari e primo; 9 lo rivediamo dopo; 11 dispari e primo; 13 dispari e primo. Quindi la tesi è dimostrata e 9 è un errore statistico: questa è la differenza tra dimostrazione e verità statistica.
Siamo pieni di barzellette che ci raccontano gli errori, anche grossolani, che si possono fare cercando di arrivare ad un risultato. Si può arrivare ad una conclusione, ma si deve considerare che l’errore. Abbiamo una verità matematica, che non è una verità fisica, chimica, meccanica perché si lavora su un modello astratto: l’errore legato al fatto che si passa da un modello all’oggetto reale. A livello di ragionamento si può dire che si è dimostrato qualcosa essere vero con una probabilità molto alta, che non è proprio la stessa cosa del dire che è vera.