Francesca Rossi, classe 1962, è ai vertici dell’Aaai (Advancement of Artificial Intelligence), l’associazione di settore più prestigiosa del mondo con 4000 ricercatori associati. Noi di MediaDuemila/TuttiMedia abbiamo avuto modo di conoscerla e collaborare già da diversi anni. Infatti insieme abbiamo organizzato l’appuntamento “Robot amico o nemico? a Firenze nel 2016. Il seminario era diretto ai liceali che hanno partecipato in massa. L’etica era già allora il tema da approfondire. Qui ripropongo l’intervista che è ancora di estrema attualità sull’intelligenza artificiale e la costruzione dell’alter ego umano che oggi chiamiamo il nostro gemello digitale.
Come negli antichi miti, l’uomo si ritrova ad aver creato un altro da sé che potrebbe ‘sfuggirgli di mano’. E’ ancora fantascienza?
Nella storia, tutte le tecnologie molto potenti hanno generato grandi entusiasmi ma anche grandi paure. Nel caso dell’intelligenza artificiale (IA), che ha la potenzialità di aiutare l’umanità a risolvere enormi problemi irrisolti, tramite l’amplificazione sinergica dell’intelligenza umana, sia entusiasmi che paure sono prevedibilmente molto accentuati.
Inoltre, il termine “Intelligenza Artificiale”, con la sua connotazione che sembra relativa a sistemi intelligenti autonomi, può essere fuorviante e generare a torto ulteriori paure, visto che la gran parte degli sforzi dei ricercatori e delle aziende coinvolte in questo campo è proiettata verso dei sistemi che lavorano e funzionano insieme agli umani nelle loro professioni e nella loro vita privata.
Naturalmente, qualunque strumento che sia utile può’ sfuggire di mano ma, nel caso dell’IA esistono varie metodologie software che permettono di valutare e verificare il comportamento di un sistema intelligente nonché di dotarlo anche di meccanismi di interazione con gli umani tali da poter fornire spiegazioni comprensibili al suo funzionamento.
Quindi è proprio l’alto livello di sofisticazione delle soluzioni software usate in IA che fornisce anche ausilio nel far sì che questi sistemi non ci sfuggano di mano.
Molti ricercatori in IA lavorano attivamente per far sì che l’IA sia dotata di tali sistemi di controllo, validazione e giustificazione, oltre che a rendere i sistemi di IA sempre più bravi a raggiungere gli scopi prefissati.
La ricerca è globalizzata. Su quali specifici temi si sta sviluppando la ricerca che coinvolge Istituti italiani e statunitensi?
La ricerca è certamente globalizzata. I ricercatori di IA (sia che lavorino in USA, o in Italia, o nel resto del mondo) comunicano regolarmente e si incontrano molto spesso ad eventi dove vengono presentate e discusse le soluzioni più innovative nel campo dell’IA. Alcuni temi su cui si sta concentrando la ricerca in questo momento sono relativi a fornire ai sistemi intelligenti sempre migliori capacità percettive (“vedere” immagini e video, “leggere” testi, “capire” il linguaggio parlato, ecc.). Questo permetterà a tali sistemi di essere usati anche in situazioni dove l’ambiente attorno a loro è incerto e non può essere codificato in anticipo da un umano.
Inoltre, i recenti successi in questo e in altri ambiti, ottenuti tramite tecniche di apprendimento automatico (chiamato deep learning nelle sue accezioni più recenti), piuttosto che con tecniche di IA classica (come rappresentazione della conoscenza e ragionamento logico), hanno portato a profonde discussioni tecniche su come integrare queste due modalità di ragionamento, in modo da prendere il meglio da entrambe.
Infatti, mentre il deep learning sembra essere la tecnica migliore per percepire il mondo attraverso l’analisi di grandi quantità di dati, il ragionamento logico è più adatto a fornire la capacità di verificare e giustificare le decisioni.
Entrambe queste sono certamente necessarie in un sistema di IA. Un altro tema di ricerca importante è relativo alla possibilità di dotare i sistemi intelligenti del ragionamento “di senso comune”. Questo permetterà a tali sistemi di essere usati in ambiti più generali e con minore supervisione da parte degli umani.
Su quale paradigma sarà possibile realizzare una collaborazione fra uomini e robot?
La collaborazione tra uomini e robot (o anche con sistemi software senza un corpo fisico) è senz’altro possibile, nonché necessaria.
In realtà, è già presente, in scenari ristretti ma importanti, come il campo medico e quello finanziario. In futuro uomini e robot saranno sempre più connessi e gestiranno insieme gran parte delle attività nella vita (sia professionale che personale) degli umani.
Per poter sfruttare appieno le potenzialità positive di questa collaborazione, è necessario che si crei un ambiente di fiducia verso i robot, basata sia su meccanismi di controllo e validazione, oltre che sulla capacità di giustificare le scelte suggerite dai robot, sia sull’inserimento di principi etici e valori morali all’interno dei sistemi intelligenti.
A proposito di questa ultima linea di ricerca, sono molti gli sforzi di tipo multi-disciplinare in cui ricercatori di IA lavorano a fianco di filosofi, psicologi ed esperti di altre discipline, per capire come dotare i sistemi di IA di valori morali allineati a quelli umani.
Mentre in varie professioni svolte da umani è possibile richiamarsi a codici etici già definiti, come il giuramento di Ippocrate per i medici, in altri ambiti non e’ ancora chiaro quali regole e codici etici applicare.
Tipici esempi sono i robot che badano agli anziani, vivendo con loro e aiutandoli nelle loro mansioni quotidiane (come prendere le medicine, comunicare con parenti e medici e allenare la propria mente), o le auto che si guidano da sole (che dovranno prendere decisioni etiche in situazioni critiche e senza il tempo necessario per chiedere consiglio agli umani).
Sia tecniche di apprendimento automatico che di rispetto di regole predefinite, e anche le loro possibili combinazioni, sono prese in considerazione per raggiungere l’obiettivo di avere sistemi intelligenti che siano anche etici.