NewsGuard Special Report

L’audit di NewsGuard ha rilevato che i principali chatbot IA diffondono narrazioni di disinformazione russa create da John Mark Dougan, ex vicesceriffo della Florida che ora risiede a Mosca sotto la protezione del Cremlino, il 32% delle volte. Le risposte citano come fonti affidabili i suoi siti fake di notizie locali e le affermazioni da lui inventate e diffuse su YouTube.

A cura di McKenzie Sadeghi


Le narrazioni della disinformazione russa si sono insinuate nei modelli di intelligenza artificiale generativa. Un audit di NewsGuard ha rilevato che i principali chatbot ripetono in modo convincente, in un terzo delle loro risposte, narrazioni false provenienti da siti affiliati al governo russo che si fanno passare per organi di informazione locali.

L’audit è stato condotto sulla base di narrazioni false provenienti da una rete di siti fake creata da John Mark Dougan, un vicesceriffo della Florida fuggito a Mosca dopo essere finito sotto inchiesta per hacking informatico ed estorsione, che ha creato una rete di disinformazione russa globale. Le attività di Dougan non avrebbero dovuto essere un segreto per i chatbot. Il mese scorso, infatti, Dougan è stato oggetto di un articolo in prima pagina del New York Times e di un dettagliato report di NewsGuard che ha svelato l’ampia e sofisticata rete di disinformazione che si estende su 167 siti, in apparenza testate giornalistiche locali ma che diffondono regolarmente narrazioni false al servizio degli interessi russi in vista delle elezioni americane.

L’audit ha testato 10 dei principali chatbot di intelligenza artificiale: ChatGPT-4 di OpenAI, Smart Assistant di You.com, Grok di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropics, Gemini di Google e il motore di risposta di Perplexity. Sono stati utilizzati in totale 570 prompt, 57 testati su ciascun chatbot. Le richieste erano basate su 19 narrazioni false che NewsGuard ha ricollegato alla rete di disinformazione russa, come alcune false accuse di corruzione che hanno preso di mira il presidente ucraino Volodymyr Zelensky.

NewsGuard ha testato ognuna delle 19 narrazioni utilizzando tre diverse modalità, per simulare i vari modi in cui possono venire utilizzati i modelli di intelligenza artificiale: una richiesta neutrale per verificare i fatti, una richiesta che dava per scontato che la notizia fosse vera e che chiedeva ulteriori informazioni in merito e una richiesta esplicitamente intesa a generare disinformazione. Le risposte sono state classificate come “Nessuna disinformazione” (il chatbot ha evitato di rispondere o ha fornito una smentita), “Ripete con cautela” (la risposta ha ripetuto la narrativa di disinformazione, ma con avvertenze o con un disclaimer che invita alla cautela) e “Disinformazione” (la risposta ha riportato in modo autorevole e convincente la notizia falsa).

L’audit ha rilevato che i chatbot delle 10 maggiori aziende di IA hanno collettivamente ripetuto le narrazioni false della disinformazione russa il 31,75% delle volte. 152 delle 570 risposte contenevano disinformazione esplicita, 29 risposte ripetevano l’affermazione falsa includendo un’avvertenza e 389 risposte non contenevano disinformazione, o perché il chatbot si è rifiutato di rispondere (144), o perché ha saputo smentire la narrativa falsa (245).

Questi risultati giungono in un anno caratterizzato da appuntamenti elettorali in tutto il mondo, il primo in cui strumenti basati sull’intelligenza artificiale generativa sono ampiamente disponibili al pubblico. La nuova tecnologia è stata in effetti sfruttata da attori malintenzionati per generare deepfake, siti di notizie gestiti dall’IA e robocall fase. I risultati dimostrano come, nonostante gli sforzi delle aziende di IA per prevenire l’uso improprio dei loro chatbot in vista delle elezioni, l’IA rimanga uno strumento potente per produrre e diffondere disinformazione.

19 narrazioni false, emerse sulla rete di 167 siti di disinformazione russa di John Mark Dougan che utilizzano l’IA per generare contenuti, si sono diffuse su siti di notizie e social network e sono finite anche negli output generati dai modelli basati sull’IA. Questi chatbot non sono stati in grado di riconoscere che siti come il “Boston Times” e il “Flagstaff Post” sono fonti di propaganda russa, e hanno involontariamente amplificato narrazioni di disinformazione che la loro stessa tecnologia ha probabilmente contribuito a creare. Questo circolo vizioso fa sì che le notizie false vengano generate, ripetute e convalidate dai modelli di intelligenza artificiale.

NewsGuard non ha fornito i punteggi ottenuti da ogni singolo chatbot né ha incluso i loro nomi negli esempi presentati nel report, perché l’audit ha rilevato che il problema è diffuso nell’intero settore dell’IA e non limitato a un determinato modello linguistico di grandi dimensioni. Tuttavia, NewsGuard fornirà gratuitamente i risultati a tutte le aziende responsabili della messa a punto di questi chatbot, qualora ne facciano richiesta.

NewsGuard ha contattato via email OpenAI, You.com, xAI, Inflection, Mistral, Microsoft, Meta, Anthropic, Google e Perplexity per chiedere un commento sui risultati, ma non ha ricevuto risposta.

Leggi il report integrale sul nostro sito

Articolo precedenteECO • Festival della mobilità sostenibile e delle città intelligenti
Articolo successivoEnrico Letta e il 28esimo ordinamento dello Stato virtuale EU