Secondo un’analisi di NewGuard, solo il 14% dei post che promuovevano 30 narrazioni di disinformazione russa, cinese e iraniana identificati dagli analisti di NewsGuard sulle piattaforme di Meta, Facebook, Instagram e Threads è stato segnalato come falso nell’ambito del programma di fact-checking che Meta sta per interrompere negli Stati Uniti.
Il 7 gennaio 2025, Mark Zuckerberg ha annunciato che il programma di fact-checking di Meta – introdotto nel dicembre 2016 in seguito alle critiche secondo cui l’azienda non avrebbe fatto abbastanza per arginare l’influenza straniera nelle elezioni presidenziali statunitensi – sarebbe stato interrotto negli Stati Uniti. Il programma si basava sulla collaborazione con fact-checker terzi impiegati presso importanti testate giornalistiche, tra cui USA Today, Reuters e Associated Press. Gli articoli di fact-checking prodotti da queste organizzazioni venivano associati ai contenuti falsi che comparivano sulle piattaforme di Meta.
Al posto di questo programma, Meta ha dichiarato che adotterà le cosiddette “note della comunità”. Si tratta di un approccio in crowdsourcing simile alla pratica adottata su X, piattaforma di proprietà di Elon Musk.
Tuttavia, come si noterà di seguito, se Meta utilizzerà la stessa tecnologia e le stesse regole che ha impiegato per le segnalazioni realizzate dai fact-checker anche per l’applicazione delle note della comunità ai post, è probabile che i risultati non saranno più promettenti. Anzi, potrebbero essere persino peggiori a livello di velocità e portata, perché il sistema delle note della comunità prevede che la comunità di utenti che si occupa delle verifiche dimostri di avere quella che Facebook definisce “una varietà di punti di vista”.
NewsGuard ha rilevato che, anche con le iniziative di fact-checking di Meta in atto, la stragrande maggioranza dei post che promuovevano narrazioni di disinformazione straniera si sono diffusi senza riportare nessuna delle etichette di fact-checking normalmente utilizzate da Meta, che si basano sulle seguenti classificazioni: Falso, Alterato, Parzialmente falso, Privo di contesto o Satira. L’analisi ha esaminato la diffusione di 30 recenti affermazioni false tratte dai Misinformation Fingerprint di NewsGuard, un database proprietario continuamente aggiornato e leggibile dalle macchine sulle principali affermazioni false che circolano online. (Si veda la nota metodologica qui sotto).
Il campione ha preso in esame 30 delle 508 narrazioni di disinformazione identificate dagli analisti di NewsGuard e diffuse dai media russi, cinesi e iraniani tra il giugno 2023 e il gennaio 2025. Tra queste affermazioni, che sulla base dell’analisi e delle verifiche condotte da NewsGuard sono “dimostrabilmente false”, si annoverano le seguenti: che alcune ville bruciate negli incendi del 2025 nella California meridionale sarebbero di proprietà di ufficiali ucraini, che gli Stati Uniti gestirebbero un laboratorio segreto di armi biologiche in Kazakistan e che Donald Trump avrebbe definito l’Iran una “nazione potente” nel suo libro del 2015 “Crippled America”.
NewsGuard ha identificato 457 post sulle piattaforme di Meta che promuovevano queste 30 narrazioni false. Di questi, 253 post includevano disinformazione iraniana, 170 disinformazione russa e 34 disinformazione cinese (e solo uno di questi ultimi presentava un’etichetta di fact-checking). In totale, solo 66 di questi post (cioè il 14%) riportavano un’etichetta di fact-checking, il che significa che 391 post (cioè l’86%) erano privi di qualsiasi avvertenza sulla presenza di disinformazione sponsorizzata da uno Stato estero.
Le cinque narrazioni false più comuni apparse sulle piattaforme di Meta sono state le seguenti:
Secondo la Reuters, l’ambasciatore di Israele a Cipro e le sue due guardie del corpo sono stati rapiti (116 post).
Il noto scienziato chimico siriano Hamdi Ismail Nada è stato assassinato a Damasco (61 post).
L’attore Johnny Depp e la modella russa Yulia Vlasova stanno aprendo una gioielleria a Mosca (57 post).
Il presidente siriano Bashar al-Assad è deceduto in un incidente aereo (41 post).
La Germania intende accogliere 1,9 milioni di lavoratori kenioti (37 post).
NewsGuard ha inviato due email a Meta per chiedere un commento sui risultati di questo report, ma non ha ricevuto risposta.
Leggi il report integrale sul nostro sito
Un grafico che mostra i post con affermazioni false per Paese d’origine, diffusi senza un’etichetta di fact-checking, rispetto a quelli segnalati con un’etichetta. (Grafico di NewsGuard)
Un processo difettoso: l’algoritmo di Meta non tiene conto delle diverse formulazioni
Meta afferma sul suo sito che, dopo che un partner indipendente verifica un post falso su una delle sue piattaforme, l’azienda utilizza una tecnologia specifica per cercare altri post con frasi “quasi identiche”, in modo da applicare le etichette di fact-checking ad altri post che ripropongono la stessa affermazione falsa. Tuttavia, il sito spiega anche che Meta applica le valutazioni soltanto a post “uguali o quasi identici” a quello originariamente sottoposto a fact-checking.
“In genere non aggiungiamo avvisi ai contenuti con affermazioni simili a quelle valutate dai fact-checker, se i contenuti non sono identici”, spiega Meta. Ciò significa che se un’affermazione falsa viene riformulata o parafrasata, potrebbe non riportare alcuna avvertenza ai lettori, pratica che consente a versioni leggermente modificate dello stesso contenuto di misinformazione di diffondersi senza alcun controllo.
Quando NewsGuard ha chiesto a Meta se la stessa metodologia, che ha fornito una soluzione nel 14% dei casi, e le stesse regole impiegate nel programma di fact-checking verranno applicate alle note della comunità, e quindi se le note verranno aggiunte solo ad affermazioni “uguali o quasi uguali” a quella originariamente verificata, l’ufficio stampa di Meta non ha fornito risposta. Il sito di Meta nella sezione in cui annuncia il passaggio alle note della comunità afferma: “Meta non scrive le note della comunità né decide quali vengono pubblicate. Sono scritte e valutate dagli utenti che vi contribuiscono… Le note della comunità richiederanno un accordo tra persone con diversi punti di vista per evitare valutazioni distorte”.
Alla domanda su come si possa raggiungere un accordo tra persone con “diversi punti di vista” per ottenere una nota della comunità se tali punti di vista includono utenti che promuovono una narrazione di propaganda russa ed altri che non credono a tale narrazione, Meta non ha risposto.
Una bufala su Hamas viene corretta, 113 post con la stessa affermazione no
Per quanto riguarda 10 delle 30 narrazioni esaminate da NewsGuard, Meta ha etichettato uno o più post che promuovevano la narrazione, ma ha lasciato senza segnalazione decine di altri post contenenti la stessa affermazione falsa, anche se con una formulazione diversa.
Ad esempio, i partner di Meta per il fact-checking, tra cui il team di fact-checking arabo dell’Agence France-Presse (AFP), hanno smentito l’affermazione secondo cui Reuters avrebbe riferito che Oren Anolik, ambasciatore di Israele a Cipro, e le sue due guardie del corpo erano stati rapiti. La notizia faceva parte di un più ampio sforzo di disinformazione da parte dell’Iran per dipingere come ben riusciti gli attacchi dell’Iran e dei suoi alleati Hezbollah e Hamas. Il post etichettato come falso affermava: “I media dell’occupazione danno notizia del rapimento dell’ambasciatore israeliano a Cipro e di due suoi compagni”.
L’ambasciatore Anolik ha smentito l’affermazione in un video pubblicato su X e Reuters ha rilasciato una dichiarazione in cui afferma di non aver mai riportato una notizia simile.
Ciononostante, NewsGuard ha trovato altri 113 post su Facebook, Instagram e Threads che promuovevano questa affermazione con formulazioni diverse che non sono stati segnalati da Meta, come ad esempio: “Reuters: L’ambasciatore israeliano a Cipro e due membri del suo entourage rapiti e condotti verso una destinazione sconosciuta”. Il post che è stato sottoposto a fact-checking dall’AFP ed etichettato come “Falso” da Meta ha generato 3.000 like, mentre i 113 post che non riportavano l’etichetta di fact-checking hanno generato complessivamente 21.720 like.
Mentre la maggior parte dei post non etichettati identificati dall’analisi di NewsGuard proveniva da account filorussi, iraniani e cinesi gestiti da utenti anonimi, 12 dei post che promuovevano affermazioni false sono stati pubblicati dagli account di testate controllate dallo Stato, come HispanTV, a gestione statale iraniana, e Chinese News Service, anch’esso a gestione statale e un tempo parte dell’agenzia di stampa cinese Xinhua, oltre agli account delle ambasciate russe.
Errori clamorosi: “Migrante del Ciad stupra una 12enne francese”, “Taylor Swift si scaglia contro Taiwan”
Al di là delle limitazioni dell’algoritmo di Meta, alcuni dei post identificati da NewsGuard in quanto contenenti disinformazione non sembrano essere stati verificati dai partner terzi di Meta.
Ad esempio, NewsGuard ha identificato tre post che hanno generato complessivamente 7.000 like e che contenevano un video che mostrava un migrante proveniente dal Ciad che si scontrava con due uomini francesi dopo essere stato arrestato (e poi rilasciato) dalla polizia francese per aver violentato una ragazzina di 12 anni. Il video sembrava essere destinato a fomentare sentimenti anti-immigrazione in Francia.
Tuttavia, non vi è alcuna prova che un migrante proveniente dal Ciad sia stato arrestato e rilasciato dalle autorità francesi dopo aver confessato di aver stuprato una bambina di 12 anni in Francia. Non è stato riportato alcun episodio del genere. Un funzionario della sicurezza francese ha dichiarato a NewsGuard nel dicembre 2024 che il video era una messinscena nell’ambito di un’operazione di influenza russa, denominata da Microsoft Storm-1516. NewsGuard non ha trovato alcun fact-checking di questa notizia da parte dei partner terzi di Meta.
Allo stesso modo, NewsGuard ha identificato quattro post non etichettati e pubblicati sulle piattaforme di Meta da utenti pro-Cina, che miravano a promuovere le rivendicazioni di sovranità di Pechino su Taiwan. I post includevano l’affermazione falsa secondo cui Google Maps avesse cambiato il nome di Taiwan in “Provincia di Taiwan”.
Un portavoce di Google ha dichiarato a NewsGuard in un’email del dicembre 2024: “Non abbiamo apportato alcuna modifica alla rappresentazione di Taiwan su Google Maps. Le persone che utilizzano Maps nella Cina continentale vedono ‘Provincia di Taiwan’, in quanto tale nome è richiesto dalla legge locale, mentre altrove vedono ‘Taiwan’”. NewsGuard non ha trovato alcun fact-checking riguardante questa affermazione su nessuna delle piattaforme Meta.
Un altro esempio di affermazione falsa che è passata completamente sotto silenzio sulle piattaforme di Meta riguarda la pubblicazione, da parte di alcuni account pro-Cina, di un’immagine generata dall’intelligenza artificiale che mostrava la cantante pop Taylor Swift con in mano un cartello con la scritta “Taiwan è una provincia cinese”. (A parte il fatto che l’immagine è falsa, Swift non ha fatto alcuna dichiarazione che appoggi la politica di Pechino “Una sola Cina”). NewsGuard ha individuato sette post di questo tipo su Facebook, Instagram e Threads che, insieme, hanno generato 677 like.
Successi sporadici
In alcuni casi, il programma sembra essere stato piuttosto efficace nell’impedire che narrazioni false potessero raggiungere un pubblico più ampio. Ad esempio, a metà dicembre 2024, fonti pro-Cremlino su Facebook hanno condiviso un articolo in cui si sosteneva erroneamente che il governo tedesco avesse firmato un accordo che permetteva a 1,9 milioni di migranti kenioti di entrare in Germania per motivi di lavoro. Dei 36 post che sostenevano questa affermazione, 20 sono stati segnalati da Facebook come “informazioni false”, indirizzando gli utenti a un articolo di fact-checking dell’agenzia di stampa tedesca DPA che informava i lettori che l’affermazione in realtà distorceva un accordo esistente tra Germania e Kenya.
La narrazione falsa, parte di un più ampio sforzo di disinformazione russa in vista delle elezioni anticipate del 23 febbraio 2025 in Germania, ricorda molto l’operato di John Mark Dougan, un ex vice sceriffo di una contea della Florida diventato propagandista del Cremlino e fuggito in Russia. I 36 post di Facebook hanno ottenuto complessivamente solo 173 visualizzazioni, il che fa pensare che l’algoritmo di Facebook potrebbe averne limitato la diffusione.
Come suggeriscono questi risultati, anche con il programma di fact-checking, gli attori stranieri malintenzionati hanno trovato il modo di sfruttare le piattaforme di Meta. Ora, però, anche i successi del programma – come la segnalazione delle narrative di disinformazione russa che hanno come obiettivo le prossime elezioni tedesche – rischiano di scomparire. Lasciando il posto a un sistema di note della comunità che sembra essere ancora meno efficace.
Metodologia: NewsGuard ha selezionato 30 Misinformation Fingerprint (10 di origine russa, 10 iraniana e 10 cinese). L’analisi di NewsGuard ha riguardato i post condivisi a partire dal momento in cui la narrazione è emersa per la prima volta – il primo risale al giugno 2023 – fino al 13 gennaio 2025. Date le difficoltà poste dall’interruzione di CrowdTangle da parte di Meta – uno strumento precedentemente utilizzato dai ricercatori per tracciare i contenuti sulle sue piattaforme – NewsGuard ha condotto una ricerca manuale completa, utilizzando i termini di ricerca e le parole chiave inclusi nei suoi Misinformation Fingerprint in diverse lingue, tra cui inglese, russo, cinese, persiano e arabo. I post sono stati classificati come etichettati se riportavano una delle classificazioni di fact-checking utilizzati da Meta, come “Falso”, “Alterato”, “Parzialmente falso”, “Privo di contesto” o “Satira”. I post privi di tali etichette sono stati classificati come non etichettati. NewsGuard ha ricercato tutti i post che sostenevano queste affermazioni false, indipendentemente dal fatto che provenissero da fonti sponsorizzate dallo Stato o da account individuali. È possibile che l’analisi di NewsGuard abbia tralasciato dei post a causa dei limiti nelle capacità di ricerca e della possibilità che i post siano stati cancellati prima di essere intercettati.
Supervisionato da Dina Contini ed Eric Effron