In gergo tecnico, “garbage in, garbage out” significa che se un sistema riceve dati scadenti, quel sistema produrrà risultati scadenti.
Chatbot
Lo stesso vale per l’accuratezza dei chatbot IA. Un’analisi di NewsGuard ha rilevato che il 67% dei siti di notizie classificati come di alta qualità da NewsGuard richiede ai modelli di IA di non accedere ai propri contenuti giornalistici. Ciò significa che i modelli di IA devono fare affidamento in modo sproporzionato ai siti di notizie di bassa qualità che consentono ai chatbot di utilizzare i loro contenuti. Questo aiuta a spiegare perché i chatbot diffondono così spesso affermazioni false e misinformazione.
Analisi di NewsGuard
Un’analisi di NewsGuard dei 500 siti di notizie più visitati dagli utenti online ha rilevato che i siti che hanno ottenuto un punteggio di affidabilità più basso nelle valutazioni di NewsGuard — vale a dire quelli che hanno maggiori probabilità di diffondere informazioni false o fuorvianti, secondo la valutazione di NewsGuard — hanno maggiori probabilità di essere inclusi tra i dati a cui hanno accesso i modelli di intelligenza artificiale quando vengono addestrati. Questo perché è meno probabile che chiedano ai web crawler, i bot che forniscono i dati ai chatbot IA, di evitare i loro siti. Al contrario, molte testate di alta qualità hanno affisso l’equivalente del cartello “Vietato l’accesso” ai propri siti, almeno fino a quando le aziende di IA non pagheranno le licenze per poter accedere ai loro contenuti.
Capire da quali fonti provengono i chatbot
Ciò significa che i principali chatbot potrebbero attingere da fonti inaffidabili più spesso di quanto normalmente accadrebbe tramite una ricerca tradizionale sui contenuti del web. Poiché le aziende di chatbot non rivelano esattamente come reperiscono o utilizzano i dati, non possiamo sapere con certezza quali fonti specifiche influenzano le loro risposte. Ai siti di disinformazione provenienti da Russia, Cina e Iran, ai siti complottisti e ai siti che pubblicano bufale su medicina e salute non dispiace affatto l’idea di far addestrare i modelli di intelligenza artificiale con i loro contenuti. Al contrario, i siti di notizie di alta qualità il cui giornalismo vale la pena di essere pagato, vogliono ricevere un compenso se i modelli di intelligenza artificiale vengono addestrati con i contenuti prodotti dai loro giornalisti, non regalare il prodotto del loro lavoro.
Siti di bassa qualità
Esempi di siti di bassa qualità che non richiedono ai chatbot di evitare i loro contenuti sono The Epoch Times (Punteggio di affidabilità di NewsGuard: 17,5/100); ZeroHedge (Punteggio di affidabilità: 15/100), un blog di finanza che pubblica teorie del complotto smentite; e Bipartisan Report (Punteggio di affidabilità: 57,5/100), un sito di notizie e commenti che non distingue tra notizie e opinioni e non rivela la sua agenda liberale. Esempi di siti di alta qualità che chiedono ai chatbot di evitare i loro contenuti sono NBCNews.com (Punteggio di affidabilità: 100/100); Today.com (Punteggio di affidabilità: 95/100); e TheGuardian.com (Punteggio di affidabilità: 100/100).