Al convegno Tra Tutele e Innovazione – L’audiovisivo nella corsa all’Intelligenza Artificiale per quel che riguarda l’impatto della diffusione dell’AI sull’attività regolamentare di AGCOM, la Commissaria Laura Aria ha sottolineato che “noi tutti siamo coinvolti nella sfida per una regolazione efficace dell’Intelligenza Artificiale, specie in relazione alla tutela dei diritti fondamentali, sia per individuare le criticità e i rischi che l’Intelligenza Artificiale porta con sé, ma soprattutto per coglierne le opportunità di innovazione, crescita e sviluppo sociale ed economico”.
Flavio Arzarello (Public Policy Manager, Economic and Regulatory policy, Italy presso Meta) parlando di Intelligenza Artificiale e Europa ha dichiarato: “Credo che l’IA sia una grande opportunità, anzitutto per l’umanità. Sta già portando con sé una grande rivoluzione e l’obiettivo è di massimizzare le opportunità e minimizzare i rischi. Per quanto riguarda Europa e IA rispetto al resto del mondo è fortemente indietro perché le prime 50 aziende europee sono aziende tradizionali, perché se prendiamo le aziende a maggiore capitalizzazione nel mondo non ci sono campioni europei, perché il numero di brevetti sull’IA depositati in Europa è significativamente minore di quelli depositati negli USA o in altre parti del mondo. Questa arretratezza dell’Europa è dovuto al suo quadro normativo che ha reso difficile per le imprese fare innovazione in questa parte del mondo. L’Europa per invertire questa rotta deve completare il digital single market e avere regole su IA che consentano di fare in modo che in Europa si possa fare innovazione”.
Luana Lavecchia(Senior Public Policy & Gov’t Relations Manager, Italy and Greece) ha parlato delle misure che attua la piattaforma che rappresenta al fine di utilizzare al meglio l’IA e tutelare i minori: “La regolamentazione europea e il Digital Service Act ci offrono garanzie di trasparenza. La responsabilizzazione delle piattaforme già esiste, quello che l’Europa ci sfida a fare e di alzare l’asticella. Per quanto riguarda l’IA con TikTok lavoriamo molto nel garantire la trasparenza dei contenuti e la consapevolezza degli utenti etichettando i contenuti generati dall’IA. Teniamo molto anche alla tutela dei minori, infatti, abbiamo introdotto nuove misure di parental control. Con queste novità il genitore sarà in grado ogni giorno di impostare un blocco della piattaforma per un massimo di 8 fare e/o consentire al proprio figlio di guardare i contenuti. Quello che vogliamo fare è creare un dialogo tra il minore che utilizza la piattaforma e il genitore”.
Walter Quattrociocchi (docente alla Università di Roma La Sapienza) ha ricordato la mancanza di un’advisory scientifica seria nel mondo della tecnologia e delle regole, ed ha riportato l’esempio di una ricerca pubblicata su Nature, a firma Duncan Watts che afferma che quello che dicono intellettuali e giornalisti sul tema della disinformazione non è supportato da nessuna evidenza scientifica. La ricerca riassume circa i200 studi sul tema della disinformazione, evidenziando tre punti. L’esposizione alle fake news non è così alta, coloro che si espongono sono principalmente persone portate all’estremismo e, il giornalismo attuale è sempre più entertainment e sempre meno informazioni. Il problema è dunque il business model, non sono i cattivi che mettono informazioni false sul web o sui social”.