Lettera aperta di Paolo Lutteri –13 luglio 2023
Caro Alberto, amico mio,
l’innovazione tecnologica è straordinaria e seducente. La nostra Conferenza sull’Intelligenza Artificiale del 4 luglio scorso è stata dedicata alle definizioni, alla competenza giuridica e ad alcuni casi interessanti di gestione intelligente dei big data. E’ rimasta in sospeso la discussione sull’organizzazione degli algoritmi, sullo sfruttamento commerciale, nonché sui problemi di copyright e privacy, oltre che delle fonti.
La raccolta dei dati da parte dei motori ‘intelligenti’ pesca nelle memorie aperte al pubblico ma anche in quelle dei privati (aziende o individui). E certamente fruga nell’intimo dei social media, come ha detto il nostro Garante Stanzione: “sfruttando i frammenti dell’io che sono i dati personali”, che proteggono la libertà e la dignità della persona. Rapidi ed invasivi. Considerata la velocità della elaborazione delle informazioni nel mondo di oggi, mentre sono in arrivo 5G, 6G e Computer quantistici, il calcolo e le decisioni sembrano essere quasi incontrollabili dalla lentezza della mente umana.
Ci sono anche questioni di principi etici, che non sono mai neutrali. Un algoritmo di fonte cattolica potrebbe dare risultati molto diversi da un algoritmo di fonte islamica. Le elaborazioni targate ‘democrazia socialista di stampo cinese’ potrebbero (anzi: sono) diverse da quelle della ‘democrazia liberal-consumista’ targata USA. Ti lascio sbizzarrire tra i risultati di un algoritmo di carnivori o di vegani, no-vax, ecologisti, suprematisti, dittatori ecc. Di base resta che solo poche Big Tech e pochi Governi nazionali hanno grandi risorse di denaro e di ricerche per fare ‘intelligenze’ artificiali. Forse le innovazioni tecnologiche sono più vicine ad una funzione di marketing (economico o politico) che di crescita scientifica. Non escluderei che singoli algoritmi, complementari, vengano commercializzati come fossero app.
Di più: le risposte di ChatGpt o similari, per modalità e tempi, non sono comandamenti universali, ma pareri personalizzati, ovvero variano da un interlocutore all’altro, non sono né unici né definitivi. Potrebbero ribaltare la storia e le leggi con giudizi di parte (patrioti costì, rivoltosi colà?!). Se l’utilizzo diventasse corrente, affidando quindi decisioni impegnative al computer, il rischio di offuscare diritti civili e regole nazionali sarebbe altissimo. Dopo tutto il dibattito sulle fake news avremmo ancora aperto un territorio vastissimo di confronto tra verità e falsità, sia per la documentazione storica che per la fantasia letteraria che per i futuribili sostenibili.
L’effervescenza della digitalizzazione promette nuove avventure e turbolenze.
Leggo di un Class Action Complaint della California (per miliardi di dollari) contro OpenAI, la società di software per ChatGpt. Le informazioni sottratte a social media, blog, forum, post, documenti di famiglia, articoli di Wikipedia e altre enciclopedie e trasformate ad uso commerciale, sono imputate di costituire un indebito uso di diritti d’autore e di ambito privato.
Caro Alberto, i problemi sono grossi, le opportunità dell’intelligenza artificiale possono essere eccellenti per l’informatica, ma i risultati non sono sempre affidabili e la discussione è appena avviata. Dovremo parlarne ancora. Un abbraccio
Paolo