Pasquale Stanzione Presidente dell’Autorità Garante, ha scelto un argomento sensibile per caratterizzare la prima giornata dedicata alla Privacy del suo mandato. Sensibile perché riguarda tutti noi e la trasformazione digitale in atto. La macchina “the Machine” all’inglese è dentro di noi, questa l’attualità dell’evoluzione del mondo digitale. Il presidente Stanzione ha voluto approfondire le diverse implicazioni di questa disciplina, che nuova non è, con Paolo Benanti, professore straordinario Facoltà di teologia della Pontificia Università Gregoriana; Marcello Ienca, ricercatore senior presso il Politecnico federale di Zurigo; Giacomo Marramao, professore emerito di Filosofia teoretica Università Roma Tre e Oreste Pollicino, Professore ordinario di Diritto costituzionale e dei media, Università Bocconi.
“Le applicazioni dell’intelligenza artificiale in ambito neuroscientifico aprono scenari inesplorati, incidendo su un sostrato, quale quello cerebrale, irriducibile a mera biologia, tanto forti sono le implicazioni tra attività neurologica, coscienza, identità” ha puntualizzato il garante per la Privacy che parla di chip nel cervello che “non solo consentiranno di contenere gli effetti di patologie neurodegenerative ma che, oltretutto, permetteranno di «salvare» i ricordi, amplificandoli o cancellandoli selettivamente. E se, oggi, strumenti diagnostici avanzati quali la risonanza magnetica funzionale, possono decodificare diversi tipi di segnali cerebrali, in un domani non lontano potranno leggere i pensieri e influenzare, addirittura, gli stati mentali e il comportamento, agendo direttamente sulla sfera neuropsicologica”.
Il brain reading (la lettura del cervello) è ormai realtà. In Cina sperimentano oggetti che permettono di monitorare costantemente l’attenzione dei bambini alle elementari. In alcuni casi in Usa sono stati usati neuro farmaci che non lasciano traccia negli interrogatori dei terroristi. Complimenti quindi al professor Stanzione per aver scelto un tema tanto d’attualità, quanto critico ma interessantissimo per questo anniversario annuale che ha come protagonista il petrolio del terzo millennio. I Dati. Oggi però siamo andati oltre come è nella tradizione dell’Osservatorio TuttiMedia che già nel 2010 ha proposto l’appuntamento “Neuroscienza e marketing” per indagare sull’uso delle tecnologie quale strumento di influenza. Per Paolo Benanti la neurologia è una questione di sicurezza nazionale perché potrebbe dividere ancor più la società fra coloro che si possono permettere di migliorare se stessi e chi no. In questo contesto di uomini avanzati un piccolo deficit diverrebbe una barriera invalicabile. In altri ambiti la vendita di Intelligenza Artificiale che permette l’analisi di situazioni critiche, per esempio comprendere se una persona è bullizzata, potrebbe essere usata nel bene ma anche nel male. Per Benanti è il momento della neuroetica perché con il machine learning possiamo addestrare all’uso illecito dei dati qualsiasi macchina: “Credo che dovremmo avere una soglia di consapevolezza utile all’uso degli strumenti a disposizione del mondo attuale – dice – come esistono le etichette sui cibi bisogna identificare una soglia di responsabilità utile a tutelare il bene comune”. Tre i suoi consigli: Fear of uncertain (remore dell’icerto); Ricerca dell’uguglianza anche come felicità e Policy di governance e non di governo perché la società civile deve prendere parte al processo di ricostruzione equilibrata.
Marcello Ienca, ricercatore senior presso il Politecnico federale di Zurigo parla di privacy mentali e neurodiritti, aspetti della società attuale già descritti in Star Trek quando il comandante chiede di leggere nel pensiero degli abitanti prima di atterrare sul pianeta, pratica che gli viene negata dalle autorità locali. “Il canale diretto fra uomo è macchina è già realtà – dice – un disabile sulla sedia a rotelle può ordinare alle ruote di girare a destra o sinistra con un impulso che arriva direttamente dal cervello. Ma ciò di cui dobbiamo preoccuparci è la capacità predittiva insita nei dati che raccogliamo in questo contesto ed anche del fatto che possiamo interferire una volta decodificato il messaggio. In parole povere si possono cambiare i gusti delle persone o far dimenticare episodi sgradevoli. Il film se ti lascio ti cancello è un esempio di questa pratica possibile. Siamo all’era della nudità del cervello.
I big data oggi si stanno emancipando dai diritti della persona per Oreste Pollicino, Professore ordinario di Diritto costituzionale e dei media, Università Bocconi che mette anche in guardia dall’inflazione dei diritti.
Certo è come dice il garante oggi c’è bisogno “di distinguere fra l’uso strettamente terapeutico delle neurotecnologie dal loro utilizzo a fini di potenziamento cognitivo. Se, infatti, va promosso l’uso terapeutico di tali tecniche, ad esempio per la cura di malattie neurodegenerative, ben più problematico ne è l’uso a fini di potenziamento cognitivo. Si tratta non tanto e non solo del «pendio scivoloso», quanto della definizione del limite oltre il quale non sia tollerabile andare, anche per non ingenerare nuove discriminazioni nei confronti di quanti potenziati non siano e non accettino di essere”.
Il rischio che corriamo non è tanto e non è solo quello dell’hackeraggio del cervello perciò secondo il Garante “ la una nuova antropologia che stiamo affrontando, esige una più effettiva difesa della dignità dal rischio di un riduzionismo (non semplicemente biologico, ma) neurologico, capace di annullare conquiste di libertà ormai talmente consolidate da essere ritenute di fatto acquisite”.