Continuiamo ad occuparci di chip e cervello dopo l’articolo di Derrick de Kerckhove, questa volta la riflessione sulla simbiosi fra uomo e macchina  è di Daniela D’Aloisi, ingegnere esperta di digitale e AI.

La notizia dell’impianto del chip Telepathy (N1), ad opera della Neuralink di Elon Musk, nel cervello di un paziente, paralizzato otto anni fa in seguito a un incidente subacqueo ha fatto il giro del mondo. E’ stato diffuso un video che lo mostra mentre gioca a scacchi su un computer, muovendo i pezzi con il suo pensiero. La modalità invasiva ha sollevato parecchie perplessità, anche se il primo impianto nel cervello è di ben 20 anni fa (https://www.nature.com/articles/nature04970) e altri ne sono seguiti. I primi esperimenti risalgono all’inizio degli anni Cinquanta, quando si scoprì di poter manipolare i centri del dolore e del piacere impiantando chirurgicamente degli elettrodi nel cervello.

Da allora le ricerche non si sono più fermate: lo scopo primario è trovare soluzioni per malattie che limitano le nostre funzionalità cognitive, ma l’effetto collaterale è il possibile potenziamento delle capacità mentali se si agisse su persona “sana”. Negli ultimi dieci anni c’è stato un crescente aumento degli investimenti che ha dato un forte impulso alla ricerca nel campo delle neuro-tecnologie grazie anche all’integrazione con algoritmi sempre più potenti: le scansioni celebrali, ottenute utilizzando delle specifiche metodologie, sono l’input di decodificatori semantici in grado di generare testi che le interpretano e le elaborano utilizzando anche algoritmi generativi tipo GPT, come ha fatto nel 2020 Jerry Tang, un dottorando in Neuroscienze e Machine Learning della University of Texas ad Austin.

Un quadro abbastanza sintetico ma significativo dello stato dell’arte delle ricerche in questo campo è dato dell’articolo “Advances in Mind-Decoding Technologies Raise Hopes (and Worries)” di Fletcher Reveley, uscito su Undark, un giornale digitale, non-profit e indipendente che esplora le intersezioni tra scienza e società. L’articolo è stato poi ripreso dalla rivista Internazionale (n. 1550). L’articolo originale in rete fornisce collegamenti ad altre interessanti letture sull’argomento.

Lo sviluppo di queste metodologie che mettono in comunicazione il nostro cervello con i computer, ossia interfacce cervello-computer (BCI, Brain Computer Interface), richiede di potenziare sia la parte di lettura che di decodifica.

La lettura, ossia la misurazione dell’attività celebrare, è un problema molto complesso. Elettrodi o chip impiantati nel cervello sono metodi invasivi ma abbastanza precisi, da usare solo in casi eccezionali, dato che necessitano di neurochirurgia. Sono disponibili anche metodi non invasivi, meno accurati ma di più vasta applicazione. Il migliore tra essi è la risonanza magnetica funzionale (FMRI, functional Magnetic Resonance Imaging) che richiede però macchine molto ingombrati e costose. Altri metodi sono l’elettroencefalografia (EEG), la magnetoencefalografia (MEG) e la spettroscopia funzionale del vicino infrarosso (FNIRS, functional Near-InfraRed Spectroscopy) che forniscono meno informazioni rispetto alla prima.

Le informazioni così ottenute devono essere poi decodificate e trasformate per potere essere utilizzate, per esempio da un computer o da una macchina.

Lo stesso Jerry Tang in un articolo su Medium (https://medium.com/@jerryptang/societal-implications-of-brain-decoding-94a2ba0f7448) (Maggio 2023) chiarisce il funzionamento di questa specie di lettura del pensiero. Data la nostra scarsa conoscenza del funzionamento della maggior parte dei processi mentali, i decodificatori possono solo “predire” la relazione tra le scansioni e lo specifico contenuto della nostra attività celebrale. Il decodificatore necessita quindi di una fase di addestramento in modo che sia possibile creare una sorta di dizionario, come nel caso di traduzione da una lingua a un’altra. Si parte dalla decodifica di singole parole: il soggetto pensa a una coppia di parole, in base alla quale sono creati degli schemi con coppie scansione-parola. Questo viene ripetuto per diverse sessioni.

Questa descrizione è una sintesi di quello che avviene in realtà, dato che il processo è complesso e anche imperfetto. Nella realtà si lavora su valori medi di quanto registriamo: l’attività celebrale è influenzata da molti fattori e lo schema di una parola può essere diverso da quello “medio” registrato per quella stessa parola. Il passaggio da parole singole a insiemi più larghi è ancora più complesso, data l’impossibilità di collezionare schemi di attività per ogni parola.

A questo punto interviene l’Intelligenza Artificiale: si raccolgono schemi di attività solo per alcune parole e si usa poi il machine learning per predire gli schemi delle parole rimanenti. Questo processo è soggetto ad errori perché non abbiamo alcuna certezza sulla correttezza della predizione, come detto in precedenza.

L’incompletezza della “traduzione” è comunque consistente con alcuni tipi di applicazioni. Anche se sintetici, questi dati potrebbero essere utilizzati in modo non corretto: per esempio, in Cina sono stati usati dispositivi di sorveglianza celebrale su dipendenti di decine di fabbriche o di misurazione dei livelli di concentrazione sugli alunni di una scuola.

La crescente sofisticazione delle neuro-tecnologie solleva dubbi e perplessità sul fronte etico con molte preoccupazioni sull’integrità della mente e della persona. Negli anni, gli sviluppi delle tecnologie digitali hanno mostrato come la normativa sia sempre un passo indietro, mettendoci di fronte a problemi sociali, legali ed etici per cui non si hanno soluzioni al momento del bisogno. L’articolo su Undark esplora anche gli aspetti etici delle neuro-tecnologie e le preoccupazioni degli scienziati che ci stanno lavorando: siamo infatti ormai a nuova frontiera, che temo non sarà l’ultima, nel campo dei diritti alla privacy, ossia la protezione del proprio pensiero.

Le preoccupazioni sull’integrità di tutti gli aspetti della persona sono nate subito, ma è stato affrontato in modo più sistematico a partire dal 2017. In quell’anno si tenne un workshop di tre giorni al Morningside Campus della Columbia University, che riunì una trentina di accademici di diversa estrazione per analizzare le neuro-tecnologie e le macchine intelligenti da diversi punti di vista e per evidenziare le ricadute etiche dell’avanzamento non regolamentato di tecnologie in grado di incidere pesantemente sulla vita delle persone. Lo scopo finale del gruppo era quello di fornire supporto e strumenti per rendere tutte le istituzioni, i governi, le aziende, gli scienziati e in generale tutte le persone consapevoli dei possibili rischi.

Due anni dopo il Neurotechnology Center della Columbia, sotto la direzione del Dr. Rafael Yuste, lanciò la NeuroRights Initiative (NRI) che è poi confluita nella The Neurorights Foundation. Sul sito della fondazione sono ben evidenziati i cinque principi che dovrebbero essere rispettati per proteggere tutte le persone da potenziali abusi da parte delle neuro-tecnologie. Il primo ad averli proposti è stato proprio Rafael Yuste.

Non siamo ancora alla lettura del pensiero: i metodi di registrazione funzionano su processi attivi e non sono in grado di decodificare informazioni inattive, come la nostra memoria a lungo termine. La traduzione anche se non perfetta di cosa stiamo pensando si potrebbe prestare a usi non corretti e non autorizzati dalle persone. Sarebbe lungo elencare tutti i casi, ma la gravità può essere dedotta dai cinque neuro-diritti qui elencati.

  1. Privacy mentale. Ogni neuro-dato ottenuto dalla misurazione di attività neurali dovrebbe essere mantenuto riservato. Se conservato, deve essere preservato il diritto di cancellazione su richiesta del soggetto. La vendita, il trasferimento commerciale e l’uso dei dati neurali dovrebbero essere rigorosamente regolamentati.
  2. Identità personale. È necessario stabilire dei confini per impedire alla tecnologia di alterare il senso di sé. La connessione tra individui e reti digitali ad opera delle neuro-tecnologie potrebbe rendere indistinto il confine tra la coscienza di una persona e gli input tecnologici esterni.
  3. Libero arbitrio. Gli individui dovrebbero avere il controllo ultimo sui propri processi decisionali senza manipolazioni sconosciute e non controllabili da parte di neuro-tecnologie esterne.
  4. Accesso equo al potenziamento mentale (dovuto alle neuro-tecnologie). Dovrebbero essere definite delle linee guida , sia a  livello internazionale che delle singole nazioni per regolare l’uso delle neuro-tecnologie. Tali linee dovrebbero basarsi sul principio di equità/giustizia e garantire parità di accesso.
  5. Protezione dai pregiudizi. Nello sviluppo di algoritmi per le neuro-tecnologie dovrebbe essere la norma l’adozione di contromisure per combattere i pregiudizi. La progettazione degli algoritmi dovrebbe essere fatta con il contributo di gruppi di utenti per indirizzare in modo fondante i possibili pregiudizi e bias.

Secondo gli studiosi, questi principi dovrebbero essere incorporati nelle legislazioni di tutti i paesi per promuovere l’innovazione, proteggere i diritti umani e assicurare uno sviluppo etico delle neuro-tecnologie.

Rafael Yuste è sicuro che gli esseri umani siano destinati a trasformarsi in una specie ibrida: le neuro-tecnologie potrebbero ridisegnare il confine tra cervello umano e computer fino a fondersi dando vita a cyborg tecnologicamente aumentati.

Un rapporto UNESCO  dello scorso anno sulle neuro-tecnologie ci mette in guardia: “Neurotechnology’s developments hold profound implications for human identity, autonomy, privacy, behavior, and well-being, i.e. the very essence of what it means to be human’. Do we need legislation to protect our brains?” (Gli sviluppi delle neurotecnologie hanno profonde implicazioni per l’identità, l’autonomia, la privacy, il comportamento e il benessere delle persone, cioè per l’essenza stessa di ciò che significa essere umani”. Abbiamo bisogno di una legislazione per proteggere i nostri cervelli?)

Ed è proprio questo che pensa Yuste: da anni, insieme ad alcuni suoi colleghi, sta parlando con governi e istituzioni per sensibilizzarli e convincerli ad introdurre leggi che preservino i cinque principi elencati.

Nel 2021, su suo impulso, il parlamento cileno ha introdotto nella sua costituzione la privacy mentale, ed è allo studio una legge per definire un quadro normativo per le neuro-tecnologie. Altri paesi stanno seguendo la stessa strada, tra cui il Messico, il Brasile, la Spagna e l’Argentina.

Anche l’Europa si sta ponendo il problema: lo scorso novembre, il panel per il futuro della scienza e tecnologia (Future of Science and Technology, STOA) del Parlamento Europeo ha organizzato il workshop “Neurotechnology and neurorights – Privacy’s last frontier”. In generale, la EU si sta ponendo il problema di quanto l’attuale GDPR (General Data Protection REgulation) sia in grado di fornire protezione legale ai dati mentali.

Siamo di nuovo nella condizione che le norme devono inseguire la tecnologia che, di per sé, è neutra ma spesso non è neutro è l’uso che se ne fa. Le regole e le norme possono essere purtroppo disattese, come vediamo quotidianamente nel mondo digitale soprattutto quando è difficile controllate i flussi delle informazioni e dei dati.

Per dirla con le parole di Rafael Yuste: “The loss of mental privacy, this is a fight we have to fight today. That could be irreversible. If we lose our mental privacy, what else is there to lose? That’s it, we lose the essence of who we are” (La perdita della privacy mentale è una battaglia che dobbiamo combattere oggi. Potrebbe essere irreversibile. Se perdessimo la nostra privacy mentale, cosa altro ci sarebbe da perdere? È così, perderemmo l’essenza di ciò che siamo).

Articolo precedenteA Lucia Manca la guida di Ansa.it
Articolo successivoLa Commissione UE apre la strada all’integrazione sicura degli “aerotaxi” e di altri usi innovativi dei droni