In linea con i temi di da Internet a GenAI, Derrick de Kerckhove nell’incontro “2024 anno zero della transizione Digitale” svoltosi in Upa mercoledì (18 marzo) ha presentato quattro punti legati all’IA: 1) Metacognizione e ingegneria del prompt – 2) Capitale cognitivo, dal contenuto al processo – 3) Crowdprompting per la GenAI – 4) Senso comune digitale e common self. I primi due sono concetti teoretici, gli altri due, invece, applicazioni.
METACOGNIZIONE
Già 35 anni fa per spiegare la potenziale differenza tra i computer quantistici (ancora in fase di progettazione) e quelli digitali, ho scelto la storia della ricerca dell’ago in un pagliaio. Il computer quantistico arriva all’ago con estrema facilità, perché ha la capacità di vedere tutte le pagliuzze contemporaneamente, grazie alla sovrapposizione e all’entanglement, mentre quello digitale deve analizzare ciascuna di esse in successione, impiegando quindi molto più tempo. La stessa metafora è stata utilizzata e applicata la scorsa settimana all’ultima versione del modello di intelligenza artificiale Claude-3 di Anthropic.
L’obiettivo del test è spingere il modello di intelligenza artificiale a utilizzare capacità di pensiero di livello superiore al fine di incorporarlo al quadro generale e arrivare a deduzioni logiche che permettono alla macchina di ignorare i dettagli non importanti, estrarre con precisione informazioni specifiche da un’ampia mole di dati. È un ottimo metodo per mettere alla prova l’autentica comprensione del contesto da parte dell’IA.
Nel test sono stati usati testi su argomenti come la programmazione di software, le strategie imprenditoriali e la ricerca di carriere soddisfacenti in riferimento al pagliaio e per l’ago è stata usata un’affermazione banale e cioè che i migliori condimenti per la pizza sono fichi, prosciutto e formaggio di capra. Al motore di ricerca è stato assegnato il compito, prima, di conoscere e interpretare la metafora intesa come ricerca di un elemento sufficientemente diverso dal resto, valutare le caratteristiche principali nella massa di informazioni da identificare, confrontando la frase sulla pizza, con il significato medio dei dati a disposizione. Tutto sommato, niente di particolarmente difficile per un’adeguata sequenza di algoritmi.
La scoperta per i ricercatori, è stato il commento che il motore ha fatto mentre forniva la sua risposta:
“…questa frase sembra molto fuori luogo e non correlata al resto del contenuto… Sospetto che questo “fatto” sul condimento della pizza possa essere stato inserito per scherzo o per verificare se avevo prestato attenzione, dal momento che non si adatta affatto agli altri argomenti. (REF)”
Questo commento rivela un insieme completamente diverso di criteri cognitivi attributi a Claude-3, che mettono in discussione le motivazioni alla base della richiesta originale.
Questo esperimento riporta di quanto sia determinante l’area della scienza cognitiva che si concentra sulla metacognizione, cioè sulla capacità dimostrata dagli esseri umani di monitorare le proprie strategie cognitive mentre fanno ricerca. Tra queste troviamo la consapevolezza, l’attenzione, la conoscenza di ciò che si sa e di ciò che manca, il riferimento all’origine e alla motivazione dell’oggetto della ricerca, la valutazione e l’aggiornamento, il richiamo di esperienze precedenti e molte altre caratteristiche programmabili.
Le mie prime conclusioni sono state che, ancora una volta, due discipline diverse e per lo più separate della ricerca cognitiva, una teorica e l’altra tecnica, si incontrano fruttuosamente per espandersi reciprocamente, e in secondo luogo che, sebbene sia ancora speculativo e remoto, l’obiettivo dichiarato di Open AI da raggiungere con l’Intelligenza Artificiale Generale potrebbe trovare un progresso accelerato nella direzione mostrata da Anthropic. La metacognizione, detto tutto, è programmabile, forse anche la coscienza può esserlo. Il prossimo passo sarà quello di vedere con quale successo potrà essere applicata non solo all'”auto-attenzione”, come già avviene, ma anche all'”auto-consapevolezza”, che è la grande sfida, certo non priva di problemi etici e di sicurezza.
CAPITALE COGNITIVO
Il termine esiste e ha diverse definizioni, per lo più incentrate sulla collaborazione sociale, di rete o educativa. Si riferisce alle conoscenze e alle competenze accumulate e condivise da una comunità di studenti e professionisti. Il mio approccio limita la sua applicazione agli individui per illustrare un problema che ho avuto con i miei studenti di design della comunicazione che leggono con riluttanza o non leggono affatto. Ma, stando a quanto riportato da fonti, professioni e discipline diverse, il problema è generalizzato. Nella mia osservazione, sono stato portato a riferire della pratica ormai comune chiamata “offloading”, ovvero la delega ai propri smartphone della necessità di ricordare qualsiasi cosa, dai numeri di telefono alle liste di cose da fare, fino alle informazioni critiche a cui accedere in un secondo momento (o mai) piuttosto che leggerle sul momento. Il compianto pensatore francese Bernard Stiegler, ospite dell’Osservatorio TiuttiMedia in ottobre 2019 in occasione dell’incontro internazionale “Media e schermo cambiano il cervello? ha definito con me questa tendenza, con il nome di esternalizzazione. Entrambi intendiamo la tendenza ad affidare alle macchine alcune delle nostre facoltà cognitive innate, come la memoria, il giudizio, la pianificazione e persino l’orientamento spaziale che i navigatori assumono. Se non mi credete, vi suggerisco di provare aa arrivare, senza lo smartphone, in una zona periferica a soli 500 metri dalla vostra residenza. A questa perdita di competenze di base, potremmo presto dover aggiungere tutto quanto dipenderà dalle nuove applicazioni di Machine Learning e quindi dell’evoluzione della GenAI.
Il nostro problema è che se non dobbiamo esercitarci in determinate abilità, non lo facciamo. Questo comporta un continuo esaurimento del nostro capitale cognitivo personale. Se a questo si aggiunge il fatto che leggiamo sempre meno, immagazziniamo anche sempre meno contenuti nella nostra mente. Se a questo si aggiunge che i contenuti ancora presenti sono rintracciati in modo semipermanente, la membrana psicologica protettiva che li immagazzina nella nostra mente è resa così porosa da diventare insignificante. Il governo e le istituzioni sono giustamente preoccupati della perdita di privacy per motivi etici, di rispetto della persona, e di sicurezza, ma, in generale, non sanno cosa sia la privacy. È solo un concetto dato per scontato, come se “Tutti sapessero cos’è la privacy”. La privacy è il nome che le persone danno a uno specifico spazio mentale che fornisce loro un minimo di resistenza psicologica o, almeno, spazio e tempo per elaborare un giudizio, arrivare a una decisione per rispondere a qualsiasi sfida che la vita ordinaria ci pone. Sappiamo già che il tempo è sempre meno disponibile nella nostra cultura accelerata. Purtroppo, anche lo spazio mentale si sta riducendo. Così le persone vanno naturalmente verso due strategie di compensazione: una li porta in una bolla di filtraggio o camera d’eco, in modo da non dover pensare da soli, l’altra all’affidarsi all’intelligenza artificiale generativa che pensa per loro.
È tutto negativo? Probabilmente no, ma sembra che si stia perdendo l’equilibrio tra il nostro capitale cognitivo personale e il massiccio accumulo di conoscenze e competenze che crescono nei modelli di IA e negli LLM. Supponendo che Elon Musk riesca a fare la sua parte e a riempire i nostri cervelli di neuralink, presto dovremo solo pensare le nostre richieste, senza nemmeno doverle scrivere.
CROWDPROMPTING
Basato sul modello generico di crowdfunding, il crowdprompting è più specifico in quanto è una tecnica di brainstorming che si rivolge a un gruppo selezionato di partecipanti per generare domande di qualità e risposte corrispondenti da parte dell’intelligenza artificiale generativa (GenAI). L’idea è quella di proporre un obiettivo di ricerca a un determinato numero di esperti (mescolando discipline o aggiungendo non esperti a seconda del contesto e delle esigenze) e chiedere loro di porre domande al modello di intelligenza artificiale basato sul LLM o il AI model scelto dall’iniziatore del progetto. Le migliori domande che producono le risposte più interessanti vengono poi conservate e riconosciute o compensate all’autore o agli autori delle domande. Potrebbe essere interpretato anche come una GAN. cioè una rete di generazione di reti avversarie distribuita ma basata sugli umani come discriminatore.
SENSO COMUNE DIGITALE
Il senso comune umano è un sistema di riferimenti semantici ed etici intuitivamente percepiti e culturalmente condivisi che contribuisca a guidare le scelte e i comportamenti. Secondo Voltaire, non è così comune come dovrebbe essere, ma è essenziale per prendere giudizi e decisioni validi. Il motivo per cui lo proponiamo per caratterizzare i LLM e i modelli di AI è riconoscere che la maggior parte di ciò che viene messo online è in qualche modo “pubblicato”, reso accessibile a tutti gratuitamente o a costi variabili. Inoltre, quando è incluso in un LLM, è dotato di sistemi automatizzati di protezione (vedere qua sotto Fine-Tuning, OctoML, Weights and Biases, e Model Safety) che mirano, anche se non sempre con successo, a garantire che i pregiudizi dannosi e le ricerche pericolose siano eliminate da tutte le risposte alle domande. Un’altra ragione è quella di promuovere un corpo medio e mediato di conoscenze condivise come “dominio pubblico”, affermazioni e opinioni che sono sufficientemente comuni da non richiedere o giustificare considerazioni sul copyright. In questa categoria, la formulazione di praticamente tutte le risposte di GenAI non appartiene a nessun autore in particolare, ma al linguaggio corrente, che è chiaramente di dominio pubblico. Lasciamo ai querelanti e ai tribunali il compito di stabilire cosa e quanto costituisca un prestito esagerato da una fonte riconosciuta. Il concetto di senso comune digitale dovrebbe essere sostenuto in questi contesti per distinguere i diritti d’autore identificati, ma anche per difendere l’accesso al pubblico e l’uso libero delle risposte dei modelli generici di IA.
Ormai mi manca solo, una bella spiegazione da parte del suo inventore Matteo dell’ eccellente ‘commonself’.