Matteo Ciastellardi. Dai LLM agli SML
Matteo Ciastellardi. Dai LLM agli SML

Nell’era digitale, i modelli di linguaggio basati sull’intelligenza artificiale stanno rivoluzionando il modo in cui interagiamo con le tecnologie, influenzando settori che vanno dalla comunicazione personale fino alla gestione aziendale. Non si tratta di un fenomeno che è arrivato all’improvviso, quanto dell’esito più pubblico e aperto di un lungo processo in cui molteplici modalità del calcolo artificiale sono arrivati a fornire una dimensione più pubblica e comprensibile di alcune istanze operative, come quelle offerte dalle Intelligenze artificiali generative (da ora GenAI). Millenni per costruire un codice linguistico comune, che a oggi avverte ancora il peso dei regionalismi e delle differenti componenti linguistiche sul nostro pianeta, e oggi questo viene in misura superato da modelli scalari che permettono di dialogare e comprendere in quasi tutte le lingue ciò che un essere umano dice, come lo esprime, e anche alcune maglie più personali e difficoltose (umorismo, retorica, dubbio, prepotenza, arroganza, etc.). Tutto ciò grazie a quelli che si chiamano Large Language Models (da ora LLM), sistemi come GPT di OpenAI e BERT di Google, tra i molti, che hanno dimostrato capacità sorprendenti nell’elaborare e generare contenuti e materiali prossimi a quanto prima era puro appannaggio umano, aprendo e superando frontiere di molteplici scenari attuali.

Di fatto un LLM è un tipo avanzato di intelligenza artificiale che genera testo simulando il modo in cui gli esseri umani scrivono e parlano. Questi modelli, basati su deep learning e addestrati analizzando vastissime collezioni di testi, definiscono il funzionamento delle strutture linguistiche, le relazioni tra le parole e, quindi, come rispondere a diverse domande o completare proposizioni. Il funzionamento di un LLM si basa sulla predizione del testo seguente, dato un input iniziale. Il modello utilizza ciò che ha appreso per prevedere quale insieme di elementi (parole) è più probabile che vengano dopo, basandosi sul contesto fornito. Questo processo è alimentato da reti neurali profonde, mediante i transformer, che sono efficaci nel mantenere il contesto su lunghe distanze nel testo, permettendo risposte coerenti e contestualizzate. Oltre ai transformer, ci sono altre tecnologie come i Generative Adversarial Networks (GAN) che sono utilizzati in altri contesti di AI per migliorare la generazione di contenuti multimediali come immagini e video, ma non sono tipicamente implicate nel funzionamento degli LLM. I GAN lavorano attraverso due reti neurali in competizione: una che genera nuovi dati e l’altra che valuta se i dati generati sono distinguibili da dati reali. Anche se questa tecnologia non è diretta componente degli LLM, i principi di generazione e miglioramento continuo attraverso il feedback sono comuni in molte forme di intelligenza artificiale avanzata. Importante è comprendere che, nonostante la loro avanzata capacità di generazione testuale, gli LLM non possiedono una vera comprensione o conoscenza del mondo. Non “sanno” nulla nel senso umano del termine; piuttosto, manipolano le parole e le frasi basandosi su probabilità calcolate da esempi di testo che hanno analizzato durante l’addestramento. Dunque, anche se possono produrre testi che sembrano informativi e accurati, questi modelli operano senza la “consapevolezza” che può esercitare un soggetto umano, e neppure “comprendono” i contenuti che generano, nel senso a noi più comune.

La quantità che diventa qualità (e viceversa): LLM e SLM

La potenza dei LLM deriva dalla loro architettura, in grado di analizzare e comprendere vasti volumi di testo, apprendendo dalle interazioni e dai contesti linguistici a loro esposti durante il training. Questo li rende estremamente versatili, capaci di rispondere a domande, generare testi creativi o assistere nella programmazione. Tuttavia, la loro efficacia è direttamente proporzionale alla qualità e alla varietà dei dati su cui sono addestrati. Parallelamente, stiamo assistendo all’ascesa degli Small Language Models (da ora SLM). Questi modelli, sebbene più contenuti in dimensione e potenza computazionale rispetto ai loro omologhi più grandi, offrono vantaggi significativi in termini di specializzazione e personalizzazione. Oggi si parla molto di SML perché si stanno creando una serie di attività che consentono di incorporarli con una certa facilità tanto negli smartphone, quanto nei computer domestici, che in altre soluzioni superando la necessità di avere una connettività di rete per poter fruire di una AI generativa, ma soprattutto di una base dati che debba venir interrogata in remoto per dare risposte in locale. I benefici si trovano in infiniti contesti, sia per quanto concerne la possibilità dell’uso senza ricorrere a connessione o ad abbonamenti, sia per poter contare su un sistema “intelligente” perfettamente integrato in alcuni contesti quotidiani, dai programmi di posta a quelli di scrittura, dalla ricerca di informazioni generali a sistemi in grado di assisterci nella gestione di differenti attività basate sul digitale (agenda, comunicazioni, contatti, programmazione, task lavorativi, etc.). Inoltre, gli SLM possono essere addestrati su dataset più specifici, consentendo loro di eccellere in nicchie particolari o contesti dove è richiesta una maggiore precisione terminologica, come in ambiti legali o medici.

La rilevanza degli SLM sta nel loro potenziale di offrire soluzioni più mirate e sostenibili. In contesti dove la privacy dei dati, la specificità del settore o la necessità di ridurre i costi operativi sono cruciali, gli SLM possono essere configurati per operare efficacemente con minori risorse e maggiore attenzione alla protezione dei dati. La loro capacità di essere adattati e ottimizzati per compiti specifici li rende particolarmente preziosi in ambienti dove gli LLM “generalisti” potrebbero non essere la scelta ideale.

Questa evoluzione nel campo dei modelli di linguaggio riflette un trend più ampio verso un’intelligenza artificiale più personalizzata e adattabile, segnando un passo importante verso tecnologie che possono integrarsi più strettamente e in modo più sostenibile nelle strutture sociali ed economiche contemporanee.


La qualità dei dati nella AI Generativa: fondamenti e sfide

La qualità dei dati è un pilastro essenziale per l’efficacia dei modelli di intelligenza artificiale, sia nei LLM quanto nei più contenuti – e quindi più mirati – SLM. Questa importanza si manifesta non solo nel bisogno di prevenire problemi e bias nei risultati dei modelli, ma anche nella necessità di affrontare questioni legali e di proprietà intellettuale che emergono nella certificazione della provenienza e nell’uso dei dati. Di fondo oggi ci si interroga se la quantità “allenata” nei dataset sia (e fino a che punto) sinonimo di “qualità”, e viceversa, se la qualità apparente definita da un sistema “intelligente” non rischi di diventare un pericoloso asset di informazione sbagliata dal momento che una vera e propria verifica non sono non è facilmente percorribile, ma spesso diventa controproducente in termini di tempo e di efficacia. La complessità di queste questioni si riflette in un continuo dibattito sugli standard legali e etici applicabili ai dati usati nella AI generativa.

Di fondo, la qualità dei dati come presupposto formale per l’efficacia della AI si concentra sulla prevenzione di errori, inesattezze e bias. Secondo Bender et al. (2021), la presenza di bias nei dati di addestramento può portare a modelli che riproducono o persino amplificano pregiudizi o “misconfigurazioni” esistenti. Ciò evidenzia l’importanza di dataset accurati, completi e rappresentativi, che sono fondamentali per la generazione di risposte appropriate e non discriminatorie dai modelli di linguaggio. In questo senso, modelli genAI oggi trovano negli SLM anche la possibilità di addestrare dati esistenti con dati proprietari, e quindi di poter iniziare a ragionare, su scala pubblica e a livello di aziende e stakeholder del mondo delle professioni, di poter mettere a frutto materiali e prodotti propri per arrivare a implementazioni che beneficino dei sistemi GenAI ma su scala più specifica e qualitativa. IL passaggio vede un possibile spostamento dal dataset harvesting, che utilizza i sistemi GenAI per offrire soluzioni generalizzate dall’interpolazione tra LLM e interlocutore, a dataset tailoring, che invece trova nell’addestramento di dati propri (supportati ovviamente da una base più ampia per quanto concerne l’aspetto più generale e di strutture linguistiche e metalinguistiche) una forma di validazione e qualificazione dei risultati che si possono ottenere. Nonché una più semplice procedura di eventuali verifiche e di diminuzione dei bias che possono comunque emergere.

Certificazione della provenienza dei dati e sfide legali

La qualità dei dati, inoltre, assume un ruolo critico nella certificazione della loro provenienza. Nel contesto della crescente preoccupazione per la privacy e la sicurezza dei dati, è essenziale che le fonti utilizzate per l’addestramento degli algoritmi siano non solo affidabili e trasparenti, ma anche legalmente verificabili. Ciò include la conferma che i dati siano stati acquisiti e utilizzati in conformità con le normative sulla protezione dei dati, come il GDPR in Europa, che impone rigorosi controlli sulla raccolta e l’uso dei dati personali, e sulle molteplici limitazioni dettate dai vincoli di proprietà intellettuale. Molte fonti di dati possono essere protette da tali diritti che limitano il loro uso in ambienti commerciali o di ricerca senza il consenso esplicito dei titolari. Le implicazioni di tali restrizioni sono significative, poiché possono influenzare la scelta dei dataset per l’addestramento e la distribuzione dei modelli AI, come dimostrato da dispute legali recenti nei più differenti settori.

Se da un lato si stanno cercando soluzioni di ogni genere, sia sul fronte politico comunitario, che su quello delle governance, dei commons e, non da ultimo, su quello della possibile concertazione dei diritti per uso tracciato o tramite sistemi di royalties, non vi è ancora una linea condivisa ma molte pratiche in itinere. Oltre a ciò, molti attori commerciali e industriali devono adottare strategie proattive per la gestione della qualità dei dati. Questo può includere l’implementazione di rigidi protocolli di audit, l’uso di tecnologie di anonimizzazione per proteggere la privacy, l’adozione di framework legali per assicurare la conformità con le normative sui dati stessi. Ne nasce una cultura della responsabilità che però spesso si scontra e si confronta con il tema del profitto, con quello della libertà di utilizzo delle fonti e con la preoccupazione di vanificare anni di lavoro o dover trovare nuove strade per essere competitivi.

Scalabilità vs. qualità: il dilemma dei grandi set di dati

La scalabilità e la qualità dei dati sono spesso in tensione nei progetti di LLM. Come già anticipato, mentre la scalabilità richiede grandi volumi di dati per migliorare la capacità del modello di generalizzare da vari input, la qualità è essenziale per assicurare che le informazioni apprese siano corrette e prive di bias. Tuttavia, come sottolineato da Raji et al. (2021), l’incremento della quantità di dati può spesso portare a una diminuzione della qualità, a meno che non vengano impiegati sforzi significativi per mantenere, pulire e verificare i dati utilizzati. Al netto di differenti soluzioni, che partono da semplici verifiche della consistenza, dall’eliminazione di duplicati e dalla correzione di errori evidenti, e avanzano con tecniche come l’apprendimento semi-supervisionato e l’apprendimento attivo, riducendo il rumore nei dati e migliorandone l’affidabilità dei risultati generati, resta il problema di dover fare i conti con le implicazioni economiche e culturali, oltre che con quelle tecnologiche.

Un esempio concreto delle sfide legate alla qualità dei dati può essere osservato nel caso di GPT-3, un modello generativo di terza generazione sviluppato da OpenAI. Nonostante le sue capacità impressionanti, GPT-3 ha mostrato limitazioni significative legate alla qualità dei dati su cui è stato addestrato. Studi come quello di Bender e Gebru (2021) hanno evidenziato come GPT-3 possa generare risposte che perpetuano pregiudizi o che sono inappropriatamente sensibili al contesto a causa di dati di training non ottimali. Questo caso di studio sottolinea l’importanza di curare attentamente i set di dati e di utilizzare metodi di valutazione rigorosi per identificare e mitigare potenziali problemi prima della loro manifestazione nei risultati del modello.

La transizione verso gli Small Language Models (SLM)

Mentre i LLM stanno dominando il panorama dell’Intelligenza Artificiale generativa per la loro capacità di gestire enormi quantità di dati e compiti generali, gli SLM stanno emergendo come strumenti preziosi, specialmente in contesti in cui sono richieste personalizzazione e precisione elevata. Gli SLM offrono vantaggi significativi in termini di adattabilità, manutenzione dei dati, e applicazioni settoriali specifiche, che possono superare le sfide poste dai loro omologhi più grandi. La loro personale forza risiede nella capacità di essere determinati per specifici settori o compiti. A differenza degli LLM, che richiedono enormi set di dati generalisti per il loro addestramento, gli SLM possono essere sviluppati utilizzando dataset più piccoli e specifici, consentendo loro di eccellere in nicchie particolari. Come già visto, questa personalizzazione non solo migliora l’efficienza del modello ma riduce anche la probabilità di generare output irrilevanti o inaccurati. Per esempio, gli SLM possono essere addestrati su terminologie e formattazioni specifiche, migliorando significativamente la qualità e l’applicabilità dei risultati, o su basi di informazioni e casi proprietari con materiali specializzati, spaziando tra i più diversi settori, dall’editoria all’economia, dal marketing alla medicina, dall’ingegneria alla biologia, dall’educazione allo sport, etc.

Un altro vantaggio significativo degli SLM è la loro capacità di gestire meglio la qualità dei dati. Essendo focalizzati su domini più ristretti, gli SLM possono beneficiare di processi di pulizia e validazione dei dati più mirati e gestibili. Come anticipato, questo permette una migliore manutenzione della qualità dei dati, risultando in modelli più affidabili e meno suscettibili a bias ed errori derivanti da dataset vasti e meno controllati. Questo aspetto è fondamentale in contesti dove decisioni errate possono avere conseguenze gravi, come nel caso delle applicazioni mediche o legali.

Gli SLM hanno dimostrato il loro valore in numerosi settori: nel campo legale, modelli come “LawGPT”, addestrati specificamente su documenti legali e giurisprudenza, hanno aiutato gli avvocati nella redazione di documenti e nella ricerca di precedenti. Nel settore medico, modelli come “MedGPT” sono stati utilizzati per interpretare e sintetizzare rapidamente grandi quantità di letteratura medica, assistendo i medici nella diagnosi e nella scelta dei trattamenti. Questi esempi evidenziano come gli SLM possano essere non solo più efficaci in compiti specifici ma anche strumenti di risparmio di tempo e risorse preziosi. Ma soprattutto si configurano come modelli che non sostituiscono ma potenziano il capitale umano preposto a gestirli.

La transizione da LLM a SLM comporta diversi vantaggi operativi, economici e di sicurezza, che possono essere particolarmente attrattivi per le aziende e le organizzazioni che cercano soluzioni AI più sostenibili e personalizzate. Il processo di sviluppo di un SLM inizia con la definizione chiara degli obiettivi e dei requisiti specifici del settore di applicazione. Successivamente, la raccolta e la preparazione dei dati devono essere eseguite con attenzione, focalizzandosi sulla qualità piuttosto che sulla quantità. L’addestramento del modello dovrebbe poi essere seguito da test rigorosi e iterazioni per affinare la sua precisione e affidabilità. Dal punto di vista operativo, gli SLM richiedono meno risorse computazionali rispetto agli LLM, risultando in minori costi di infrastruttura e energia. Economicamente, riducono i costi associati all’acquisizione e alla gestione di vasti set di dati. Inoltre, dal punto di vista della sicurezza, la focalizzazione su domini più ristretti (e abitualmente già coperti da precise regolamentazioni) limita il rischio di esposizione di dati sensibili, migliorando la conformità con le normative sulla privacy e la protezione dei dati. Se il presente è una spia di riferimento per il futuro, è possibile prevedere che gli SLM diventeranno sempre più integrati in ambienti aziendali e industriali, fornendo soluzioni AI su misura che sono non solo tecnicamente avanzate ma anche eticamente responsabili e produttivamente sostenibili. Questa tendenza è supportata dalla crescente domanda di soluzioni AI personalizzabili che possono essere adattate rapidamente a cambiamenti del mercato e a esigenze specifiche del cliente.


Prompt Engineering Design per Small Language Models (SLM) di qualit

Parlare di prompt engineering design per gli SLM potrebbe sembrare superfluo, essendo la logica alla base di questi modelli del tutto analoga a quella dei LLM. Invece gli SLM sono personalizzati per settori specifici dove le esigenze di precisione e contestualizzazione sono elevate, determinando una maggior accuratezza nel dover progettare l’interazione tra utenti e GenAI. Attenzione però a non confondere la progettazione dell’interazione come una forma di complessità che deve affliggere chi si interfaccia con il modello linguistico. Vediamo il perché.

Nel contesto degli SLM, l’uso custom si riferisce alla personalizzazione del modello per compiti specifici o settori particolari. Esempi di questa pratica possono essere trovati in vari ambiti, come quello editoriale per esempio, dove uno SLM può essere configurato per generare bozze di articoli su argomenti specifici; recuperare materiali di repertorio, confrontare trend temporali con dati di attualità, confrontare dichiarazioni, risultati, eventi, e molte altre variabili che fanno parte del bagaglio professionale di una testata, di un gruppo o anche di un singolo autore, per poi permettere di creare, potenzialmente in supporto a un utente umano, un contenuto non solo in maniera più rapida, ma arricchita da tutta una serie di elementi che ne hanno reso possibile una importante definizione qualitativa. L’adozione di un SLM specifico, addestrato su una vasta gamma di articoli di qualità e di altre informazioni pertinenti al contesto professionale di riferimento, non permette quindi solo di precostruire soluzioni con un vocabolario idoneo, accelerando il processo di creazione e permettendo agli editori di concentrarsi sul perfezionamento e la personalizzazione degli articoli, ma attraverso una corretta chiave di interrogazione (prompting) agevola la ricognizione e la possibilità di analisi e comparazione critica di fonti e di materiali interconnessi. Così come gli SLM possono essere utilizzati per generare tracce di slogan pubblicitari o per aiutare nella creazione di testi per annunci con una raccolta di campagne che e riflettono il tono e lo stile del brand, fornendo anche variabili che nel tempo hanno caratterizzato campagne e casi di successo. Ma non necessariamente per avere più idee, ma semplicemente per ritrovare delle maglie di confronto e di condivisione quando si lavora in team che hanno membri disomogenei che non hanno un campo comune con cui avviare un confronto.

Il design dei prompt per questi modelli richiede una comprensione approfondita sia del modello stesso sia del contesto di applicazione. La chiave è formulare i prompt in modo che guidino il modello a concentrarsi sulle informazioni rilevanti e a ignorare quelle irrilevanti. Un modello addestrato con specifici materiali infatti può beneficiare formule di “interrogazione” e dialogo che non sono pensabili in un modello generico anche se altamente addestrato. Ciò può includere l’uso di parole chiave specifiche, la strutturazione dei prompt in modi che riflettano le pratiche del settore o l’incorporazione di specifici vincoli stilistici o tonali. Per ottimizzare questi prompt, è spesso necessario un processo iterativo di sperimentazione e adattamento. E non si tratta solo di gestire SLM orientati alla rivalutazione del contesto professionale passato, ma di renderli operativi anche in continuità, ovvero di renderli attivi. Un esempio, nel settore del servizio clienti, vede come i prompt possano essere costantemente raffinati in base al feedback degli utenti per migliorare la chiarezza delle risposte del modello e la soddisfazione del cliente, innescando anche un procedimento virtuoso nel training del modello stesso. Chiaramente processi come questo sono supportati da analisi dettagliate delle performance del modello, che possono includere test A/B o analisi di sentiment per valutare l’efficacia dei diversi approcci di prompt.

Per fornire un veloce esempio, continuando sul segmento dell’editoria, nell’ottica di formulare un prompt efficace per uno SLM, soprattutto in ambiti che richiedono precisione e contestualizzazione come il giornalismo, è cruciale adottare alcune regole strategiche. Tra queste possiamo considerare il seguente script di composizione:.

  1. Chiarezza e specificità: Il prompt deve essere formulato in modo chiaro e dettagliato per evitare ambiguità.
  2. Contesto completo: Fornire tutti i dettagli necessari per permettere al modello di comprendere il contesto della richiesta.
  3. Obiettivi definiti: Specificare chiaramente cosa si aspetta come risultato dal modello.
  4. Limitazioni e vincoli: Impostare limiti stilistici, di tono, o di contenuto.
  5. Iterazione e feedback: Utilizzare il feedback per rifinire e migliorare il prompt in cicli successivi.
  6. Inclusione di esempi specifici: Fornire esempi o template di output desiderato per guidare meglio il modello.
  7. Evitare bias e assunti: Assicurarsi che il prompt non incorpori pregiudizi involontari o assuma conoscenze non verificate.

Esempio: Recupero e Confronto di Materiali di Repertorio

Prompt:

Utilizza le risorse archivistiche disponibili per compilare un report comparativo dettagliato sulle dichiarazioni riguardanti le politiche educative fatte dai principali partiti politici italiani nelle campagne elettorali delle ultime elezioni rispetto a quelle di dieci anni fa. Estrai specificamente:
  1. Citazioni dirette dalle fonti primarie (discorsi, interviste, comunicati stampa) che trattano di educazione.
  2. Dati chiave e statistiche menzionate nelle dichiarazioni.
  3. Manifesti elettorali pubblicati che dettaglino le politiche educative.
Struttura il report in sezioni ben definite per ogni partito e per ciascun periodo (ultime elezioni vs dieci anni fa), includendo:
- Una tabella comparativa che evidenzi i punti di convergenza e divergenza tra le dichiarazioni correnti e quelle passate.
- Un'analisi preliminare delle tendenze osservate e delle possibili implicazioni future delle politiche proposte.
- Grafici che visualizzino l'evoluzione delle posizioni dei partiti nel tempo.
Incorpora nel documento spunti per ulteriori indagini o aree che richiederebbero un'analisi più approfondita, basandoti sulle discrepanze o sui temi ricorrenti trovati. Assicurati che il formato sia chiaro, navigabile e pronto per ulteriori iterazioni editoriali basate sul feedback ricevuto nella revisione iniziale del report.

Questo prompt invita esplicitamente a una revisione del report generato per perfezionarlo ulteriormente. Il giornalista è incoraggiato a fornire feedback specifico su ogni aspetto del report, compresa la chiarezza delle analisi e l’efficacia delle visualizzazioni, per affinare l’output nelle iterazioni successive.

Inoltre il prompt non richiede solo che il modello produca citazioni dirette, dati, grafici e tabelle, fornendo esempi concreti e diretti che il giornalista può utilizzare per comporre un articolo dettagliato e ben informato, ma invita esplicitamente a una revisione del report generato per perfezionarlo ulteriormente. Il giornalista è invitato a fornire feedback specifico su ogni aspetto del report, compresa la chiarezza delle analisi e l’efficacia delle visualizzazioni, per affinare l’output nelle iterazioni successive, che potranno eventualmente diventare un’“impronta” specifica del giornalista o della tipologia di indagine che si vuole realizzare.

Il futuro tra Prompting, Machine Learning e Generative AI

Guardando al futuro, l’evoluzione del prompt design engineering per gli SLM potrebbe avere un impatto significativo sul campo del machine learning e delle GenAI. Man mano che i modelli diventano più sofisticati e personalizzati, l’abilità di progettare prompt efficaci diventerà una competenza chiave per gli sviluppatori di AI, particolarmente in settori dove la precisione e la specificità sono essenziali. Questo per togliere di mezzo, almeno attualmente, gli scenari in cui le macchine stesse determineranno la miglior possibilità di prompting arrivando a un loop di risoluzioni che potranno essere autoconclusive: tali ipotesi sono difficili da ventilare proprio nella misura in cui la capacità critica e il modello di riferimento sono l’intelligenza connettiva dell’uomo (De Kerckhove, 2001) rispetto alla sua dimensione di poter valorizzare soluzioni idonee. Caso diverso è dove invece l’uomo ha un possibile alleato nella macchina che lo sostituisce nei mechanical task più ridondanti e nelle ricerche che possono beneficiare di maggior precisione e meticolosità analitica (come la analisi di materiali in campo medico e biologico, o la ricognizione di scenari e ipotesi in problemi matematici e ingegneristici). Inoltre, il miglioramento continuo delle tecniche di prompt design engineering permette di concepire SLM che sono in grado di apprendere e adattarsi in modo più autonomo alle esigenze degli utenti. Questo potrebbe includere la capacità di SLM di modificare autonomamente i loro prompt interni in risposta a nuovi dati o feedback, migliorando la loro efficacia e riducendo la necessità di interventi umani frequenti.

Si può certo propendere a pensare che la GenAI continuerà a espandersi in applicazioni e capacità. Con l’incremento dell’attenzione sulla qualità dei dati e sulla personalizzazione, è probabile che vedremo un aumento significativo nell’uso degli SLM in settori in cui la precisione e la specificità sono cruciali. Questo sposterà l’attenzione dalla semplice generazione di testo alla co-creazione di contenuti che siano non solo tecnicamente competenti ma anche profondamente integrati nei contesti specifici degli utenti.

Inoltre, le questioni etiche e legali diventeranno sempre più centrali man mano che le applicazioni di IA diventeranno più pervasive e potenti. La necessità di regolamentazioni chiare e di standard etici robusti sarà essenziale per garantire che le tecnologie di IA siano usate in modo responsabile e benefico per la società.

Infine, l’integrazione di tecnologie avanzate di apprendimento automatico, come l’apprendimento rinforzato e l’apprendimento non supervisionato, se correttamente istruito con operatori professionisti, potrebbe ulteriormente migliorare l’autonomia e l’efficacia degli SLM, portando a una nuova era di intelligenza artificiale che eluda quello che è il modello delle super-intelligenze autonome, attualmente molto ipotizzato, per rendere più plausibile e sostenibile una formulazione che sia non solo reattiva ma anche proattiva e anticipatoria nelle sue interazioni con gli umani.

Riferimenti bibliografici

  • Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? arXiv preprint arXiv:2101.07094.
  • De Kerckhove, D. (2001). L’architettura dell’intelligenza. Testo & Immagine, Torino.
  • Raji, I. D., et al. (2021). AI and the Everything in the Whole Wide World Benchmark. arXiv preprint arXiv:2102.06317.
  • Goldman, B. et al. (2020). Privacy and Ethical Implications of the Use of AI in Public and Legal Affairs. Stanford Law Review.

 

Articolo precedenteFesta Eu con Gianni Letta – Carlo Corazza – Antonio Parenti – Matt Brittin
Articolo successivoEuropa: il voto dei giovani conta