OpenAI ha appena lanciato Deep Research, un’agente AI progettato per trasformare radicalmente il modo in cui vengono fatte le ricerche online. E non parlo delle classiche ricerche che tutti facciamo sul browser, intese come ricerca di uno specifico significato o servizio. No, mi riferisco alle ricerche dei dottorandi, dei filosofi, degli scienziati, degli storici.

Con Deep Research il lavoro di minuziosa ricerca e studio delle fonti potrà adesso essere automatizzato per soli $200 al mese. Non più giorni o settimane di tempo perso dietro a migliaia di pagine di testo, ma un semplice prompt che poi porterà chatGPT a ricercare, selezionare, analizzare e sintetizzare migliaia di fonti in poche ore.

Ecco come funziona:

Analisi multi-sorgente: Deep Research naviga sul web e analizza articoli, documenti e PDF per generare report dettagliati.

Pianificazione autonoma: L’agente pianifica e esegue autonomamente i passaggi necessari per completare una ricerca secondo le istruzioni ricevute.

Output documentato: Ogni report include citazioni e riferimenti alle fonti utilizzate.

Nel frattempo, in Giappone SoftBank e OpenAI si preparano a lanciare Cristal Intelligence, grazie a una joint venture chiamata SB OpenAI Japan, che si occuperà dello sviluppo e della commercializzazione del sistema di IA in Giappone.

SoftBank è una delle più grandi aziende di telecomunicazioni e investimenti tecnologici al mondo e investirà annualmente 3 miliardi di dollari per integrare le soluzioni di OpenAI nelle sue aziende e promuovere l’adozione di Cristal Intelligence. Secondo Masayoshi Son, fondatore di SoftBank, il progetto potrebbe portare entro due anni alla creazione di una AGI (Artificial General Intelligence).

Poi, inizierà la costruzione dei primi Gundam…

Tutto estremamente eccitante, ma è proprio qui che potrebbero iniziare i problemi, per alcuni.

L’evoluzione delle IA come Deep Research e Cristal Intelligence ci porta di nuovo a confrontarci con una domanda che ci siamo fatti tutti nel 2023, con il primo boom dell’intelligenza artificiale generativa: quali saranno i lavori che potranno essere completamente automatizzati?

Qualcuno ha fatto una ricerca sfruttando proprio Deep Research, e questi sono i lavori che secondo l’IA potrebbero essere più facilmente sostituiti dall’automazione:

Sviluppatori di software junior: L’automazione della scrittura e del debugging del codice.

Analisti di dati: Automatizzazione dell’analisi e della generazione di report.

Consulenti strategici: Capacità di analizzare e fornire raccomandazioni basate su dati complessi.

Ricercatori scientifici: Accelerazione della ricerca e simulazione di esperimenti.

Copywriter: Creazione automatizzata di contenuti testuali.

Designer grafici: Generazione automatica di design e contenuti visivi.

Traduttori: Traduzione automatica e contestualizzazione linguistica.

Assistenti virtuali: Automazione delle risposte a domande frequenti e gestione delle comunicazioni.

Specialisti SEO: Ottimizzazione automatica dei contenuti per i motori di ricerca.

Sviluppatori di chatbot: Creazione automatica di interfacce conversazionali intelligenti.

Progettisti di UX/UI: Generazione automatizzata di layout e interfacce utente.

Contabili e revisori: Automazione della contabilità e analisi finanziaria.

Operatori di call center: Risposte automatiche alle domande dei clienti.

Analisti di mercato: Raccolta e analisi automatica dei dati di mercato.

Insegnanti online: Creazione automatica di corsi e materiali didattici personalizzati.

Specialisti in marketing digitale: Automazione delle campagne pubblicitarie e analisi dei risultati.

Scrittori tecnici: Generazione automatica di documentazione tecnica.

Gestori di social media: Creazione automatizzata di post e gestione delle interazioni online.

Specialisti in compliance normativa: Monitoraggio automatico delle normative e generazione di report.

Ricercatori di mercato: Analisi automatizzata delle tendenze del mercato.

Le implicazioni sono chiare: l’era delle IA che “assisteranno” il lavoro umano è iniziata da poco, ma rischia di finire altrettanto velocemente. Certo, è chiaro che l’IA da sola non sostituirà nessuno, ma sarà l’automazione a determinare una minore necessità di risorse umane per svolgere gli stessi lavori. Le aziende non avranno più bisogno di team interi per gestire e aggiornare i propri sistemi. Forse vale la pena continuare a riflettere su questo aspetto.

La questione è ancor più rilevante per noi europei, che non solo rischiamo di rimanere indietro sul piano tecnologico — finendo per essere sostituiti da competitor dall’altra parte del mondo, a 1/3 dei costi e il triplo dell’efficienza — ma avremo presto anche bisogno disperato di queste IA per riuscire a navigare l’oceano burocratico e normativo che ci stiamo costruendo intorno.

L’ultima novità, è infatti una guida di 140 pagine dedicata all’applicazione dell’IA ACT… la cui maggior parte è dedicata al solo articolo 5, che elenca le pratiche IA vietate, come:

Tecniche manipolative: Sistemi IA che alterano la percezione degli utenti in modo ingannevole.

Sfruttamento delle vulnerabilità: Vietato l’uso di IA per approfittare delle debolezze degli individui.

Identificazione biometrica remota in tempo reale: Potenziale sorveglianza di massa sotto stretta regolamentazione.

Punteggio sociale: No alla gamificazione della vita reale in stile Black Mirror.

Sistemi predittivi per la criminalità: Stop alla profilazione di persone sulla base di dati comportamentali.

Insomma, mentre il resto del mondo è impegnato a testa bassa nella corsa verso l’AGI, noi europei siamo ancora indaffarati nel capire su cosa si può o non si può fare. Nel dubbio, meglio non fare niente.

di Matteo Navacci, data protection & cybersecurity advisor

Articolo precedenteEtica dell’informazione
Articolo successivoAntiterrorismo guidato dall’Africa e orientato allo sviluppo