alt= "Soro"
alt= "Soro"

Siamo immersi nell’economia digitale, favorita ed alimentata dall’enorme volume dei dati circolanti (particolarmente quelli immessi in rete), così come dalla velocità ed eterogeneità delle fonti da cui provengono. Il crescente numero dei dispositivi mobili posti nella disponibilità di ciascuno di noi, la diffusione di sensori intelligenti (il cosiddetto “Internet of Things”), nonché l’interazione e lo scambio continuo di messaggi (inclusi foto, video etc.) attraverso le reti sociali, hanno rivoluzionato la possibilità di generare, condividere e soprattutto raccogliere dati. Le nuove capacità di analisi, sempre più potenti e meno costose, e quelle di elaborazione, anche in tempo reale, di questa ingente mole di informazioni (strutturate e non), spesso carpite inconsapevolmente dagli utenti, consentono di estrarre conoscenza e, ormai in misura crescente, di effettuare valutazioni predittive sui comportamenti degli individui al fine di condizionarne scelte o decisioni.
Non sempre le operazioni coinvolgono dati personali, ma l’enorme potenzialità dei Big Data, anche rispetto a dati anonimi o aggregati, solleva preoccupazione in merito ai rischi di nuove forme di discriminazione che possono derivare per gli individui da profilazioni sempre più puntuali ed analitiche. Dati che svolgono per l’interessato una funzione di utilità sociale in un determinato contesto (dati sensibili utilizzati per ricerche scientifiche) possono provocare un grave pregiudizio in un altro (richiesta di attivazione di coperture assicurative). Per questo uno dei principi cardine in tema di protezione dei dati che più di altri merita di essere richiamato, è proprio l’affermazione del diritto degli individui di non essere sottoposti a misure che producano effetti giuridici o che incidano significativamente sulla vita, basate unicamente su trattamenti automatizzati destinati a valutare aspetti della personalità (quali rendimento professionale, situazione economica, ubicazione, stato di salute etc.).
Le sfide poste dai Big Data richiedono non solo massima attenzione con riferimento agli aspetti della sicurezza dei sistemi e delle infrastrutture utilizzate, ma un pensiero innovativo sulla capacità delle norme giuridiche di tutelare in modo effettivo la privacy, avendone chiari i limiti. Di fronte ai dubbi sollevati dalla grande raccolta di dati, il tradizionale paradigma “informativa – consenso” rischia di non garantire tutela adeguata in una realtà dove, appunto, i dati possono essere utilizzati e riutilizzati più volte per finalità diverse ed imprevedibili al momento della raccolta, le tecniche di re-identificazione sono sempre più raffinate, le informazioni sono ricavabili – anche all’insaputa degli interessati – da insiemi di dati (o da loro correlazioni) che, in origine, non erano personali.
Alcuni principi come quelli di finalità o di conservazione dei dati per tempi definiti e strettamente necessari rischiano di apparire anacronistici rispetto alla logica dei Big Data che si fonda sull’accumulo massiccio dei dati. In questo quadro, il Working Party art. 29, che riunisce le Autorità europee di protezione dei dati, ha di recente affermato che le norme giuridiche di riferimento rimangono comunque valide in termini di obiettivi e principi anche per il mondo dei Big Data, ma richiedono nuove modalità di applicazione per poter essere pienamente efficaci.
In una cornice così complessa, che più di ogni altra deve essere contestualizzata al di là delle frontiere disciplinari e geografiche, la riforma del quadro normativo dell’UE per la protezione dei dati (dossier tra i più delicati che l’Italia, Presidente di turno del semestre europeo, è chiamata a gestire) ha l’ambizione di incorporare la tutela dei diritti nelle tecnologie (si parla a tal fine di “privacy by design”, di “privacy by default”, di “valutazioni di impatto privacy” etc.), affinché lo sviluppo delle potenzialità offerte dallo sfruttamento innovativo dei dati sia rispettoso delle persone e, soprattutto, sostenibile.
La discussione intorno alle potenzialità dei Big Data ed ai rischi per la protezione dei dati non può comunque essere affrontata soltanto considerando l’effettività delle norme giuridiche e le possibili soluzioni che la tecnologia (che peraltro muta continuamente) è in grado di offrire.
Poiché è crescente il numero di soggetti (banche, compagnie assicurative, enti di ricerca ma anche organi di sicurezza) interessati a sfruttare le potenzialità che derivano dalle analisi dei dati, è opportuno che vengano preliminarmente bilanciati i possibili benefici sociali, per gli individui e per la collettività, con il pregiudizio che anche solo potenzialmente può essere arrecato alla privacy.
Occorre dunque un approccio etico sull’utilizzo responsabile dei dati, sulla sostenibilità sociale delle attività di analisi che possono essere consentite, anche al fine di evitare raccolte indiscriminate, senza limiti e senza garanzie come dimostrato dalla vicenda del Datagate.
Una riflessione che richiede da parte dei mercati e delle stesse istituzioni una maggiore trasparenza degli obiettivi che si intendono perseguire – e delle modalità per farlo – quale elemento imprescindibile per garantire la fiducia degli utenti e dei cittadini.
In questo senso anche la recente Risoluzione adottata dalla Conferenza internazionale delle Autorità di protezione dei dati richiama l’importanza che le decisioni e le scelte riguardo all’utilizzo dei Big Data siano eque e trasparenti.
Nei prossimi anni la compatibilità e la conformità ai principi di protezione dei dati delle attività connesse all’analisi dei Big Data sarà il vero campo per valutare il modello della nuova società digitale che si intende costruire e, soprattutto, per misurare la forza di valori fondamentali quali il valore della dignità e della libera costruzione dell’identità di ciascuno.

Antonello Soro

Articolo precedenteGoogle in esclusiva a Media Duemila – GoogleNews Sì, GoogleNews No! Il “muro contro muro” parte dalla Spagna
Articolo successivoIstituto Piepoli: solo il 56% crede che Internet aiuti l’economia
Antonello Soro
Presidente dell'Autorità Garante dal 19 giugno 2012. Primario Ospedaliero. É stato sindaco di Nuoro e consigliere regionale della Sardegna. Nel 1994 viene eletto deputato. Dal 1998 al 2001 presidente del Gruppo parlamentare "Popolari e democratici - L'Ulivo". Dal 2007 al 2009 presidente del Gruppo del partito democratico della Camera. É stato membro di diversi organi parlamentari. Dal 1994 al 1995 componente della Commissione Bilancio, tesoro e programmazione. Dal 1995 al 1996 componente della Commissione Affari sociali. Dal 2000 al 2001 componente della Commissione Affari esteri e comunitari. Dal 2001 al 2006 presidente della Giunta per le elezioni. Dal 2008 al 2012 componente della Commissione per le Politiche dell'Unione Europea. Dal 2010 al 2012 componente della Commissione parlamentare per l'attuazione del federalismo fiscale. Ha presentato numerose proposte di legge come primo firmatario. Tra queste si segnalano in particolare quelle riguardanti: • le norme deontologiche relative al trattamento dei dati personali, anche acquisiti mediante intercettazioni, nell'ambito dell'attività giornalistica; • le norme in materia di prevenzione e repressione dei sequestri di persona; • le norme per la tutela delle vittime di reati per motivi di omofobia e transfobia; • le norme in materia di disciplina del procedimento legislativo; • la riforma della disciplina relativa agli organi di governo della Rai; • la Delega al Governo in materia di riordinamento delle funzioni di polizia locale; • le norme in materia di misure fiscali a favore delle famiglie; • le modifiche alla legge per l'elezione dei rappresentanti dell'Italia al Parlamento europeo; • la disciplina delle società tra professionisti. Si è dimesso per incompatibilità da deputato il 7 giugno 2012, a seguito della nomina all'Autorità.