SchonbergerCukierBIGDATAesec.inddGuardatevi attorno nel luogo in cui state leggendo queste righe.
Vi sembrerà il posto più famigliare, normale, agibile o conflittuale in cui vivere.
Ma queste considerazioni le state facendo con i parametri di una mente obsoleta.
Se vi sforzate riuscirete a traslare il pensiero su quello che non vedete e vi sembrerà tutto molto più inquietante.
Occhi, orecchie, nasi e superfici che vi sorvegliano.
Hanno l’aspetto degli oggetti che avete acquistato in altri luoghi che vi erano sembrati, emotivamente attraenti, magneticamente interessanti o anche solo rilassantemente standardizzati.
Quegli oggetti, che vi siete messi in tasca, che avete deposto in cassaforte, che avete installato in casa e in ufficio, vi stanno controllando, raccolgono dati e vi inducono a crearne sempre di più, vi mantengono in vita e vi gratificano perchè siate efficenti data maker, il vostro nuovo e oscuro lavoro.
Un po’ Franz K un po’ tamagochi inconsapevoli, siamo tutti dentro una matrice matematica che calcola incessantemente i dati che raccoglie e perfeziona, nanosecondo su nanosecondo, i modelli di interpretazione del Mondo.
Questo potrebbe essere l’estrema sintesi, in chiave complottistica, fantascientifica o gossipara delka tematica dei big data che viene sviluppata nel libro di Viktor Mayer-Schönberger  e di Kenneth Cukier.
Big Data – Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertÔ uscito per Garzanti nella collana Saggi, traduzione dall’inglese di Roberto Merlini, 306 pagine, € 18.60, di cui manca l’edizione digitale.
Scrivono gli autori: “[quote align=”center” color=”#999999″]

Le conseguenze della società dell’informazione sono sotto gli occhi di tutti: un cellulare in ogni tasca, un com­puter in ogni zaino e sistemi informativi di ultima gene­razione nei back-office di tutto il mondo. Ma quello che si nota di meno sono le informazioni in quanto tali. Mezzo secolo dopo l’introduzione del computer nella nostra so­cietà, i dati hanno cominciato ad accumularsi in misura tale da creare un fenomeno nuovo e particolare: il mon­do è subissato d’informazioni come mai prima d’ora, e queste informazioni crescono sempre più rapidamente.[/quote]

La tesi del libro è che la sempre maggiore disponibilità, innovazione, efficienza ed economicità nelle tecnologia di storage, data mining, security e intelligence produrranno un numero sempre maggiore di dati su qualsiasi oggetto e soggetto, documentando in modo così puntuale da far diventare la mappa il territorio, come mai era potuto avvenire prima.
Nel momento in cui tutto è stato reso ‘datizzabile‘, vale a dire prima narrato e poi profilato attraverso le informazioni dirette e indirette, il processo successivo è rendere le informazioni interoperabili, vale a dire messa in correlazioni tra di esse, aumentando in modo esponenziale la potenza di esposizione del dato di fatto, tra parametri, indicatori, misuratori che la nostra vecchia formazione basata sulla statistica mai si sarebbe sognata di fare.
Un mondo che aveva fatto della precisione e della qualità nella raccolta dati, il campionamento standardizzato e confutabile, ora può concentrarsi sulla scansione di tutti i dati senza interessarsi della loro congruenza, modalità di raccolta, coerenza del contesto, purezza e affidabilità.
I Big Data sono il contesto N=100, il campione è la totalità del campo e le correlazioni, la potenziale acquisizione di altre informazioni, normalizzate al soggetto dell’indagine, possono far emergere comportamenti che, a questo punto, non devono neppure più essere dimostrati, confutati, riprodotti o interpretati. Come scrivono gli autori, la conoscenza passerà dal ‘perchè’ al ‘cosa’ rivoluzionando in modo copernicano il sapere e quello che gli ruota attorno.
Le previsione del libro non si limitano agli aspetti tecno-logici, ma predicono cambiamenti di assetto economico, i dati saranno le nuove miniere da sfruttare, modificando anche il patrimonio delle aziende; quelle che oggi non raccolgono i dati della loro attività o che non la utilizzano, se non per obblighi di legge o esigenze di certificazione, saranno sempre più propense ad investire sulla raccolta dati e sugli algoritmi che estraggono ‘cose’.
Le aziende che hanno attualmente immensi giacimenti, spesso con serie storiche risalenti ad anni e non solo mesi, o che basano già la loro attività sui dati, le aziende dell’ICT e della telecomunicazione, l’aditoria, saranno invogliate a  rendere sempre più efficienti e leggibili i loro dataset, investendo in tecnologia, sapendo che avranno un prodoto in più da rendere reddituale.
L’amministrazione pubblica diventerà il collettore principale dei dati della mappa e del contesto mettendo a disposizione di tutto il sistema i suoi open data in modo tale che si possano capire dinamiche socio-economiche, politiche, culturali in atto per agire senza sprechi di risorse e di tempo.
Si creeranno nuove esigenze professionali, il peso degli esperti di algoritmi saranno prevalenti , ma anche le visioni olistiche e creative, intersettoriali e le menti aperte saranno sempre più apprezzate non solo per ricolvere quesiti e risolvere problemi, ma anche per comprendere che cosa è possibile fare con i dati grezzi.
I dati memorizzati e digitalizzati raddoppiano ogni 3 anni, prima della tecnologia digitale ce ne volevano 50, questo perchè non soltanto sono disponibili tecnologie e capacità di memorizzazione compatibli con queste crescite ma soprattutto perchè è sempre più facile raccogliere  informazione e spesso la raccolta è fatta in modo tale che il soggetto proprietario del dato non è messo in condizione di sapere che egli li stia regalando direttamente ad un device che li sta processando o perchè non è in grado di valutarne la portata ed il significato. Molto spesso, non per mancanza di alfabetizzazione tecnologica, ma perchè il dato, probabilmente sarà utilizzato per scopi che non erano neppure lontanamente coerenti con l’occasione della raccolta. Ad esempio digitare unna parola chiave per uno scopo ludico su Google, che sarà poi correlato a dati sanitari personali o raccolta di informazione di carattere finanziario.
Tutto questo pone dei problemi di contorno della privacy che non è contemplato dalla prassi attuale e che nel libro ha un capitolo preciso e ben sviluppato.
Gli autori si spingono a scenari, a mio parere, un po’ esagerati, come temere che le correlazioni possano entrare a far parte non solo delle procedure di investigazione di polizia ma anche come implicazioni giudiziarie, sino a prospettare un futuro in cui come nel ‘Minority report’ ogni cittadino potrebbe essere arrestato e condannato per fatti che un algoritmo ha predetto come alta probabilità di esecuzione, stravolgendo del tutto la struttura del diritto universalmente presente in ogni nazione democratica.
In ogni caso, se prima mancavano gli strumenti per predire con quasi certezza, oggi le Cassandre elettroniche esistono e sono tra noi.
Starà alla nostra consapevolezza prendere le necessarie precauzioni e condurre un percorso di cambiamento paradigmatico in una canalizzazione che mantenga, sempre, la centralità dell’essere umano e non il feticismo tecnologico.
La tematica big data si correla ad altri argomenti che si stanno sviluppando nel mondo digitale e l’alta tecnologia.
Michele Vianello ha scritto ‘Smart Cities’, dove gli Open data sono il fulcro dell’interoperabili e quindi dell’intelligenza degli agglomerati urbani e dell’idea di riutilizzo delle risorse informative e informatiche per la comunità.
Nate Silver,  ha scritto ‘Il segnale ed il rimore’ in cui analizza il senso da dare alla rivoluzione comunicazionale.
Sergio Pistoi, autore di ‘Il DNA incontra Facebook’, dove descrive la sua esperienza di coprotagonista nella vita quotidiana della mappatura genomica. Un’esperienza, ormai, alla portata di tutti. Di questo libro ne avevo già scritto.
Mi ripropongo di parlarne e di ‘correlare’.
Sotto l’idea formale dei cryptocoin c’è un desiderio di gioco e una volontà èpolitica di creare una sovrastruttura transnazionale tecnologica che sia totalmente virtualizzata e staccata dal mondo reale.
Un mondo vituale dove anche le transazioni finanziarie sia prodotte con meccanismi che non hanno piùniente a che fare con le valute ufficiali, ad esempio.
Dove sono saltante completamente le intermediazioni, in questo cvaso la valuta, le banche  e i depositi di controvalore.
Dove l’algoritmo è al tempo stesso prodotto, produttore e intelligenza.
Articolo precedenteLa bolla dei Filtri: dalla ricerca alla conoscenza.
Articolo successivoDiritto d’autore online: una sentenza della Corte di Giustizia dell’Ue, paletti e distinguo
Giorgio Fontana
Torinese, classe 1957, si occupa di comunicazione e di social media. Attualmente è socio e project manager di Kelios SRL e di una nascente startup torinese di web tv. Nei suoi interessi permangono le tematiche antropologiche e umanistiche, declinate attorno all'innovazione tecnologica, interessi che condivide con i membri del gruppo di discussione da lui fondato, La scimmia nuda e Internet, divenuto ormai il punto di riferimento della cyberantropologia italiana in Facebook. Collabora dal 2011 con la rivista Media Duemila, su tematiche legate a social tv e social media.