Se la città intelligente non è veramente intelligente è colpa dell’uomo, infatti non esistono città intelligenti senza cittadini che siano capaci di fruttarne le potenzialità. Roberto Saracco, presidente dell’associazione EIT ICT labs Italy di Trento città selezionata dall’IEEE per l’iniziativa globale sulle smart cities con l’obiettivo di individuare 10 città che servano da punti di aggregazione per affrontare i variegati problemi che affrontano le città, spiega come si sono trasformati i territori occupati dall’uomo. Le infrastrutture fisiche e digitali protagoniste dell’evoluzione si concentrano sempre più sull’usa dei dati.
La città nasce e prospera sulle infrastrutture. Le strade, gli acquedotti, … ieri, oggi anche la connettività digitale. Le telecomunicazioni, nate 150 anni fa, hanno determinando un cambiamento di paradigma, anche se i servizi a disposizione dei cittadini sono fondamentali parallelamente alla capacità dell’uomo di sfruttarne le potenzialità. La città intelligente è un percorso non un punto di arrivo cresce insieme a chi la occupa.
Dalla città, alla città intelligente. Le tre foto mostrano l’evoluzione di un sistema creato per accogliere comunità. I villaggi come i grandi centri metropolitani sono fondati, crescono e con il declino arriva l’abbandono. La natura riprende gli spazi abbandonati dall’uomo che non trova tutto ciò che gli serve per vivere bene o avere accesso a risorse indispensabili. Una per tutte l’acqua. Oggi i rifiuti sono un’emergenza reale. La gestione dei rifiuti è un grosso problema per le città di tutto il mondo. I Paesi più ricchi producono più rifiuti, e le città sono al primo posto. La produzione media nel 2012 era di 0.64Kg al giorno per persona (solo rifiuti solidi), un dato destinato a raggiungere 1.42Kg al giorno per persona nel 2025. I rifiuti urbani si triplicheranno nello stesso periodo da 0.68 a 2.2 miliardi di tonnellate l’anno. Gli Stati Uniti hanno prodotto rifiuti per 2.58Kg al giorno per persona nel 2012, la Norvegia 2.8Kg, la Svizzera 2.61Kg, l’Italia 1,38Kg. In fondo alla graduatoria ecco il Ghana con solo 90 g. di rifiuti a persona al giorno!La tecnologia negli ultimi venti anni ha cambiato la natura del problema, infatti da puro costo i rifiuti sono diventati una potenziale opportunità di guadagno. Tuttavia, questo non ha diminuito le difficoltà da affrontare anche perché ogni genere di rifiuto richiede una soluzione diversa.
L’eWaste è diventata una questione importante. In Italia buttiamo ogni giorno 85.000 cellulari, 416.000 negli Stati Uniti. Il centro di ricerca EIT Digital è in prima linea per cercare soluzioni. Ed anche in questo caso la collaborazione dei cittadini è essenziale perché il cambiamento passa per la consapevolezza. La maggior parte di noi, purtroppo non percepisce la portata del problema della gestione dei rifiuti, né l’impatto che ha su ciascuno di ognuno di noi la razionalizzazione della raccolta dei rifiuti.
Una città intelligente è attenta al processo di gestione dei rifiuti, dalla raccolta allo smaltimento fino al riciclaggio, un’infrastruttura essenziale per la qualità della vita e per salvaguardare il pianeta.
Le infrastrutture durante i secoli si evolvono e modificano le regole del gioco per i cittadini e le città. Negli anni 50 l’attenzione è su strade, ferrovie, in quanto da queste dipende la crescita dello sviluppo economico.
Nella seconda parte del secolo scorso compare l’infrastruttura dedicata alla connettività virtuale che con il telefono cresce grazie al segmento business e poi, con il cosiddetto servizio universale, si estende a tutti i cittadini.
Il servizio universale permette, a prescindere dal reddito, il possesso di un telefono che diventa risorsa primaria per la comunità come l’acqua, la gestione dei rifiuti, i trasporti pubblici, l’energia, l’elettricità, il gas, la benzina etc… Negli ultimi quindici/venti anni si aggiunge il web che è cresciuto fino a diventare un’infrastruttura di servizio fondamentale per ogni aspetto della vita sociale. Cloud, data center, metafore dell’oggi sono la chiave per lo sviluppo delle infrastrutture di servizio che sfruttano il web perché raccolgono dati e li mettono a disposizione. Con la modernità arriva la consapevolezza infrastrutturale essenziale per la città intelligente, ma non per questo quella fisica fatta da persone con le loro percezioni diviene meno importante, anzi è fondamentale per la creazione di servizi personalizzati.
La percezione è l’elemento fondamentale della catena del valore, anche se è soggettiva perché da due persone che guardano allo stesso effetto possono derivarne percezioni molto diverse. La presentazione influisce ecco perché il design è fondamentale.
L’infrastruttura percettiva può essere intesa come l’insieme di software/strumenti/dispositivi che consentono al cittadino di guardare alla città come un insieme di servizi utili e accessibili. Ogni Comune dovrebbe essere interessato all’infrastruttura percettiva perché determina un collegamento costante tra città e cittadini. Grazie alle tecnologie, le istituzioni hanno a disposizione gli strumenti per arrivare all’umore e al sentimento della cittadinanza. Chi predispone regole e servizi sul territorio dovrebbe esserne cosciente. Sebbene siamo solo all’inizio è già chiaro che la collaborazione tra architetti, sociologi, designer ed ingegneri fa la differenza.
Le nanotecnologie permetteranno di trasformare qualsiasi superficie in un display, grazie alla scienza dei materiali potremo esaltare le caratteristiche del paesaggio urbano, modificarne l’aspetto e renderlo interattivo. Il progresso nel campo dell’intelligenza artificiale aumenterà la consapevolezza e la sensibilità di una città e dei suoi elementi costitutivi, di conseguenza la nostra percezione della città nel lungo periodo subirà cambiamenti. (NB: vedi rapporto Stanford University: Intelligenza artificiale e la vita nel 2030).
Due gli elementi che regolano questo sistema complesso: la forza economica e quella normativa. Entrambe possono considerarsi infrastrutture a se stanti, anche se interagiscono con tutte le altre e ne stimolano l’evoluzione. Ecco perché comprenderne caratteristiche e funzionamento è essenziale per la progettazione di una tabella di marcia di sviluppo della città intelligente.
La città intelligente è un percorso non un punto di arrivo
La tecnologia è fondamentale nelle infrastrutture e quindi nello sviluppo della smart city. La legge di Moore ne è un esempio. Preferisco però focalizzare l’attenzione sui dati, essenziali nelle infrastrutture di servizio. La novità è l’abbondanza di dati creati e processati grazie alla tecnologia. Ciò diviene causa ed effetto dell’evoluzione che lega la città al suo cittadino, sensore e parte attiva nei sistemi intelligenti.
Considerando l’impatto sull’economia (bidirezionale) e la trasformazione dell’economia da una basata sull’atomo (oggi) ad un’altra fondata sui dati (domani) è necessario sottolineare che la città intelligente è un percorso non un punto di arrivo perché l’evoluzione non si ferma.
Come ha predetto Moore il numero di transistori per chip, raddoppia ogni 18 mesi. La legge è probabilmente una delle più citate in questi ultimi 30 anni. Risale a un articolo pubblicato nell’aprile del 1965, più di 50 anni fa, sebbene solo negli anni 80 si è imposta all’attenzione del pubblico perché in quegli anni i chip diventano sempre più presenti nella vita di tutti.
Già nel 2003 sono 32 milioni i transistor su un chip (Tokyo in termini di popolazione), nel 2013 il numero di transistor su un chip ha raggiunto 1,3 miliardi (la popolazione della Cina). La diminuzione dei costi di produzione, seconda affermazione della legge di Moore, ha cambiato le regole del gioco perché ha democratizzato la potenza di calcolo e permette il semaforo intelligente, la distribuzione di energia senza soluzione di continuità, la gestione dei rifiuti efficace e tanto altro.
C’è anche un altro aspetto della legge di Moore, che ha una forte implicazione sulla crescente intelligenza delle nostre città: l’uso sempre più ridotto di energia. I circuiti elettronici possono, infatti, essere alimentati da fonti sempre meno potenti di energia.
Quando Marconi inventò la radio si rammaricò di non poter usarla per la comunicazione. I segnali radio coprivano un vasto territorio e tutti avrebbero potuto ascoltarlo rendendo così possibili comunicazioni personali. Ha inventato la radio (e ha aperto la porta per la televisione), ma avrebbe voluto inventare il telefono. A quel tempo la potenza di elaborazione necessaria per sfruttare lo spettro radio e renderlo disponibile per la comunicazione delle persone non esisteva, dobbiamo aspettare gli anni 80.
È stato l’effetto della Legge di Moore a rendere possibili i telefoni cellulari, sia in termini di fattibilità tecnica sia di convenienza economica. Anche se dal punto di vista economico questa legge non è più valida lo rimane in termini di densità e quindi di incremento prestazionale. Questo rimane alla base della evoluzione verso il 5G. Inoltre, la diminuzione di potenza continuerà estendendo il campo di applicazione delle IoT, aspetto questo abilitante per diversi aspetti delle future città intelligenti.
Il sistema Wireless dal punto di vista di un operatore è ottimo, per tre ragioni:
• l’aria è molto economica
• l’operatore paga solo una parte dell’investimento
• l’operatore può aumentare la capacità in modo sincrono rispetto all’aumento della domanda
Che l’aria sia più conveniente di un cavo (e relative opere civili) non è sempre vero visto che alcuni Governi fanno pagare caro l’uso esclusivo dello spettro. Ottenere una piccola fetta dello spettro per il 3G ha significato un investimento di svariati miliardi per molti operatori in Europa (governi diversi hanno adottato politiche diverse, ma tutti pagano per le licenze). Una volta acquistata la licenza, l’aria è lì per essere usata gratuitamente, ma non è sufficiente. È necessaria l’infrastruttura, torri per piazzare le antenne, cavi di alimentazione per portare i segnali da e per le antenne e apparati di commutazione. Il costo complessivo di un wireline e di un sistema di comunicazione senza fili a parità di capacità è, più o meno, lo stesso. Tuttavia, nel caso di una rete cablata il 100% del costo della infrastruttura è a carico del gestore, mentre nelle comunicazioni wireless l’operatore dovrà pagare circa il 30% del costo complessivo, il restante 70% è a carico degli utenti (sono questi che “pagano i “telefonini” che in un sistema wireless svolgono diverse funzionalità della rete). In più l’infrastruttura alla base della rete senza fili può crescere seguendo la domanda. Questo è il motivo per cui un Comune, e un investitore privato, investono in wireless. Questo è già evidente nel caso dello spettro senza licenza, per esempio il Wi-Fi, dove stiamo assistendo a un boom di installazioni fra i privati e Comuni.
Questo è anche il motivo per cui il ritmo di penetrazione wireless è stato così veloce. Le statistiche del ITU sulle infrastrutture cablate non si applicano alle infrastrutture wireless. Abbiamo visto molti Paesi in via di sviluppo muoversi dallo 0% al 40% in meno in 10 anni, contro i 40 anni che sarebbero stati richiesti da una infrastruttura cablata (e in molti paesi siamo ormai vicini alla penetrazione del 100%!).
Le regole economiche che spingono il wireless sono la ragione per la quale le smart cities dovrebbero far leva sul wireless per la loro infrastruttura di sviluppo.
SENSORI: business da 22 miliardi di Dollari
I servizi hanno bisogno di dati e i sensori sono elementi fondamentali.
Ne abbiamo di diversi tipi pensiamo ad esempio a quelli termici che possono rendere gli edifici e le città più sicure, fornendo avvertimenti sugli incendi o sulla congestione dei tombini di scolo, per esempio. Altro tipo di sensori è utile per il monitoraggio del traffico. A Chicago, stanno utilizzando sensori sui pali della luce per raccogliere dati sulla temperatura, pressione barometrica, la luce, le vibrazioni, il monossido di carbonio, biossido di azoto, biossido di zolfo, ozono, intensità pedonale, di veicoli e la temperatura di superficie.
I sensori spaziali forniscono dati su posizione, velocità e accelerazione. Essi utilizzano una varietà di tecnologie dalla posizione GPS ai laser e ai giroscopi.
Sempre più veicoli hanno un ricevitore GPS a bordo, così come gli smartphone, le macchine fotografiche digitali e gli orologi intelligenti. Da ciascuno di essi si ricavano dati sulla posizione (geolocalizzazione) sul nostro essere fermi o in movimento e tanto altro.
Grazi ai sensori è possibile rilevare se le rotaie di una linea metropolitana hanno bisogno di essere fissate, se un treno ha problema con il suo sistema di frenata e così via. In effetti, si può immaginare di realizzare qualcosa di simile a CENSE (Coalition of Eastside Neighborhoods for Sensible Energy), per creare un sistema nervoso per Smart City.
Ed ecco che arrivo anche ai sensori Bio che derivano dalla fusione di una componente biologica, come un enzima, un anticorpo, un microrganismo, una cella con una parte elettronica che converte in dati quella parte biologica. Due anni fa era un esercizio di laboratorio ora un business che arriverà a 22 miliardi di dollari entro la fine del decennio.
La bio-ingegneria è destinata a crescere nei prossimi anni e nel prossimo decennio la programmazione delle biocelle (e, eventualmente, di organismi multicellulari) per creare sensori con proprietà desiderate diventerà sempre più comune.
Non è più fantascienza immaginare la città con alberi programmati per rilevare sostanze nocive e che forniscono un allarme in tempo reale. Saremo in grado di conoscere la qualità dell’aria che respiriamo solo guardando il colore del fogliame nel parco cittadino o guardando le piante che coprono il nostro edificio? La tendenza, a mio avviso, è verso una crescente sinergia tra bio e città.
Finestre o mattoni, pali della luce, … possono tutti diventare sensori se costruiti con materiale appropriato. L’età dei materiali intelligenti è già iniziata e dominerà il prossimo decennio. Edifici e ponti saranno in grado di segnalare i problemi connessi alle loro strutture. I materiali intelligenti costituiranno un fattore fondamentale per la consapevolezza della smart city.
Altro aspetto è “sensing virtual”, il nostro cervello deduce che se non c’è più cibo nel frigorifero, mentre ne era zeppo poco prima, i bambini possono essere tornati a casa più presto. Il rilevamento virtuale analizza dati indipendenti. Questa classe di sensori è particolarmente importante per due ragioni: ci sono sempre più insiemi di dati disponibili che possono essere utilizzati come sensori virtuali ed è più economico utilizzare sensori virtuali rispetto a quelle reali. Le tecnologie per il rilevamento virtuale migliorano costantemente, il caso dell’intelligenza artificiale è un esempio concreto. Il software impara da una precedente esplorazione dei dati e migliora.
I Comuni dovrebbero investire nel rilevamento virtuale il più possibile, promuovendo l’accessibilità dei dati.
CONSIGLI PER GLI AMMINISTRATORI
Nel contesto smart city, i sensori hanno un ruolo determinante perché permettono di ottenere informazioni: mai come oggi le Istituzioni che governano possono scegliere tra varie soluzioni. Supponiamo di voler ottenere informazioni sul flusso di traffico, è possibile avere resoconti precisi su numero e tipi di veicoli, grazie a punti di rilevamento, ed anche dati grezzi sulla densità del traffico e gli ingorghi, ma con sensori nei punti strategici si può verificare il flusso in tempo reale dei veicoli che passano attraverso un incrocio.
In alternativa, sensori ottici, videocamere, posti negli stessi punti, grazie a software specifici possono monitorare il flusso analizzando le immagini e contare le auto. Il software potrebbe anche identificare ogni macchina e seguirne il percorso. Ciò fornirebbe una migliore informazione sul traffico, ma, ovviamente, arrivano problemi legati alla privacy. Il Comune spia i suoi cittadini …
A Singapore già si utilizzano transponder sulle vetture, in ogni caso è possibile monitorare i veicoli utilizzando segnali radio (sensori elettromagnetici) per localizzare e/o offrire servizi personalizzati.
I dati si possono ottenere anche dagli operatori wireless seguendo il movimento dei telefoni cellulari (con diversi gradi di anonimato) che grazie ad un software permette di distinguere tra il traffico collegato a pedoni, a veicoli privati o al trasporto pubblico. La privacy è in prima linea anche in questo caso.
Dagli esempi si capisce che è possibile usare diversi tipi di sensori per monitorare i flussi di traffico. Di qui la domanda: qual’è quello giusto?
Spesso le istituzioni che governano le città prendono decisioni senza valutare rischi e positività di ciascuna scelta. Questo richiederebbe anche una buona comprensione della tecnologia e della sua evoluzione. Mi permetto alcuni suggerimenti.
Una regola che vale per tutti è quella di valutare ogni scelta dal punto di vista degli investimenti necessari, e quindi:
– Cercare di utilizzare ciò che è già disponibile, in termini di sensori e d’infrastrutture. Sicuramente quelli dei cittadini con i loro veicoli e telefoni intelligenti sono disponibili.
– Far leva sulle infrastrutture esistenti, comprese quelle di comunicazione: torri radio, pali della luce, trasporto pubblico.
– Utilizzare diverse fonti di dati e analizzare le informazioni estratte. Aprire i sistemi in modo che terzi possano proporre nuovi utilizzi.
I comuni possono sfruttare i dati e condividerli con la cittadinanza per creare “consapevolezza”. Diverse ricerche in corso tendono a sfruttare al meglio il “sensing umano”. In alcuni casi, particolarmente quando vogliamo capire i “sentimenti” della cittadinanza, i sensori umani sono in grado di fornire le risposte più pertinenti (attraverso i social networks).
Infine la smart city deve utilizzare il più possibile i suoi “utenti” come “fornitori”. In almeno un decennio deve trasformare gli autoveicoli da prodotti in servizi, in altre parole deve far scomparire la maggior parte delle automobili private. Se ci pensiamo bene, ha un senso: la nostra macchina passa la maggior parte del suo tempo parcheggiata da qualche parte, secondo alcune analisi fino al 90% del tempo.
Il car sharing e il car pooling sono oggi un primo tentativo di risolvere questo problema. In futuro le auto saranno posteggiate in città e quando ne avremo bisogno la prenderemo. L’ICT sarà lo strumento per rendere questo possibile.
Uno studio del MIT sui dati reali nella città di New York mostra che un 1/3 della auto sarebbe sufficiente per soddisfare tutte le esigenze di trasporto dei cittadini. Il problema è trovare un modello business praticabile. Uber, che è un esempio di car sharing privato non è redditizio, ha registrato un utile nel 2016 primo trimestre, ma è tornato in rosso nella seconda metà del 2016 con una perdita complessiva di 1,2 miliardi di $.
A lungo termine, la soluzione si baserà su una combinazione fra trasporto pubblico e privato. La IoT può svolgere un ruolo significativo in questa integrazione. A titolo di esempio Cisco offre una soluzione per il traffico “Connected intelligente”. Un Comune dovrebbe funzionare come un direttore d’orchestra nella raccolta e condivisione dei dati. Il centro ricerche EIT Digital lavora in questo senso con la piattaforma FIWare finanziata a livello europeo.