Cosa si raccoglie SEMINAndo open data sulla mobilità?

21 settembre 2015 Massimo Zotti Nessun commento

Il percorso per rendere Bari una città smart passa anche dalla scelta del Comune di liberare i dati sul proprio trasporto pubblico locale con licenze che ne permettessero gratuitamente il riuso da parte di terzi.

Planetek Italia è la capofila di questo processo, a cui hanno finora partecipato anche altre realtà aziendali del settore ICT (come Macnil e Sitael), le istituzioni pubbliche (Comune di Bari, AMTAB e Politecnico di Bari) e un nutrito gruppo di cittadini sensibili al tema della mobilità sostenibile (vedi l’articolo pubblicato su questo Blog relativo all’Hackathon Mhoo).

I benefici derivanti dalla liberazione dei dati sull’infomobilità sono molteplici. Innanzitutto si rende più agevole la mobilità e l’utilizzo dei mezzi pubblici da parte del cittadino. Al tempo stesso per una smart city diventa strategico utilizzare gli open data sulla mobilità a supporto dell’attività di pianificazione dei trasporti e della viabilità metropolitana. E’ questo è proprio quello che abbiamo fatto a Bari.

Per la smart mobility del Comune di Bari, infatti, Planetek Italia ha elaborato gli open data messi a disposizione (qui), per fornire informazioni relative alla mobilità e ai livelli di traffico urbano: grazie alle tecnologie di telecontrollo dei mezzi AMTAB (la cui posizione viene rilevata ogni 15 secondi o ogni 50 metri) è possibile mettere a disposizione dell’amministrazione e dei progettisti alcune fondamentali informazioni relative ai livelli di traffico presenti su una determinata direttrice stradale, piuttosto che in prossimità di un determinato punto d’interesse con potenziali benefici sia in termini di viabilità e mobilità che di accessibilità alle diverse destinazioni.

Integrando i vari open data, è inoltre possibile definire alcuni indicatori oggettivi ed interoperabili in grado di fotografare istantaneamente sia la situazione della viabilità urbana, che di stimare ex ante gli impatti o di monitorare ex post gli effetti delle politiche sul traffico urbano già implementate.

Tra le varie applicazioni di questo patrimonio informativo va segnalato, ad esempio, che grazie all’indicazione dei tempi di percorrenza sulle principali arterie stradali è possibile individuare le zone della città più congestionate nelle fasce orarie più critiche e intervenire per individuare itinerari alternativi; oppure, monitorando le modalità di utilizzo delle aree di sosta diventa possibile, in real-time, suggerire agli automobilisti in quali zone è più facile lasciare la propria auto in funzione della destinazione finale; o ancora, promuovere politiche di car-sharing per quei cittadini che condividono itinerari e destinazioni, risparmiando così sulle spese degli spostamenti.

A livello di intervento urbanistico, invece, l’elaborazione dei dati sulla mobilità si rivela utile per promuovere zone di interscambio modale, spazi per il “kiss&ride” o addirittura la progettazione di aree “transit-oriented development” distribuite sull’intero territorio metropolitano e strategiche anche per la riqualificazione urbana di spazi già esistenti e degradati.

Questi sono solo alcuni dei potenziali vantaggi generati dall’elaborazione degli open (big) data, che, grazie soprattutto alle risorse attivate dal progetto SEMINA (qui video e slide di presentazione), ha reso concreto un primo passo verso la costruzione della smart city di Bari.

Mettere a disposizione dati in modalità open diventa dunque determinante per produrre servizi pubblici efficienti ed efficaci e rendere migliori le nostre città, la nostra percezione degli spazi, il nostro modo di abitare i luoghi, la nostra vita e la sua qualità.

Ringrazio molto Francesco Buoso per il suo prezioso contributo alla redazione di questo post.

Vogliamo anche RNDT nel registro INSPIRE!

Un anno e mezzo fa (per la precisione il giorno 11 febbraio 2014), su iniziativa di alcuni appassionati geomatici italiani, veniva lanciata una petizione per denunciare la mancata presenza dell’Italia nel registro INSPIRE: italy4INSPIRE

Questa iniziativa, che ha raccolto rapidamente oltre 100 adesioni, non solo di singole persone ma anche di associazioni e comunità del settore geomatico, puntava a mettere in risalto il fatto che bastava un granellino di sabbia nella farraginosa ed infernale macchina burocratica (il mancato invio di una mail da parte di fantomatici responsabili), per far fare al nostro Belpaese l’ennesima figuraccia in campo internazionale.

E la beffa era che l’Italia aveva adempiuto già da tempo alla normativa di settore realizzando il “Repertorio Nazionale dei Dati Territoriali” (RNDT) e quindi poteva addirittura farci arrivare al traguardo tra i primi in Europa.

Tra l’altro, l’iniziativa veniva ripresa anche in due interrogazioni parlamentari, presentate rispettivamente il 4 luglio e il 12 novembre 2014, rimaste tuttora senza risposta.

Cosa è successo a distanza di così tanto tempo?

Che ci abbiamo messo la solita “pezza” all’Italiana, registrando il solo endpoint del Geoportale Nazionale (che annovera poche centinaia di metadati), continuando a ignorare RNDT, nonostante la legge europea consenta ad ogni Stato Membro di esporre più di un punto di accesso nazionale.

Perché?

Visto che il D.lgs. 32/2010 richiama esplicitamente RNDT e che questo in uniformità e continuità con il monitoraggio “previsto dalla Commissione” 2014 segnalava 6140 metadati e quello 2015 ne riporta oltre 17940, perché non è stato ancora registrato? Chissà se qualcuno, con un nome, un cognome ed una faccia, riuscirà mai a dare una risposta e, soprattutto, a raggiungere l’obiettivo di registrare l’endpoint RNDT nel registro INSPIRE.

We want also the National Catalogue for Spatial Data in the INSPIRE register!

A year and a half ago (precisely on February 11, 2014), based on the initiative of some Italian geomatics fans, a petition was launched to denounce the lack of presence of Italy in the INSPIRE register: italy4INSPIRE

This initiative, which has rapidly gathered more than 100 adhesions, not only by individuals but also by associations and communities of the geomatics sector, aimed to highlight the fact that it was enough just a grain of sand in the cumbersome and infernal bureaucratic machine (the failure to send an email by ghost responsible), to make yet another fool to our country in the international arena.

And the joke was that Italy had already fulfilled so far the sectoral legislation, creating the “National Catalogue for Spatial Data” (RNDT - Repertorio Nazionale dei Dati Territoriali) and, therefore, it could even get us to be among the first in Europe. Among other things, the initiative was echoed in two parliamentary questions, submitted on 4 July and 12 November 2014 , remained unanswered.

What happened after so long?

That we took the usual “patch” Italian style, registering the only endpoint of the National Geoportal (which counts a few hundred metadata), continuing to ignore RNDT, despite European law allows each Member State to present more than one National access point.

Why?

Since the Decree 32/2010 (which transposed the INSPIRE Directive in Italy) refers explicitly to RNDT and that this, in consistency and continuity with the monitoring “envisaged by the Commission” 2014, signaled 6140 metadata and in 2015 more than 17940 metadata are reported, why it was not registered yet?

We wonder if someone with a name, a surname and a face, will never give an answer and, above all, will manage to achieve the goal of registering the RNDT endpoint in the INSPIRE register.

Challenge GPU4EO: the winner is…..

Si è concluso con un grande successo il challenge GPU4EO con il team vincitore che, nelle 10 settimane a disposizione, ha ridotto dell’80% il tempo di elaborazione di una coppia interferometrica di immagini radar portandola da 25 a 3 minuti.

Un risultato ottenuto rivisitando gli algoritmi di DORIS, il software per l’elaborazione di immagini radar satellitari, ed utilizzando le potenzialità di una scheda grafica GPU NVIDIA k40.

Il team vincitore è risultato quello capitanato dal Prof. Italo Epicoco dell’Università del Salento, con Francesca Macchia e Francesca Mele. Questo team è stato premiato da Giovanni Sylos Labini CEO di Planetek Italia che ha messo in palio il premio di 5.000 €. (video dell’intervista).

I team finalisti sono risultati variamente composti: il “team Epicoco” formato da ricercatori dell’Università del Salento e del CMCC, il “team Putignano” composto da Putignano-Izzo-Sabella-Chiusolo, professionisti che operano nel settore del remote sensing, e il “team Poliba” composto dal trio Guerriero-Anelli-Pagliara del Politecnico di Bari.

I team si sono confrontati con la sfida che richiedeva, come requisito minimo di partecipazione, di almeno dimezzare i tempi di elaborazione pur garantendo la massima qualità del risultato dell’elaborazione come ha illustrato Raffaele Nutricato di GAP (video) che ha anche spiegato per quale motivo è stato adottato DORIS come software di riferimento per il challenge.

I risultati di tutti i 3 team finalisti hanno dimostrato che con l’adozione delle GPU ci sono ampi margini di ottimizzazione dei software di image processing.

Le strategie di ottimizzazione adottate dai team sono state illustrate durante il workshop (i video dei team Epicoco, Putignano, Poliba). Tutti i team hanno evidenziato che la fase di ricampionamento è quella che richiede i maggiori tempi di elaborazione e per questo motivo si sono concentrati principalmente su questa fase. Il team vincitore ha ridotto i tempi di ricampionamento portandoli da 580 secondi a soli 10 secondi!

Tutti i team hanno meso in evidenza che con il processing con GPU le performance sono fortemente penalizzate dalla frequente lettura/scrittura di file intermedi al termine delle operazioni di elaborazione. Una strategia da perseguire nel porting dei software verso le GPU è proprio la riduzione delle operazioni di lettura/scrittura con la possibilità di mettere in memoria grandi quantità di dati da elaborare sfruttando le caratteristiche delle GPU disponibili sul mercato.

Le modalità di misurazione delle prestazioni dei team sono state illustrate da Giacinto Donvito dell’INFN (vedi il video) che ha anche messo in evidenza che nessun team è comunque riuscito a saturare le capacità elaborative della scheda video a dimostrazione che ci sono ancora ampi margini di miglioramento.

Durante il workshop finale del Challenge GPU4EO il Prof. Hittle dell’Ohio Supercomputer Center nella sua keynote ha illustrato le principali differenze tra il processing su GPU vs CPU e ha presentato alcuni casi applicativi di successo nell’adozione delle GPU per il calcolo scientifico. (video della presentazione e dell’intervista in inglese).

Il Challenge è stato realizzato con il contributo dei partner del progetto RIESCO e grazie alla disponibilità del data center RECAS le cui caratteristiche sono state illustrate dal prof. Bellotti dell’Università di Bari (video).

Il convegno si è aperto con i saluti del prof. Uricchio, Rettore dell’Università di Bari, e gli interventi di Francesca de Leo del CNR, coordinatrice del progetto RIESCO, la dott.ssa Di Ceglie della Regione Puglia e Vincenzo Barbieri di Planetek Italia, che ha illustrato le motivazioni che hanno portato alla organizzazione del Challenge. (video)

Link di approfondimento: