Un aspetto spesso poco considerato quando si parla di dati aperti è il fatto che l’adozione di tale approccio oltre che favorire la trasparenza delle istituzioni e dare un nuovo carburante all’economia, è anche in grado di aumentare in maniera assai consistente la disponibilità e l’accessibilità delle informazioni, non solo per ciò che riguarda le esigenze dei cittadini, aziende e giornalisti, ma soprattutto all’interno della stessa pubblica amministrazione.

Non è raro infatti che un ufficio o un dipartimento pubblico abbia la necessità di utilizzare dati provenienti da altri uffici per raggiungere determinati scopi come portare avanti un lavoro, pianificarne uno o semplicemente per osservare un fenomeno e gli effetti di alcune politiche attuate.

Purtroppo, nella realtà odierna, l’accesso a determinate informazioni è una prassi particolarmente complicata anche all’interno del settore pubblico dove l’interscambio dei dati tra diversi uffici, spesso addirittura coesistenti nello stesso ente, presenta diversi ostacoli non solo di natura burocratica ma soprattutto di natura pratica e organizzativa: non si sa come trovare queste basi dati ed con quali formati sono archiviate. Non si sa quale ufficio detiene queste informazioni e si deve andare avanti per tentativi che spesso si traducono in numerose email o telefonate di richiesta che non sempre vanno a buon fine. Se a tutto ciò si aggiunge che spesso i dati non vengono nemmeno conservati o che il funzionario di turno ha un attaccamento quasi morboso verso di essi tanto da non volerli condividere con nessuno, il quadro generale si presenta assai grigio e allarmante.

Fortunatamente l’approccio open data che la pubblica amministrazione sta progressivamente adottando in questi anni, può decisamente dare una mano a migliorare questa situazione, offrendo un maggior numero risorse informative facilmente accessibili a chiunque e alle quali anche gli uffici pubblici possono attingere per realizzare i propri obiettivi. Di contro siamo ancora piuttosto lontani dal raggiungere in maniera completa e soddisfacente una situazione dove si sa con sicurezza che i dati verranno resi pubblici in formati aperti e in modalità tempestiva, e che questo avverrà in maniera automatica manifestandosi come una fase specifica e necessaria dell’iter amministrativo.

Allo stato attuale l’’iniziativa dell’apertura dei dataset pur essendo spesso prevista dalla normativa, viene portata avanti dalle singole amministrazioni in maniera quasi “volontaria”, con la conseguente suddivisione tra entità virtuose e meno virtuose. Tutto ciò porta ad avere coperture troppo differenti che non permettono il riutilizzo dei dati su scala nazionale ma bisogna ripiegare e scegliere di operare in scala locale, limitando fortemente la possibilità di elaborare confronti e avere a disposizione delle informazioni complete.

Elaborazione e rappresentazione: dati.gov.it

Data la situazione, attualmente, chi ha l’interesse a riutilizzare i dati aperti deve al momento “accontentarsi” e aspettare che il trend attuale che vede una buona crescita del numero di dataset rilasciati, si rafforzi ulteriormente. Comunque sia la quantità delle informazioni disponibili non è il solo ostacolo che si deve superare per favorire e valorizzare il riuso.

Un  altro problema è l’eterogeneità delle basi dati rilasciate, le cui informazioni cambiano a seconda dell’ente dalle quali provengono e delle volte cambiano di anno in anno. Nonostante esistano portali come dati.gov.it che hanno lo scopo di raccogliere in un unico luogo tutti i dataset rilasciati dagli enti pubblici, non esistono linee guida che indichino nel dettaglio l’uso di procedure standard in grado di favorire la produzione di output omogenei da parte delle amministrazioni e quindi di permettere all’utente finale la possibilità di fare aggregazioni e confronti su livelli territoriali o di tipologie di dati differenti.

Tutti questi fattori favoriscono maggiormente lo sviluppo di dinamiche micro (creazione di app su scala cittadina, articoli di data journalism su scala locale ecc ecc) ma fanno sì che buona parte dei vantaggi che possono derivare dall’analisi dei fenomeni su scala più grande non vengano adeguatamente sfruttati. Il cosiddetto diluvio di dati insomma è ancora troppo carente, caotico, e rischia di venir sprecato in larga parte.

Le soluzioni che si presentano all’orizzonte sono varie, tra le quali spicca l’utilizzo di alcune tecniche di data mining sui big data (sono in corso vari contest in proposito), cioè enormi moli di dati provenienti da varie fonti, tra le quali il web, che non necessariamente hanno carattere amministrativo, per sopperire alla carenza di dati pubblici aperti. A quanto pare, esiste anche il progetto della costruzione di un unica, enorme, piattaforma centralizzata in grado di gestire tutte le informazioni provenienti dagli enti pubblici. A questo proposito, tempo fa ForumPa di Roma  ascoltai un keynote dell’ex ministro Enrico Giovannini, all’epoca ancora presidente ISTAT, durante il quale mostrò la cosiddetta  “lavagna futurista” disegnata e firmata dal famoso matematico Bruno de Finetti nell’aula di un seminario tenuto all’Istituto di Demografia dell’Università di Roma nel 1962.

Lo schema illustrava un ideale flusso di tutti i dati prodotti dalle più svariate fonti amministrative disponibili al tempo, le cui informazioni andavano a finire, come in un imbuto, in un unico organismo certificatore, dopodiché venivano reinseriti nel flusso e restituiti ai vari uffici in forma arricchita, corretta e standardizzata. Lo stesso ente nazionale di statistica ne avrebbe usufruito utilizzando tali dati per i propri scopi di divulgazione statistica e come base per le proprie indagini.

Il risultato era quindi un sistema ricco e sempre aggiornato, una specie di rolling census, un censimento continuo, in grado di fornire una informazione puntuale, immediata e soprattutto validata. Adattato ai giorni nostri nostri  un sistema del genere a mio avviso sarebbe auspicabile (certo in esistono tante alternative, la maggior parte delle quali prevedono sistemi molto più decentralizzati e informali) ma se si riuscisse a costruire qualcosa del genere in modo tale che sia in grado di integrarsi a pieno con il paradigma open data (restituire buona parte delle informazioni in forma elementare e libera), e con le dinamiche dei big data (utilizzare anche fonti non esclusivamente amministrative) i cittadini, le aziende, i giornalisti e soprattutto le pubbliche amministrazioni avrebbero a disposizione una banca informativa pubblica estremamente utile e preziosa.

Andrea Zedda