Cosa significa parlare di Open Data?
Si tratta di dati a cui, secondo Open Definition,
“chiunque può liberamente accedere, [e che chiunque] può usare, modificare e condividere per qualunque scopo”.
Nello specifico, gli Open Data sono importanti per produrre conoscenza e innovazione: sono inoltre tra i dati che rappresentano i mattoni fondamentali su cui costruire l’Intelligenza Artificiale e il machine learning.
Infatti, per costruire algoritmi che funzionino è fondamentale avere a disposizione una grande quantità di dati, dei training set per l’addestramento dei sistemi.
La complessità di questi sistemi consiste proprio nel reperire raccolte di dati per l’apprendimento automatico, che non sempre sono aperti, utilizzabili o idoneamente curati.
Sarebbe un bene che lo fossero e lo dimostrano anche i risultati dei progetti che abbiamo in precedenza raccontato, perché:
“I dati aperti sono un bene comune che fornisce descrizioni condivise della realtà, stimola dibattiti, livella asimmetrie informative, riduce le barriere…” (Federico Morando al Festival della Tecnologia).
Sei passi per Open Data di qualità
Come accennato prima, affinché i sistemi siano funzionali è importante l’entità dei dati, non conta solo la quantità, ma anche la qualità: maggiore sarà la cura dei dati, maggiore l’efficienza del sistema!
I dati, infatti, necessitano di essere raccolti, selezionati, gestiti e aggiornati; a tal proposito Federico Morando al Festival della Tecnologia di Torino ha descritto la “piramide dei bisogni dei dati” che prevede vari livelli, come esplicato dall’immagine.
La piramide dei bisogni dei dati trae ispirazione dalla piramide di Maslow in cui i bisogni degli essere umani sono rappresentati in livelli diversi da raggiungere a partire dalle necessità primarie in basso fino a giungere all’ultimo livello: l’autorealizzazione.
Anche per i dati, la scalata avviene in modo progressivo: non si può ottenere conoscenza affidabile senza prima aver cura che i dati siano idonei.
Si parte dalla collezione dei dati, si prosegue con la loro acquisizione (Gestione dei flussi), con la selezione in base alla qualità (Gestione della qualità), con il loro eventuale arricchimento, per poi essere pronti ad essere utilizzati per attività di machine learning (Apprendimento) e a raggiungere il livello finale della conoscenza.
Questo vale per qualunque dominio di interesse (politico, economico, culturale…), ad esempio abbiamo in precedenza raccontato progetti innovativi che utilizzano dati aperti per:
- fare business intelligence utilizzando i dati dei contratti pubblici della pubblica amministrazione, conferendo ai cittadini la possibilità di monitorare la spesa pubblica, alle aziende la possibilità di fare indagini di mercato o pianificare le proprie strategie di business, al mondo della comunicazione di estrapolare importanti informazioni per la realizzazione di report;
- integrare dati della ricerca accademica e sviluppare strumenti per estrarre automaticamente conoscenza;
- realizzare un catalogo condiviso delle biblioteche di un territorio e collegare i dati con le risorse già disponibili sul web.
A tal proposito, il territorio torinese gioca un ruolo fondamentale per storia, cultura, qualità di risorse, competenze e per questo si parla di promuoverlo a esempio/guida nazionale nel campo dell’IA.
Torino candidata a futuro polo dell’Intelligenza Artificiale italiana
Da don Luca Peyron, direttore della Pastorale Universitaria e coordinatore dell’Apostolato digitale torinese, parte l’idea di proporre Torino come sede di un istituto italiano per l’intelligenza artificiale:
“questa è la terra dei santi sociali, questa è la terra in cui anche il laicato cristiano e non solo cristiano ha sempre avuto attenzione per il bene comune, per l’inclusione e per tutto ciò che è innovazione, sguardo e respiro verso l’oltre“.
L’arcivescovo Cesare Nosiglia ha accolto con favore l’idea, appoggiata anche dalla sindaca Chiara Appendino, dall’Università e dall’Unione industriale di Torino, mentre in questi giorni il Politecnico di Torino annuncia di essere tra le sedi del primo dottorato nazionale in Intelligenza Artificiale.
Torino presenta tutte le caratteristiche per divenire un punto di riferimento nazionale, un hub di competenze digitali e tecnologiche, che ospita già sul territorio aziende qualificate e attive nella produzione di tecnologie in vari settori: a partire dall’automotive, la robotica (basta pensare al progresso dell’automazione industriale), alla forte competenza nell’analisi dei dati e nello sviluppo delle tecnologie vocali.
Anche la Pubblica Amministrazione ha compreso da tempo l’importanza dell’evoluzione tecnologica, tanto che già nel 1984 CSI Piemonte (Consorzio per l’informatica pubblica) ha realizzato un laboratorio di Intelligenza Artificiale con lo scopo di creare sinergia con le imprese per innovare strumenti e processi della pubblica amministrazione.
Negli anni tante imprese, tanti ricercatori italiani hanno lavorato e studiato per produrre prodotti innovativi, oggi il valore aggiunto potrebbe essere realizzare un punto di riferimento nazionale che raccolga e guidi tutte le eccellenze italiane e, concludendo con le parole di Vittorio Di Tommaso (CEO di CELI, language technology) nell’articolo de La voce e il tempo:
“Se davvero l’Italia vuole dotarsi di una strategia nazionale sull’Intelligenza Artificiale, la creazione per un Istituto di coordinamento e sviluppo è una strada da percorrere e Torino, città industriale, città della cultura, città universitaria, ha tutte le carte in regola per essere la casa dell’Intelligenza Artificiale italiana“.