Thursday, February 20, 2014

Al convegno del W3C il Keynote di Diego Camarda sui Linked Open Data in Italia

Fine settimana all'insegna dei Linked Open Data: giovedi e venerdi a Roma il W3C, in collaborazione con il CNR, ha organizzato un convegno internazionale LOD2014 con la presenza di Phil Archer e sabato c'è l'International Open Data Day.

Il convegno, cominciato oggi, è ospitato dall'Archivio Centrale dello Stato a Roma e la keynote session ha visto l'intervento, dopo Phil Archer del W3C, di Diego Camarda, collega in regesta.exe e punto di riferimento dei nostri progetti LOD. E' per me una necessità di trasparenza chiarire questo aspetto ma è stato anche un motivo in più per ascoltare la sua presentazione.

L'intervento verteva sullo stato dell'arte in Italia ed è stata l'occasione per ribadire l'esigenza, per chi pubblica LOD, di predisporre un endpoint interrogabile. Il concetto, più volte ribadito, fornisce il discrimine tra i "dati aperti" e il loro effettivo utilizzo nelle forme auspicate per la costruzione del Web of Data.

L'analisi stessa è stata circoscritta a realtà che soddisfacevano questo primissimo ed essenziale requisito, nella slide che segue Diego ha definito un punto di partenza per l'osservazione dell'evoluzione dei LOD in Italia


Queste sono le realtà che nel 2012 pubblicavano LOD mediante endpoint nel 2012 mentre nella slide successiva Diego ha riassunto la sua osservazione immediatamente pre-convegno, in quanto questi giorni saranno certamente forieri di molte novità.

La prima elementare constatazione riguarda la ristrettezza del dominio di osservazione e in fondo anche la rilevazione di una limitata crescita, indice che ancora siamo in una fase "esplorativa" nei confronti del Web of Data, con un marcato (e limitato) accento istituzionale e accademico.

I LOD in Italia in numeri

Diego ha affrontato prima l'aspetto quantitativo, per conoscere quanto è stato pubblicato dopo aver scoperto da "chi". L'ha fatto alla sua maniera, esponendo dati ricavati grazie a un software sviluppato per l'occasione e che è a disposizione di tutti. I risultati sono i seguenti.

Questi dati, oltra a dare il senso della dimensione del fenomeno, cominciano a dare però anche informazioni sulla natura dello stesso e di come le realtà che pubblicano LOD trasferiscono il proprio approccio sui Linked Open Data, la natura "enciclopedica" di DBpedia o la trasposizione delle definzione degli standard di Cultura Italia.



Le due slide precedenti,con l'elaborazione delle relazioni e il rendering in un grafo, danno evidenza dei diversi approcci. 
L'analisi di Diego Camarda si è spostata poi sulle relazioni esistenti tra i vari endpont per capire il grado di potenziale interoperabilità e qui balza all'occhio come la LOD Cloud italiana sia ancora un po' povera, al punto che alcuni nodi del grafo ne appaiono di fatto staccati.

La qualità dei servizi offerti

L'ultima parte del key-note si è poi concentrata sulla qualità degli strumenti offerti e qui invece il panorama è apparentemente più confortante perchè i valori appartengono tutti alla sfera positiva, forse anche grazie all'utilizzo di tool già compliant con tali requisiti.

E' stato ribadito che il Web of Data è un obiettivo e che tale obiettivo ha come punto di riferimento essenzialmente le macchine, ovvero si cerca di trasformare i documenti in dati e concetti machine readable. L'idea, molto semplice (?!), non è in realtà ben chiara ai più, forse per la tendenza a comunicare tutto ciò come un grande passo in avanti per tutti gli utenti del web e questo genera attese di strumenti di facile consultazione

Ok humans alse are important (!)

La sostanza è (ovviamente) questa ma passa, soprattutto, per la potenziale capacità che i computer avranno di elaborare dati delocalizzatii e forniti da provider differenti. Nella reltà gli utenti saranno i beneficiari di tali elaborazioni e non direttamente della disponibilità dei raw data.
Dopo questa premessa però ci si è preoccupati anche di capire quale è comunque la distanza tra i dati in formato machine readable e un semplice netsurfer, ovvero se i soggetti che pubblicano i dati offrono almeno elementare modo di consultazione. La risposta è in questa slide che fotografa la situazioneesistente.

L'attesa per la conclusione ha lasciato poi un po' di spazio alla suspense nel sapere un eventuale giudizio di merito ma in questo caso i dati di Diego erano "classified"!!!

Diego Camarda lavora per regesta.exe e ha partecipato a tre importantissimi progetti in ambito Linked Open Data in Italia, ovvero le esperienze della Camera dei Deputati, dell'Archivio Centrale dello Stato e di Reload, finalista lo scorso anno al LodLam a Montreal. Con Silvia Mazzina e Alessandro Antonuccio ha dato vita al progetto open source Lodlive, un browser di linked data che viene utilizzato anche all'estero e in Italia da DBpedia.

Chi desidera approfondire trova qui le slide di Diego mentre domani la seconda giornata vedrà un interessante annuncio di un nuovo endpoint focalizzato su un tema di grandissimo interesse ovvero la storia delle persecuzioni antiebraiche tra il 1943 e il 1945. Il progetto realizzato da regesta per il Centro di Documentazione Ebraca Contemporanea di Milano (CDEC) è il primo, a noi conociuto, che applica il paradigma degli open data alla condivisione della conoscenza sul tema della Shoah.

P.S. Phil Archer tweets



Gli Endpoint Italiani

Archivio Centrale dello Stato http://dati.acs.beniculturali.it/sparql
Camera dei Deputati      http://dati.camera.it/sparql
CNR     http://data.cnr.it/sparql-proxy
Comune di Firenze       http://linkeddata.comune.fi.it:8080/sparql
CulturaItalia     http://dati.culturaitalia.it/sparql
DBpedia Italia    http://it.dbpedia.org/sparql
Progetto Reload     http://lod.xdams.org/sparql
Provincia Carbonia Iglesias     http://www.provincia.carboniaiglesias.it/sparql
Ragioneria Generale dello Stato      http://dwrgsweb-lb.rgs.mef.gov.it/DWRGSXL/sparql
Senato della Repubblica     http://dati.senato.it/sparql
SPCdata     http://spcdata.digitpa.gov.it:8899/sparql
 



No comments:

Post a Comment