Il convegno, cominciato oggi, è ospitato dall'Archivio Centrale dello Stato a Roma e la keynote session ha visto l'intervento, dopo Phil Archer del W3C, di Diego Camarda, collega in regesta.exe e punto di riferimento dei nostri progetti LOD. E' per me una necessità di trasparenza chiarire questo aspetto ma è stato anche un motivo in più per ascoltare la sua presentazione.
L'intervento verteva sullo stato dell'arte in Italia ed è stata l'occasione per ribadire l'esigenza, per chi pubblica LOD, di predisporre un endpoint interrogabile. Il concetto, più volte ribadito, fornisce il discrimine tra i "dati aperti" e il loro effettivo utilizzo nelle forme auspicate per la costruzione del Web of Data.
L'analisi stessa è stata circoscritta a realtà che soddisfacevano questo primissimo ed essenziale requisito, nella slide che segue Diego ha definito un punto di partenza per l'osservazione dell'evoluzione dei LOD in Italia
Queste sono le realtà che nel 2012 pubblicavano LOD mediante endpoint nel 2012 mentre nella slide successiva Diego ha riassunto la sua osservazione immediatamente pre-convegno, in quanto questi giorni saranno certamente forieri di molte novità.
La prima elementare constatazione riguarda la ristrettezza del dominio di osservazione e in fondo anche la rilevazione di una limitata crescita, indice che ancora siamo in una fase "esplorativa" nei confronti del Web of Data, con un marcato (e limitato) accento istituzionale e accademico.
I LOD in Italia in numeri
Diego ha affrontato prima l'aspetto quantitativo, per conoscere quanto è stato pubblicato dopo aver scoperto da "chi". L'ha fatto alla sua maniera, esponendo dati ricavati grazie a un software sviluppato per l'occasione e che è a disposizione di tutti. I risultati sono i seguenti.
Questi dati, oltra a dare il senso della dimensione del fenomeno, cominciano a dare però anche informazioni sulla natura dello stesso e di come le realtà che pubblicano LOD trasferiscono il proprio approccio sui Linked Open Data, la natura "enciclopedica" di DBpedia o la trasposizione delle definzione degli standard di Cultura Italia.
Le due slide precedenti,con l'elaborazione delle relazioni e il rendering in un grafo, danno evidenza dei diversi approcci.
L'analisi di Diego Camarda si è spostata poi sulle relazioni esistenti tra i vari endpont per capire il grado di potenziale interoperabilità e qui balza all'occhio come la LOD Cloud italiana sia ancora un po' povera, al punto che alcuni nodi del grafo ne appaiono di fatto staccati.
La qualità dei servizi offerti
L'ultima parte del key-note si è poi concentrata sulla qualità degli strumenti offerti e qui invece il panorama è apparentemente più confortante perchè i valori appartengono tutti alla sfera positiva, forse anche grazie all'utilizzo di tool già compliant con tali requisiti.
E' stato ribadito che il Web of Data è un obiettivo e che tale obiettivo ha come punto di riferimento essenzialmente le macchine, ovvero si cerca di trasformare i documenti in dati e concetti machine readable. L'idea, molto semplice (?!), non è in realtà ben chiara ai più, forse per la tendenza a comunicare tutto ciò come un grande passo in avanti per tutti gli utenti del web e questo genera attese di strumenti di facile consultazione
Ok humans alse are important (!)
La sostanza è (ovviamente) questa ma passa, soprattutto, per la potenziale capacità che i computer avranno di elaborare dati delocalizzatii e forniti da provider differenti. Nella reltà gli utenti saranno i beneficiari di tali elaborazioni e non direttamente della disponibilità dei raw data.
La sostanza è (ovviamente) questa ma passa, soprattutto, per la potenziale capacità che i computer avranno di elaborare dati delocalizzatii e forniti da provider differenti. Nella reltà gli utenti saranno i beneficiari di tali elaborazioni e non direttamente della disponibilità dei raw data.
Dopo questa premessa però ci si è preoccupati anche di capire quale è comunque la distanza tra i dati in formato machine readable e un semplice netsurfer, ovvero se i soggetti che pubblicano i dati offrono almeno elementare modo di consultazione. La risposta è in questa slide che fotografa la situazioneesistente.
L'attesa per la conclusione ha lasciato poi un po' di spazio alla suspense nel sapere un eventuale giudizio di merito ma in questo caso i dati di Diego erano "classified"!!!
Diego Camarda lavora per regesta.exe e ha partecipato a tre importantissimi progetti in ambito Linked Open Data in Italia, ovvero le esperienze della Camera dei Deputati, dell'Archivio Centrale dello Stato e di Reload, finalista lo scorso anno al LodLam a Montreal. Con Silvia Mazzina e Alessandro Antonuccio ha dato vita al progetto open source Lodlive, un browser di linked data che viene utilizzato anche all'estero e in Italia da DBpedia.
Chi desidera approfondire trova qui le slide di Diego mentre domani la seconda giornata vedrà un interessante annuncio di un nuovo endpoint focalizzato su un tema di grandissimo interesse ovvero la storia delle persecuzioni antiebraiche tra il 1943 e il 1945. Il progetto realizzato da regesta per il Centro di Documentazione Ebraca Contemporanea di Milano (CDEC) è il primo, a noi conociuto, che applica il paradigma degli open data alla condivisione della conoscenza sul tema della Shoah.
P.S. Phil Archer tweets
Gli Endpoint Italiani
Archivio Centrale dello Stato http://dati.acs.beniculturali.it/sparql
Camera dei Deputati http://dati.camera.it/sparql
CNR http://data.cnr.it/sparql-proxyComune di Firenze http://linkeddata.comune.fi.it:8080/sparql
CulturaItalia http://dati.culturaitalia.it/sparql
DBpedia Italia http://it.dbpedia.org/sparql
Progetto Reload http://lod.xdams.org/sparql
Provincia Carbonia Iglesias http://www.provincia.carboniaiglesias.it/sparql
Ragioneria Generale dello Stato http://dwrgsweb-lb.rgs.mef.gov.it/DWRGSXL/sparql
Senato della Repubblica http://dati.senato.it/sparql
SPCdata http://spcdata.digitpa.gov.it:8899/sparql
No comments:
Post a Comment