Showing posts with label business intelligence. Show all posts
Showing posts with label business intelligence. Show all posts

Tuesday, December 27, 2011

Il web: siamo sicuri che quelli che ne scrivono abbiano le competenze per descrivere ciò che succede?

In questi giorni sulla Rete ha avuto vasto eco la notizia degli Open Data della Camera dei Deputati di cui abbiamo parlato al precedente post, con interpretazioni diametralmente opposte, per cui mi sembra interessante approfondire ulteriormente la discussione.

I commenti sono positivi nella maggior parte dei casi, anzi molti hanno posto un accento fin troppo enfatico sul concetto di “trasparenza”, mentre su altri siti si è discusso circa la facilità di impiego di tali informazioni, obiettando che il loro uso non sia agevole per tutti, oppure lamentando una presunta mancanza di standard o una certa complessità di linguaggio.

Quel che lascia perplessi è che alcune di queste affermazioni vengono pubblicate su siti il cui nome contiene riferimenti al mondo dell’informatica e quindi dai quali ci si aspetta una profonda competenza e conoscenza di tali tematiche, mentre il contenuto degli stessi tradisce una diversa realtà.

Affermare che non è chiaro a quali standard fare riferimento per interpretare le informazioni e all’interno dello stesso post parlare di OWL (standard per la descrizione delle ontologie, definito nel 2004 dal W3C, massimo organismo per la descrizione di standard sul web) e dell’ontologia appositamente creata e pubblicata indica che non è chiaro a cosa questi strumenti servano.

Affermare che informazioni in XML non siano leggibili è altrettanto incomprensibile ma soprattutto affermare che il semplice cittadino non saprebbe come accedere a queste informazioni è assolutamente fuorviante, proprio per il “semplice cittadino”.

Occorre infatti specificare che gli Open Data non sono informazioni “ulteriori” ma sono le medesime informazioni, pubblicate generalmente su un portale (in questo caso l’Archivio Storico della Camera dei Deputati), e rese disponibili anche in formato “puro”, come semplice dato appunto. Dire quindi che l’utente meno esperto non abbia gli strumenti adatti a consultare le informazioni o è una bugia o figlia di scarsa informazione, accettabile solo da una persona che non si occupi del settore (ma a questo punto perché fare affermazioni su siti che si occupano di informatica??).

Sul portale dell’Archivio Storico, ad esempio, si possono trovare, con ricerche e percorsi tematici, tutte le informazioni relative ai deputati e alle loro iniziative, ovvero tutte le informazioni, in altro modo rese disponibili anche come “Open Data”. La vera differenza riguarda il trattamento automatico di queste informazioni perché questo è il vero obiettivo degli Open Data (come in tutto il resto del mondo!).

OWL è uno standard per definire Ontologie ovvero mappe della conoscenza, in maniera intellegibile e interoperabile, facente parte di un sistema più ampio di regole finalizzate alla “machine readability” e per questa ragione sono intrinsecamente rivolte ad un utente evoluto.
Pretendere che questi strumenti siano comprensibili da tutti è francamente poco credibile, un po’ come chiedere che io sia in grado di capire da solo la mappa del Genoma.

Quello che occorre ripetere è che tutte queste informazioni sono disponibili a tutti con semplici interfacce e che gli Open Data rappresentano solo un passo ulteriore, perché fino ad ora queste informazioni erano inserite in pagine HTML, (più o meno) gradevoli e comprensibili dalle persone, ma non utilizzabili in maniera automatica per ulteriori elaborazioni, se non a costo di faticose e lunghe operazioni manuali.

Gli Open Data introducono la disponibilità del dato in quanto tale.

E’ ovvio che l’utilizzo di questo dato non sia una cosa banale e che occorrono minime competenze informatiche per caricarlo almeno su un foglio excel al fine di poterlo rielaborare. Le stesse App proposte sul sito non sono evidentemente il fine, ovvero il mezzo di consultazione, ma sono delle esemplificazioni della potenzialità informativa costituita dalla disponibilità di questi dati e non possono essere il modo con cui, in maniera esaustiva, questi dati vengono rielaborati.

Sarebbe ciò la negazione del concetto stesso di Open Data, che ha la finalità di rendere un utente autonomo nelle proprie analisi ed elaborazioni. Le App presenti sul sito sono infatti una dimostrazione di quali risultati si possono ottenere avendo a disposizione gli strumenti adatti i dati (e le competenze necessarie…).

Prendiamo il caso dell’Atlante.

Per realizzare la navigazione geografica nei contenuti (luoghi di nascita, distribuzione temporale, cariche ricoperte ecc.) è stata utilizzata una tecnologia Simile Exhibit sviluppata dal Massacchusetts Institute of Technology e che si basa su tre elementi distinti

  • Dati: in formato JSON (JSON -JavaScript Object Notation- è un semplice formato per lo scambio di dati. Per le persone è facile da leggere e scrivere, mentre per le macchine risulta facile da generare e analizzarne la sintassi.. …JSON è un formato di testo completamente indipendente dal linguaggio di programmazione, ma utilizza convenzioni conosciute dai programmatori di… …Questa caratteristica fa di JSON un linguaggio ideale per lo scambio di dati – dal sito JSON.ORG)
  • Logica Applicativa: concentrata in librerie soprattutto javascript
  • Presentazione: pagina HTML e fogli si stile

Cliccando con il tasto destro e chiedendo di visualizzare il sorgente della pagina si possono individuare il/i file di testo che contengono i dati ed effettuare una chiamata HTTP che rende disponibili i dati in chiaro. Senza particolari difficoltà si può capire come i dati siano strutturati in item, collezioni di metadati, ulteriormente relazionati tra di loro. C’è l’entità “persona” (president) con i dati anagrafici, i riferimenti alle foto, e un id dei ruoli ricoperti, c’è l’entità presidenza con i dati di tipologia, inizio e fine e infine la geo-localizzazione dei luoghi di nascita e morte.

Questi dati sono ri-utilizzabili anche per ulteriori elaborazioni, cosi come sono disponibili in rete le API per realizzare tutti i filtri proposti dall’applicazione (e non solo….) e per visualizzare la mappa grazie ad una Google Key (richiedibile liberamente e gratuitamente). Ognuno di noi ha a disposizione, dati e software per ricreare questa applicazione e migliorarla. Per esempio avendo a disposizione le informazioni, nel tempo, relative al numero degli abitanti o al PIL di una città/area si potrebbe provare a capire se esistono relazioni tra queste dimensioni e la rappresentatività politica di una certa area.

Più che nella possibilità di vedere dove è Stella, città natale di Sandro Pertini, il valore di questa applicazione consiste nel rendere evidente cosa si può fare (cosa ciascuno di noi può fare) avendo a disposizione i dati elementari (…e le competenze). Un aspetto particolare poi di questa applicazione la rende ancor più interessante, infatti questi widget sono stati realizzati dal MIT proprio per dimostrare come alcune elaborazioni posso essere de localizzate rispetto ai server dove sono resi disponibili i dati. Ognuno dei filtri applicati sull’Atlante infatti viene gestito localmente, senza che una ulteriore richiesta venga indirizzata al server e questa elaborazione può essere effettuata anche su dati rivenienti da fonti diverse.

Da un certo punto in avanti il risultato quindi può essere in carico solo al computer dell’utente finale, senza query sul server ne utilizzo di banda, in qualche modo realizzando una sorta di cloud computing che accede a server diversi e poi procede con proprie elaborazioni. Questo approccio tecnologico è da considerarsi anche “green” poiché riduce le richieste in rete e il sovra dimensionamento dei server a favore dell’utilizzo di risorse locali, generalmente sotto utilizzate. Sono decine gli esempi di resi disponibili attraverso le librerie Simile e in rete è disponibile una quantità enorme di software libero utilizzabile per elaborazioni di tutti i tipi ma fino ad oggi quella cha era mancata era proprio la disponibilità di dati su cui procedere con analisi innovative.

Oggi qualcosa cambia e anche se siamo ancora agli inizi questo è l’ennesimo “cambio di pelle” di Internet cui probabilmente assisteremo. Tutto dipenderà ovviamente dalla disponibilità alla condivisione di chi è proprietario di contenuti (nella speranza anche che chi commenta queste innovazioni ne comprenda fino in fondo la portata).

Riferimenti:

http://www.tuttoperlei.it/2011/12/26/open-data-arriva-in-parlamento/

http://www.webnews.it/2011/12/22/open-data-anche-alla-camera-dei-deputati/

http://www.chip.it/news/arriva-daticamerait-online-tutto-il-palazzo

http://www.tomshw.it/cont/news/camera-dei-deputati-online-tutto-quel-succede-nel-palazzo/35108/1.html

http://www.chip.it/news/arriva-daticamerait-online-tutto-il-palazzo

http://internet.tuttogratis.it/open-data-anche-per-la-camera-dei-deputati/P124319/

http://www.newnotizie.it/2011/12/open-data-alla-camera-e-alla-regione-piemonte/

http://www.ilsole24ore.com/art/notizie/2011-12-22/camera-deputati-accelera-trasparenza-120952.shtml?uuid=Aa4nGgWE

http://tech.fanpage.it/camera-dei-deputati-e-regione-piemonte-al-via-gli-open-data/

http://saperi.forumpa.it/story/64577/anche-la-camera-dei-deputati-sposa-lopen-data-daticamerait

http://www.vivicool.it/25399/hi-tech/la-camera-dei-deputati-si-apre-al-pubblico-merito-del-progetto-open-data.html

http://punto-informatico.it/3373643/PI/News/italia-parlamento-dati-aperti.aspx

http://www.comunicati-stampa.net/com/cs-154175/Arriva_la_camera_dei_deputati_online

http://geektv.info/news/digital-life/open-data-iparlamento-trasparenza/

http://www.mrwebmaster.it/news/open-data-sbarca-parlamento_6702.html

http://www.innovatoripa.it/category/argomenti/open-data

http://opendataitalia.wordpress.com/2011/12/21/home-camera-dei-deputati-dati-camera/

http://www.eng.it/web/eng/engzine

Monday, August 2, 2010

Gli Spime. Lo Spazio il Tempo e l'Internet delle cose, ovvero quando le mie chiavi salveranno il mondo

Spime, un termine ancora non molto conosciuto ma che forse nei prossimi anni avrà una grande diffusione.

O meglio… Non so in verità se useremo mai correntemente questo termine o sene nasceranno nel frattempo altri simili e di maggior diffusione ma quello che questa parola intende descrivere è sicuramente già un pezzo del nostro futuro ed in fondo anche del nostro presente. Il concetto che identifica infatti sicuramente diventerà familiare, perché siamo inevitabilmente proiettati in un mondo sempre più interconnesso.

Ma andiamo con ordine. Bruce Sterling, scrittore e futurologo ha coniato il termine SPIME come contrazione dei vocaboli inglesi che indicano lo spazio ed il tempo, SPace e tIME. SPIME sta ad indicare oggetti la cui progressione spazio temporale viene completamente tracciata.


Ma cosa indica ciò?


Sterlling parte da alcuni concetti (desiderio di conoscere origine e fine di ciò che compriamo, desiderio di costruire un futuro sostenibile) e da tecnologie esistenti (RFID, tecnologia per l’identificazione automatica degli oggetti) e futuribili (sensori sempre più miniaturizzati per raccogliere dati ambientali) per ipotizzare un futuro in cui saranno disponibili chip che potranno essere inglobati all’interno di prodotti e colloquiare tra loro. La finalità è duplice, da un lato tracciare come e dove un oggetto è stato prodotto, arricchendo quindi l’oggetto di un carico di informazioni che ci permetta scelte responsabili, dall’altro questi miliardi di oggetti mobili, con a bordo chip in grado raccogliere dati (dall’ambiente per esempio CO2, temperatura), si configureranno come terminali mobili che trasformeranno la rete come la intendiamo oggi (virtuale) in una rete pervasiva nella realtà di tutti i giorni, il concetto di Internet of Things, cui appunto arriva, alla fine, Sterling.

Questo scenario mi fornisce già un paio di spunti di interesse, molto personale, con connotati molto positivi: potrò finalmente smettere di girare in tondo per casa alla ricerca di portafoglio e chiavi, il mio motore di ricerca delle cose mi dirà dove li avrò lasciati, cosa che tra l’altro oggi riesco già a fare con il mio cellulare (lo faccio squillare!!).

Torno ad essere serio… il futuro prossimo descritto è veramente prossimo e non sembra così fantasioso come lo fu la celebre previsione di Orwell, già oggi esistono RFID evolutissimi, taluni addirittura commestibili, ed il loro utilizzo è legato solo alla fantasia dei progettisti e alla profittabilità della loro implementazione in ambiti particolari. I cellulari sono SPIME prodromici, in grado di localizzare nel tempo e nello spazio l’oggetto stesso, trasferendo, in qualche modo, questa proprietà al legittimo (o meno) possessore. La Nikon anche dota alcune sue fotocamere di un accessorio per la geolocalizzazione GPS delle foto.

Come al solito occorre aspettare che i prezzi degli RFID scendano un poco per vedere la prima parte di questa rivoluzione, ovvero quando buona parte dei prodotti sarà dotato di questi tag sicuramente un esperto di domotica mi darà uno strumento per cercare le mie chiavi ed i cellulari saranno dotati di una funzione di localizzazione e lettura di tag RFID.

La seconda parte di questa storia si potrà scrivere più in la, quando saranno disponibili a basso costo (e spazio) tecnologie di rilevamento che permetteranno di raccogliere e studiare miliardi di dati puntuali il cui studio con tecnologie di intelligenza artificiale ci permetteranno studiare sistemi predittivi accurate su fenomeni naturali o meno, come la propagazione di gas tossici in caso di incidenti o magari (finalmente) i terremoti.

Friday, March 12, 2010

Anche per la Business Intelligence esistono ottime soluzioni Open Source, un possibile vantaggio per progettare la crescita aziendale (Parte seconda)

Nel post precedente ho cominciato un breve excursus sui prodotti di Business Intelligence open source, abbiamo iniziato dal plug in di Eclipse e proseguiano ora con gli altri prodotti che possono essere considerati i più diffusue e conosciuti.

Pentaho

Pentaho forse è la piattaforma più conosciuta per la Business Intelligence, merito della forte campagna di autopromozione e marketing del produttore e di oggettivi riconoscimenti esterni, come nel 2008, quando è risultata vincitrice nella sua categoria come miglior prodotto Open Source.

Non si tratta di un unico prodotto ma di una serie di soluzioni messe insieme per costruire una suite, tra questi:

1. Mondrian per l'OLAP,
2. JfreeReports per la reportistica,
3. Kettle per l'ETL.

Pentaho copre tutti i principali aspetti della Business Intelligence,proponendo oltre alla Community Edition Open Source una versione Enterprise a pagamento con funzionalità aggiuntive ed ovviamente supporto. Per lo sviluppo di nuovi documenti anche Pentaho fa uso di un designer basato su Eclipse e i documenti una volta sviluppati vengono caricati all'interno della piattaforma web per l'esecuzione.

I server web preferiti sono Tomcat o JBoss, ma teoricamente qualunque altro web server Java, mentre per l’ETL viene proposto Pentaho Data Integration (già conosciuto come Kettle).



I prezzi della versione enterprise non sono esorbitanti, ma in ogni caso, a giudicare dai commenti nei forum degli sviluppatori, la CE sia di ottima qualità e buone potrenzialità tale da renderla già interessante per sviluppi significativi.


JasperSoft

JasperSoft è conosciutissima tra gli sviluppatori grazie al software di reporting Open Source JasperReport. Per ilmercato della Business Intelligence ha rilasciato JasperServer cha fa uso di JasperReport per la reportistica, di Mondrian/JPivot per l’ OLAP e di Talend Open Studio per l'ETL.

JasperServer viene descritto come un sistema semplice ma intuitivo e ben sviluppato, con delle API web service per integrarla in prodofindità. Come gli altri prodotti JasperServer è disponibile nella versione Open Source o a pagamento che è leggermente più potente della versione free. Gira su web server Java come Tomcat ma, data la buona aderenza agli standard, è teoricamente semplice farla girare sugli altri server.


Esistono delle implementazioni particolari come quella disponibil a questo link http://dynamicjasper.sourceforge.net/, nate per semplificare ulteriormente l’utilizzo di questo prodotto.


Spago BI

SpagoBI è la prima piattaforma open source di Business Intelligence italiana. E' stata rilasciata da Engineering ed ha una architettura con i componenti principali programmati in Java:

• SpagoBI Server, la piattaforma che comprende tutti gli strumenti analitici, la gestione della sicurezza e delle regole di visibilità, i tools di amministrazione
• SpagoBI Studio, l'ambiente di sviluppo integrato
• SpagoBI Meta, l'ambiente dei metadati
• SpagoBI SDK, il layer di integrazione per usare SpagoBI da applicazioni esterne
• SpagoBI Applications, che accoglie tutti i modelli analitici verticali sviluppati con SpagoBI

Viene dichiarato che si installa su qualsiasi sistema operativo che supporti java e l'accesso alla piattaforma da parte dei client avviene con un normale browser.


Ha una gestione integrata di utenti (amministratori/sviluppatori/utenti comuni) ed è compatibile Oracle, MySQL e postgresql. Spago BI consente differenti tipi di reporting con diverse modalità di estrazione dei dati. Come altri prodotti del genere permette di scegliere il tipo di report per la presentazione e personalizzarele procedure di elaborazione ed estrazione dei dati.

Il sito ufficiale di SpagiBi è http://www.spagoworld.org/xwiki/bin/view/SpagoWorld/ da dove è possibile scaricare l'applicazione, il manuale e testare la piattaforma .

Tra i case studies citati FIAT Group Automobiles “ha scelto SpagoBI come piattaforma di Business Intelligence open source per realizzare link.e.intelligence, la componente analitica del prodotto .link, sviluppato per supportare i processi di vendita della rete internazionale di distribuzione”.

Tuesday, March 2, 2010

Anche per la Business Intelligence esistono ottime soluzioni Open Source, un possibile vantaggio per progettare la crescita aziendale (Parte prima)

Ho affrontato spesso in passato il tema della business intelligence e della sua applicazione all’interno di contesti aziendali.

Un po’ più che in altri segmenti applicativi nella Business Intelligence esiste un problema di implementazione, legato da un lato agli alti costi dei prodotti commerciali, dall’altro alla particolarità delle risorse umane necessarie, non solo esperti IT e funzionali ma anche statistici e matematici.

Aspetti decisamente critici, sopratutto se messi in relazione alla potenzialità di imprimere una svolta alla crescita di una azienda. Oggi il primo problema, quello del costo delle piattaforme, sembra cominciare a trovare se non la soluzione, almeno una risposta anche per gli utenti con esigenze più elementari.

Il movimento Open Source da tempo propone soluzioni di questo tipo, ma ora sembrano arrivate ad un sufficiente livello di maturità ed anche gli analisti cominciano a dare grosso credito a questa tipologia di prodotti. Da un articolo di Data Manager Online leggiamo che “soluzioni low cost che potrebbero ridurre il TCO di una infrastruttura di IT. Gartner prevede che l’utilizzo dei tool di Business Intelligence Open Source aumenterà di cinque volte entro il 2012”.

Leggiamo ancora che il mercato si è polarizzato su alcuni leader ma che"L’adozione di strumenti di Business Intelligence Open-source è aumentata nel corso degli ultimi pochi anni. Fino al 2004 difficilmente le aziende guardavano al mondo open-source per soddisfare esigenze di BI, soprattutto quelle con un grande numero di utenti; questo sottomercato ora si è ben sviluppato, ed oggi registra tassi di crescita costante (Andreas Bitterer, Research Vice President di Gartner) ... ... in Italia società come Cap Gemini già oggi offrono ai propri clienti soluzioni basate su Pentaho, segno che anche in quest'ambito l'open offre soluzioni 'disruptive'”.

Abbiamo realizzato una personale ricerca per capire cosa offre il mercato e dall’analisi delle risorse via web emerge la presenza di prodotti Open Source sufficientemente referenziati da poter essere presi in considerazione. Di seguito riportiamo quelli che da questa analisi sembrano i più diffusi ed affidabili.

• Pentaho www.pentaho.org http://en.wikipedia.org/wiki/Pentaho
• Jaspersoft www.jaspersoft.com/jaspersoft-business-intelligence-suite
• Eclipse Birt www.eclipse.org/birt/phoenix/
• SpagoBI www.spagoworld.org/xwiki/bin/view/SpagoWorld/

Un indicatore di misura della popolarità può essere dato dal numero di utenti della community di sviluppatori ed in questo senso Pentaho è il più popolare (a giudicare dai numeri trovati in rete) o dai risultati della ricerca di Google (349.000) contro i 149.000 di Jaspersoft, i 118.000 di Eclipse Birt ed i 29.100 di SpagoBI.

Eclipse BIRT

BIRT è è un sistema di reportistica open source sviluppato all’interno dell’iniziativa che fa capo alla Fondazione Eclipse. BIRT è integrabile con applicazioni web al fine di fornire funzionalità come quelle l’impostazione del layout dei report, i grafici, l’accesso ai dati e la gestione di script.
BIRT mette a disposizione diversi formati per i report possono dall’ HTML al PDF.

Ricordiamo che Eclipse era un IDE (Integrated Development Environment) della grande famiglia IBM che lo aveva acquisito da Object Technology International, ma che successivamente è stato collocato all’interno di un grande progetto Open Source supportato da molte aziende di grande caratura internazionale tra le quali appunto la stessa IBM.

Il limite rintracciabile in Eclipse potrebbe essere proprio quello che Eclipse stesso non è uno strumento user-friendly per gli utenti finali e fortemente orientato ad operare sul client. BIRT è costituito da un designer di report ed un componente di runtime che è possibile aggiungere alla propria applicazione.

Con BIRT è possibile creare:

• Elenchi e report complessi– da semplici elenchi a report più complessi di dati. con raggruppamenti di dati correlati, con la possibilità di funzioni algebriche su dati numeric, quali somme ed altre operazioni .
• Grafici a torta, a linea, a barre e molti altri. I grafici BIRT possono essere rappresentati in SVG e supportano gli eventi.
• Matrici – strutture di datiti in due dimensioni:
• Lettere e documenti – format di documentazione con testi e dati.

Una descrizione del funzionamento è inclusa in questo articolo ed aiuta a capirne il funzionamento oppure è possibile osservare la demo.


segue la seconda parte...

Thursday, January 22, 2009

Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte terza): il processo di auto-apprendimento del sistema

Continuando l’approfondimento sulla business intelligence di livello avanzato, ritengo sia interessante esplodere il concetto di auto-apprendimento dei sistemi.

Come si è detto nei post precedenti il valore costituito dalla competenza dell’esperto è complementare a qualunque base dati, per quanto esaustiva, che una azienda abbia potuto predisporre per descrivere la propria conoscenza, sopratutto perché l’aumento delle informazioni disponibili, conseguente alla rivoluzione digitale, ha reso ancor più determinante la capacità interpretativa dei dati dell'esperto al fine di estrarre informazione di sintesi.

Al tempo stesso questa capacità risulta sempre meno utilizzabile in maniera non automatica con il crescere delle informazioni da esaminare ed è difficilmente formalizzabile, ma gli strumenti basati su modelli statistici contribuiscono a rendere “computabile” questo know how implicito. Vediamo per esempio come potrebbe funzionare un modello basato sull’analisi discriminante.

L’analisi discriminante tenta di identificare le variabili che, appunto, “discriminano”, l’appartenenza ad un gruppo piuttosto che un altro e ad individuare le funzioni lineari che meglio descrivono e chiariscono l’appartenenza ad un gruppo. Si tratta in definitiva delle sommatorie di variabili indipendenti “pesate”, con un processo che è finalizzato all’individuazione di set di pesi che, meglio di altri, collochino un evento descritto dalle variabile in un gruppo piuttosto che un altro. In definitiva si ricerca cosa differenzia in sostanza i due gruppi.

L’analisi discriminante è basata sull’esplorazione di un set di casi, in cui gli eventi vengono suddivisi in gruppi logici ed il percorso di apprendimento consiste proprio nell’identificazione dei pesi delle possibili funzioni lineari che descrivono gli eventi, con la individuazione di quelle che minimizzano quanto più possibile l’area grigia cui possono appartenere eventi dei gruppi distinti.

La definizione dei casi campione è il modo in cui l’esperto comunica al sistema la propria conoscenza e ne determina il percorso di apprendimento. Alla fine di questo il sistema è in grado di analizzare nuovi eventi ed assegnare loro uno scoring, la probabilità che l’evento appartenga ad un insieme o ad un altro.

Ma rifacciamo un passo indietro, ovvero a come avviene il trasferimento di competenza. Il primo step è costituito dalla “segmentazione” ovvero lo studio delle informazioni presenti per individuare quali sono le categorie di informazioni in grado di rappresentare gli eventi e se esistono dati storici adeguati ad attivare il processo di auto apprendimento.

La “selezione” delle variabili consiste nella ricognizione delle stesse per identificare quelle rilevanti ai fini dello studio in oggetto.

Occorre osservare che diventa determinante la corretta identificazione delle variabili e l’eventuale correlazione tra esse perché si possa realmente valutare il peso discriminate delle singola variabile

Il processo di apprendimento termina con la validazione dei modelli con l’applicazione degli stessi ad un numero significativo di casi campione per determinare, sempre con tecniche statistiche, la rilevanza dell’errore atteso.

In realtà, potenzialmente, il processo prosegue durante l’esercizio stesso del sistema perché possono essere definiti degli ulteriori punti di sincronizzazione del sistema, nei quali i risultati stessi dell’attività di analisi possono essere forniti al sistema come feedback, per ampliare/aggiornare i casi campione e rifinire ulteriormente i modelli, variando eventualmente i pesi, in relazione alle modifiche introdotte dal tempo sul corso degli eventi.

Questa caratteristica di continua ricorsività costituisce evidentemente un ulteriore plus di questo approccio che non è più statico o modificato su precisa e formale analisi dell’uomo che interviene a cambiare le impostazioni iniziali, ma è lo strumento stesso che offre la base informativa ed i mezzi per avviare un processo di revisione.

I casi cui tale metodo può essere utilizzato sono moltissimi nella abituale operatività aziendale, a fini “repressivi” e di indagine, ovvero determinare che un certo evento sia fraudolento o nocivo (tentativo di frode o di intrusione, possibilità che un cliente non restituisca un prestito, possibilità che stia per verificarsi un crash di un servizio critico) di “allerta” commerciale (comportamento che indica la propensione di un cliente ad abbandonare un il suo fornitore, appartenenza di una persona ad un target specifico).

Thursday, January 15, 2009

Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte seconda): il trasferimento di competenza tra uomo e macchina

Abbiamo osservato nel precedente post una differenza tra BI di base ed avanzata e proviamo ad analizzare un po’ più in dettaglio in cosa consiste questa secondo più evoluto livello della business intelligence.

Appartengono, per esempio, a questa fascia di applicazioni quei sistemi basati sulla capacità del sistema di applicare modelli statistici all’analisi degli eventi presenti e passati per ottenere indicazioni sul comportamento futuro.


Analisi del passato per predirre il futuro

Tutto ciò avviene dopo che il sistema ha subito un periodo di “addestramento”, durante il quale degli esperti cercano di trasferire al sistema stesso la propria competenza. Questo trasferimento di conoscenza avviene indicando al sistema quali risultati ha ottenuto in passato l’osservazione degli esperti ed il sistema cerca di dedurre quali sono le reali correlazioni tra le variabili che rappresentano un evento, individuando pattern che possano permettere di riconoscere il riprodursi di un evento con un certo anticipo. Si definiscono degli scenari predittivi entro i quali si riconosce che l’evento che si è realizzato o si sta realizzando appartiene, un una certa probabilità, ad una specifica categoria di avvenimenti.


Trasferimento di competenza dall'uomo alla macchina

La differenza con sistemi tradizionali è che l’esperto non descrive in una analisi formalizzata la propria competenza, successivamente trasferita ad un team di progetto che elabora del software sulla base di queste specifiche. L’esperto opera un trasferimento di conoscenza direttamente nei confronti dell’applicazione. Per rendere più semplice il discorso ricorrerò ad una mia esperienza progettuale personale.

Nel progetto in questione ci siamo trovati nella situazione di dover discriminare se nell’occorrere di una serie di eventi si riuscisse ad individuare quali di questi rivelassero un comportamento fraudolento. In casi come questo le reti neurali possono rivelarsi molto utili nell’individuazione di tali casi, ma hanno il difetto di non riuscire a certificare ex-post il processo attraverso il quale hanno raggiunto le proprie conclusioni.


Scelta della metodologia adeguata

Questo aspetto risulta invece determinante nel momento in cui tale attività necessita di verifiche da audit interni o enti di sorveglianza terzi. Si è optato quindi, in quel caso, per un diverso modello statistico. Semplificando in maniera estrema il processo, vengono individuati due insiemi campione di eventi, quelli che fanno riferimento ad operazioni corrette e quelli che fanno riferimento ad operazioni “sospette”. Questo è il lavoro dell’esperto (applicativo!) ed è il modo in cui l’esperto stessa comunica al sistema la sua competenza. Ciò avviene senza esplicitare quali sono i parametri per i quali tale operazione viene ritenuta sospetta (un valore supera una certa soglia o altri valori si presentano in una certa serie o con caratteristiche specifiche).

Sarà il sistema a desumere nella fase di apprendimento quali sono le variabili determinanti e quali sono le relazioni che le legano.


Addestramento ricorsivo dei sistemi

I principali vantaggi che derivano da tale approccio è che la ponderazione del peso di una singola variabile viene fatta in base a precisi calcoli su dati reali e che il sistema non si presenta statico ma intrinsecamente dinamico perché, quando si passa alla fase operativa, i risultati dell’attività del sistema stesso costituiscono un feedback per il modello di calcolo che può continuamente essere raffinato e migliorato.

Il sistema quindi auto apprende dalla propria attività, acquisendo ulteriore competenza da chi lo utilizza e ne giudica i risultati, mentre nel caso di un sistema tradizionale, sviluppato su un pur complesso algoritmo basato su soglie è evidente che l’evoluzione della procedura informatica dipende da step di analisi da parte di esperti e successive attività di tuning da parte di un team di sviluppo.

Nello schema che segue un’analisi del flusso logico della procedura che esplica chiaramente la sua natura ricorsiva.



continua..

Tuesday, January 13, 2009

Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte prima): contesto e riferimenti

Mi sono occupato nei precedenti post della business intelligence e dei risultati dei due osservatori di due delle principali istituzioni scientifiche milanesi l' Università Bocconi ed il Politecnico.

L’attenzione che dedico al settore specifico deriva anche dalla mia attività professionale che ha come focus, in questo momento, proprio la business intelligence. Si parla molto del tema ed il settore di mercato appare tra quelli maggiormente in crescita, sia nel passato che nel futuro prossimo, insieme ad enterprise content management, collaboration, unified communications e pochi altri, ma la percezione che si ricava dall’osservazione sullo stato dell’arte è che ci sia ancora molta strada da percorrere.


Primo livello di approccio alla BI

Le conclusioni dei due laboratori citati evidenziano che il macro tema può essere genericamente diviso in due sottocategorie, la BI elementare e quella avanzata, dove nella prima possono essere compresi tutti gli strumenti di organizzazione e navigazione dei dati ed appare come il livello di utilizzo al momento maggiormente diffuso.

Certamente questo primo passo permette di desumere informazioni sintetiche dalla mole di dati presenti in una azienda e questo fa si che i principali fruitori dei servizi di BI e dei suoi risultati siano soprattutto i livelli direttivi e di management.

Al tempo stesso però appare una grossa limitazione, soprattutto in considerazione del lavoro necessario a raggiungere questi risultati e dal gap, proporzionalmente minimo, per raggiungere risultati di ben altro spessore.


Principale barriera: quantità e qualità dei dati

Come infatti ci evidenzia la School of Management del Politecnico la maggiore difficoltà percepita dalle aziende è quella di avere a disposizione dati in maniera corretta e completa. Questa percezione è lo specchio della difficoltà reale costituita dall’organizzare una raccolta sistematica delle informazioni dai vari processi operativi, soprattutto in realtà con strutture organizzative complesse, come sono appunto le banche di cui principalmente mi occupo. Decine di procedure, gestite da divisioni e aziende diverse, i cui dati devono essere raccolti e resi omogenei.

Un grande lavoro di organizzazione, di sviluppo ma anche di verifica dei risultati ed infine di manutenzione.

Stupisce perché a questo punto, quando il lavoro più impegnativo, in termini di impegno di risorse umane ed economiche, è stato realizzato, non si sfrutti appieno la capacità informativa di questo mapping della conoscenza aziendale.


Business Intelligence evoluta

Quella che abbiamo definito BI avanzata, ovvero quella fa uso di strumenti statistico-probabilistici e “sistemi esperti”, non ha ancora fatto il suo ingresso estensivo nelle aziende, a parte alcuni settori first mover, che ne fanno uso al momento, in particolare si tratta di settori che si occupano di marketing o rischio.

Il limite, in questo momento, è a mio avviso, costituito dalle competenze, che sono diverse da quelle abitualmente disponibili nel mondo dell’IT e che quindi, essendo poco presenti in azienda, non riescono a dare un impulso decisivo all’utilizzo di questi metodi. C’è anche da dire che la rivoluzione digitale è tutto sommato recente e ancora più recente è la consapevolezza del patrimonio costituito dall’informazione digitale.


Disponibilità di adeguate figure professionali

Il costo quindi per fare questo ulteriore scatto in avanti nel dominio della conoscenza non è più un costo misurabile con variabili quantitative, ma un costo determinato da esigenze qualitative. Se la BI di primo livello si basa essenzialmente su sistemi di organizzazione e rappresentazione delle informazioni, dai classici strumenti di reportistica a quelli più evoluti di navigazione nell’informazione, la BI di secondo livello utilizza motori di calcolo, modelli matematici e sistemi ad auto-apprendimento.

Nel primo caso la funzione di intelligence è soprattutto demandata alla capacità ed alla competenza di chi analizza i dati, supportato da meccanismi di “lettura” delle informazioni, mentre nel secondo livello lo strumento informatico si pone come un mezzo in grado di fornire delle sue autonome interpretazioni delle informazioni, basate sulla capacità di dotare il sistema delle medesima competenza di un esperto.

Si usano in questo caso sistemi di apprendimento basati su modelli di previsione che utilizzano diversi metodi statistici, dalle celebri reti neurali, all’analisi discriminante, alla support vector machine, etc.

Ma in cosa si traduce tutto ciò?

continua nel post successivo: trasferimento di competenza tra uomo e macchina


Thursday, December 11, 2008

L’ Osservatorio sullo stato della Business Intelligence in Italia della School of Management del Politecnico di Milano: il primo report (parte III)

Abbiamo osservato come la Business Intelligence venga spesso usata per processi decisionali strategici e molto meno per processi operativi.

Cito a questo proposito un esempio che ho vissuto da vicino ed è quello della normativa sulla Market Abuse Detection sui mercati mobiliari, ovvero quella legge che imponeva agli intermediari di valutare la correttezza delle operazioni dei propri clienti.

Molti operatori del settore sono partiti a sviluppare soluzioni ad hoc per il problema, mentre noi ci siamo soffermati ad analizzare le tematiche sul tavolo ed abbiamo deciso di utilizzare modelli matematici e prodotti esistenti. Il risultato è stato di duplice soddisfazione, da un lato per la tempestività di realizzazione (in una sola settimana avevamo un oggetto funzionante e specializzato sui primi due casi analizzati), d’altro per avere ottenuto di fatto un prodotto già di nuova generazione rispetto agli altri, in quanto non ragionava solo su soglie fisse o programmabili, ma traeva dall’utilizzo stesso dello strumento, il feedback necessario ad autoapprendere e raffinarsi continuamente.


Processi Operativi e Decisioni Strategiche

Questo è solo un esempio di un possibile impiego operativo, ma possono essere citati diversi esempi:dall’individuazione del ri-presentarsi di pattern indicanti la possibilità di crash nell’erogazione di un servizio o alla valutazione dei migliori livelli attesi in caso di SLA. I metodi statistici vengono spesso utilizzati nella valutazione dei rischi (in genere nei crediti e nella contrattazione mobiliare), ma, come si è detto, non si osserva un uso estensivo della BI nell'operatività quotidiana.


Fonte: Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008*

Fonte: Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008*

La motivazione probabilmente risiede nella necessità di acquisire anche competenze matematico-statistiche e ciò non è una consuetudine nelle strutture IT, se non in particolari settori. Inoltre il consueto approccio è quello di risolvere problemi con metodi deterministice ed algoritmi basati solo su condizioni oggettive. Ciò fa mancare un po’ l’attitudine a considerare utilizzabili queste metodologie.


Criteri di valutazione

Tra le caratteristiche ritenute qualificanti per un prodotto/suite di BI c’è, sopra tutti, l’integrabilità con altri applicativi, ma anche flessibilità e facilità d’uso, quasi a testimoniare che lo strumento viene visto soprattutto come finalizzato all’uso da parte dell’utente finale. Per il medesimo motivo viene visto come fattore critico l’assistenza, soprattutto da parte delle PMI.

Fonte: Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008*

Il costo è ritenuto rilevante per i piccoli, non determinate per le grandi strutture.


Problemi connessi all'introduzione della BI

Un aspetto che sembra accomunare aziende di ogni dimensione è invece la valutazione dei principali ostacoli all’introduzione della BI. Come ci si poteva aspettare il principale freno è costituito dalla necessità di dovere lavorare molto per ottenere la migliore quantità e qualità dei dati. Stupisce un pochino la buona percentuale di intervistati che addebitano allo scarso successo della BI lo scarso commitment in struttura grandi, mentre non stupisce vedere citate la resistenza al cambiamento e la difficoltà di modificare i processi in funzione delle competenze acquisite.

Fonte: Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008*

Ancora una volta si evidenzia la differente visione tra PMI e grandi aziende sulla valutazione degli impatti, predominanti sui processi per le prime, sulle risorse per le seconde, evidentemente legato alla capacità, da parte di aziende con catene di comando più corte, di percepire meglio l’effetto dell’adozione di sistemi specifici, mentre tale impatto risulta evidentemente stemperato in organizzazioni con strutture complesse.


Politecnico e Bocconi

In questi giorni mi è accaduto di leggere anche un articolo su una analoga iniziativa della Bocconi, neoi prossimi giorni proverò ad analizzarne le differenze.



* Fonte: C. Orsenigo & C. Vercellis,
Business Intelligence. Creare
vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008

Friday, December 5, 2008

L’ Osservatorio sullo stato della Business Intelligence in Italia della School of Management del Politecnico di Milano: il primo report (parte II)

Continuiamo dal post precedente l’analisi dei risultati dell’Osservatorio sullo Stato della Business Intelligence in Italia della School of Management del Politecnico di Milano.

Sulla base della distinzione descritta precedentemente tra Business Intelligence di base ed BI evoluta la situazione che sembra emergere dall’analisi è che le aziende sono raggruppabili in due insiemi diversi, aziende che la utilizzano in settori specifici, probabilmente stimolati dalla presenza di specifiche figura professionali che possono essere definite early adopters, ovvero fanno da apripista all’utilizzo in azienda di metodologie di BI (approccio verticale) ed aziende che ne fanno un uso pervasivo a più livelli (approccio sistemico)


Approccio Verticale vs. Approccio Sistemico

Nel secondo insieme sono incluse realtà in cui l’adozione è sistematica, molto probabilmente decisa a livello di management. Nel grafico seguente è rappresentato il posizionamento delle aziende rispetto all'utilizzo della BI, relativamente ai 73 case studies analizzati dall'Osservatorio. Le misure con cui vengono descitti i 4 macroinsiemi si riferiscono all'ulitizzo della BI per funzioni aziendali e all'intensità di utilizzo di tali tecnologie


* Fonte: C. Orsenigo & C. Vercellis, Business Intelligence. Creare vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008

Ma anche all'interno della seconda tipologia di aziende, ovvero quelle che strutturalmente hanno introdotto la BI nel proprio processo operativo sono stati osservati comportamenti diversi e percorsi diversificati a seconda delle aziende stesse:
  • approccio sistemico, con precise scelte architetturali e metodologiche valide a livello enterprise
  • approccio pragmantico, rappresentabile con una funzione a “scalini”, in cui il consolidamento di una sperimentazione prelude all’inizio di una successiva
  • approccio “creativo”, in cui viene demandata alla singola funzione organizzativa sia la scelta applicativa che quella tecnica, per ottenere il maggior livello dei risultati, anche a scapito dell’univocità architetturale.
Questa differenziazione introduce, a mio avviso, un tema molto interessante sulle strategie ottimali che le diverse divisioni IT perseguono nella propria attività. Una riflessione su cui torneremo con maggior dettaglio.


Motivazioni all'uso della BI

La principale motivazione che spinge le aziende ad utilizzare strumenti di BI risiede, come emerge dalla ricerca, nella capacità che si acquisisce nel prendere decisioni con miglior cognizione di causa e la capacità di definire migliori strategie di business.

E’ interessante notare che le attese di grandi aziende (68% e 59%) e PMI (55% e 65%) sono sostanzialmente invertite rispetto a questi due aspetti, probabilmente a causa dell’approccio più strutturato delle grandi aziende e della maggiore tensione al mercato di quelle minori, mentre lo scoring dei possibili vantaggi che derivano dall'utilizzo di tali metodologie risulta pressocché uguale per i principali due punti emersi dalla ricerca, come riportato nel grafico seguente e relativo appunto allo scoring dei vantaggi legati all'introduzione della BI.


* Fonte: C. Orsenigo & C. Vercellis, Business Intelligence. Creare vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008


Gli influenzatori del processo decisionale

Gli influenzatori del processo decisionale sono ovviamente per le grandi aziende in primo luogo:
  • responsabili IT (54%)
  • direzione (42%)
  • finanza (31%)
  • marketing (28%)
Di contro le PMI mostrano percentuali diverse:
  • IT (29%)
  • direzione (45%)
  • finanza (12%)
  • marketing (26%)
Questo sembra potersi spiegare con la forte propensione del management delle PMI di assolvere anche a funzioni tipiche dell’IT e del Finance. Ciò finisce con rendere meno strutturate queste due funzioni e quindi meno in grado di essere driver di innovazione.

Questo quadro statistico sembra testimoniare anche, in generale, la scarsa propensione ad utilizzare metodologie di questo tipo in processi operativi veri e propri, infatti la BI viene ancora vista come un supporto di analisi delle informazioni a fini decisionali e non a migliorare processi ed organizzazione. La BI viene vista come un fattore strategico, ma risulta essere un po' inprigionata proprio da questa visione, che di fatto non permette di sfruttarne in pieno tutte le potenzialità.

Su questo tema nel prossimo post vorrei dedicare un po' di tempo ad analizzare un episodio professionale che ho vissuto in prima persona.

Wednesday, November 26, 2008

L’ Osservatorio sullo stato della Business Intelligence in Italia della School of Management del Politecnico di Milano: il primo report

Oggi ho seguito la presentazione di un’interessante Osservatorio sullo stato della Business Intelligence in Italia. Se ne è fatto promotore la School of Management del Politecnico di Milano ed il prof Carlo Vercellis si è premurato di fornire nell’incontro di oggi una prima sintesi del lavoro fin qui svolto La ricerca è stata condotta con l’analisi di una settantina di case studies e 250 interviste in settori e per figure trasversali.


La crescita del mercato della BI

Ricordiamo che da qualche anno, il segmento della business intelligence rappresenta uno di quelli del comparto IT a maggior tasso di crescita, molto maggiore della media. In Italia infatti si passa da un più 3,5%dello scorso anno al 5,1% del corrente, dove invece la crescita complessiva del mercato IT si attesta sul 2% annuo (dati rapporto Assintel 2008).

Anche le intenzioni di investimento delle aziende top italiane vedono la BI al terzo posto dopo Erp e sistemi operativi. (dati rapporto Assintel 2008) e scende solo come priorità nelle piccole e medie aziende. Nelle banche addirittura la BI riscuote il più alto livello di segnalazioni nelle intenzioni di investimento, raggiungendo una percentuale vicina all’80%, giustificata evidentemente dalla natura stessa delle transazioni e dei servizi bancari, che, in quanto generalmente “immateriali”, costituiscono l’habitat naturale per dei “knowledge discover”


La crisi e le aspettative

La situazione internazionale rappresenta un ulteriore stimolo all’uso di tali tecnologie e metodologie, perché è proprio una situazione di turbolenza e crisi che richiede da un lato una più accurata politica di valorizzazione degli investimenti e dall’altra rende improcrastinabile l’affinamento di tecniche di acquisizione e difesa del mercato e del proprio business.

I manager sanno che la pur necessaria riduzione di costi, non può procedere in maniera brutale e da sola si configurerebbe come un pericoloso boomerang.Occorre far leva quindi su quell’asset preziosissimo costituito dal patrimonio di conoscenza implicita e spesso non sfruttata, costituita dall’enorme mole di informazioni che quotidianamente una impresa immagazzina.


L'Osservatorio del Politecnico

Il termine Business Intelligence appare in realtà un po’ troppo “sfruttato” includendo per esempio, quale BI elementare, anche query e reporting, mentre credo sarebbe più corretto riservarlo ad ambiti più evoluti e specializzati. In ogni caso ricordiamo che lo studio dell’ Osservatorio parte suddividendo a Business Intelligence in due macrofamiglie: Business Performance Management e Analytics


* Fonte: C. Orsenigo & C. Vercellis, Business Intelligence. Creare vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008

É chiaro che, nel caso delle applicazioni descritte sulla sinistra, la funzione di intelligence è ancora fondamentalmente demandata all’intervento umano ed alla capacità di comprensione e navigazione di chi li utilizza.

A mio modesto avviso la reale attività di business intelligence attraverso il sussidio tecnologico comincia nel momento in cui l’implementazione di strumenti “Analytics” abilita alla comprensione di informazioni non reperibili, in tempi accettabili, con il solo supporto umano ed in particolare quando vengono realizzate applicazioni in grado di mutuare conoscenza e capacità di analisi proprio dall’expertises dell’uomo, attraverso algoritmi di autoapprendimento.

continua...

Thursday, October 30, 2008

Il paradosso della Compliance e le coincidenze: entrano in vigore le leggi sul controllo di rischi, di crediti e del mercato e il sistema esplode (II)

Torniamo ancora sul problema della Compliance affrontato nel post precedente. Una straordinaria coincidenza ha dunque voluto che il sistema bancario internazionale fosse travolto da una terribile tempesta, proprio nel momento in cui entravano in vigore norme di controllo più stringenti, la crisi è globale le banche italiane sono ahimè in compagnia anche di gruppi europei di più grandi dimensioni o di banche americane come le famose “Fannie e Freddie”.

Non sembra esserci relazione tra i due eventi, abbiamo parlato per questo di coincidenza, ma se poco si poteva forse ormai fare lascia perplessi invece la scarsa tensione sui problemi di compliance per tutto il sistema italiano, istituti di vigilanza compresi. Tornando poi alla tipicità italiana, la famosa estate dei “furbetti” e dei loro prestiti facili (ai soliti noti però) avrebbe dovuto consigliare un’applicazione più stretta della normativa.

I soldi investiti sono stati in realtà tantissimi, bisogna darne atto alle banche, ma sempre in visti sotto l’ottica del “costo”. Sono cresciuti le divisioni Audit e Compliance ed i loro budget, senza però che tali uffici fossero poi organici, in genere, alla costruzione del valore. Un ufficio che controlla quindi, per questo anche un pochino “antipatico”, il cui obiettivo è sostanzialmente l’adempimento degli obblighi formali.

Ma sotto questo punto di vista anche i controllori, Bankitalia in primis, non hanno stressato il sistema più di tanto, quella che doveva essere una rivoluzione comportamentale per banche ed aziende, si è risolta in alcuni adeguamenti tecnologici ed organizzativi.

Ci aspettiamo, o meglio ci auguriamo, che, passata con il minor numero di danni possibili questa tempesta, si torni ad esaminare quanto fatto e si decida di rivedere il processo per renderlo più omogeneo alle intenzioni iniziali, con lo scopo di costruire da un lato un sistema di garanzie per eventi traumatici come quello che stiamo vivendo, dall’altro di provvedere ad una più previdente gestione operativa.

Se dal punto di vista dei crediti la distanza da percorrere sembra minore, vista una certa parsimonia del sistema bancaria italiano a differenza di quello americano, il mondo della finanza è, quasi endemicamente, portato alla creazione di modi “creativi” di costruire valore, di per se quindi meno controllabili e rigorosi.

E’ sempre un errore chiudere la stalla dopo che i buoi sono scappati, ma, utilizzando un secondo proverbio, se errare è umano, perseverare è diabolico. Una nuova era del rigore si rende necessaria per tutelare i cittadini, da un lato quelli che affidano alle banche i loro risparmi, dall’altro quelli che hanno investito direttamente nella proprietà delle stesse banche.

La crisi odierna è chiaramente una crisi che riguarda non la struttura operativa delle banche, tant’è che in Italia uno dei gruppi più colpiti, Unicredit, chiuderà probabilmente con 5,2 miliardi di euro di utile, quanto una situazione determinata dalla non corretta valutazione dei rischi e/o dalla convinzione che un sistema fosse in se perfetto, in grado di generare (chissà come!!) agenti endogeni in grado di tenerlo sempre in equilibrio e che quindi alcuni nodi non sarebbero mai venuti al pettine.

Thursday, October 23, 2008

Le possibilità di marketing locale offerte dalla "Rete Globale" e dal web 2.0: un caso pratico di applicazione, una palestra (parte sesta).

Precedenti paragrafi:

> premessa: scenario e strategia
> strumenti: website e social network
> strumenti: contenuti e mezzi tradizionali

> i risultati: incremento di accessi
> i risultati: richieste di informazione ed iscrizioni

Eccoci finalmente al termine di questo lungo racconto con la valutazione del dato più interesante per noi ovvero

Percentuale di conversione e numero di iscrizioni

Il risultato è stato molto positivo, anche se occorre onestamente riconoscere che non è stato travolgente come i dati riguardanti le richieste di informazioni:

+ 5% del numero di iscritti nel mese rispetto all’anno precedente

L’aumento diventa più significativo se si considera il periodo di associazione che porta l’incremento a +7% e ancora di più se il periodo di osservazione parte da luglio (+16% rispetto all'analogo periodo delle scorso anno).

Tornando poi al mese di settembre l’aumento è dell’ 8% relativamente ai soli utenti NEW.

L’incremento di iscrizioni, seppur molto buono, ha un ordine di grandezza diverso rispetto ai Tour ma questo era in parte messo in conto per diverse ragioni
  • Periodo economico negativo
  • L’aumento della comunicazione ha portato anche molte persone solo genericamente interessate
  • Un politica adottata quest’anno di prove libere ha spostato ad ottobre qualche potenziale iscrizione
Va inoltre considerato che anche se molti oggi ci hanno solo conosciuto, questo potrà portare ulteriori effetti positivi nei mesi e negli anni a venire.


Ulteriori considerazioni

La prima è che il risultato dello scorso anno era largamente influenzato da un evento irripetibile che ha portato in palestra, contemporaneamente, un bel numero di nuovi associati. Un evento questo esterno ed indipendente dalla nostre possibilità di intervento, quindi assolutamente straordinario, per cui se i suoi effetti si estrapolassero dai risultati dello scorso anno, il miglioramento ottenuto schizzerebbe verso il 50% di New in più.

Spero di non forzare l'analisi ma in realtà trovo riscontro nel fatto che l’aumento (reale) medio rispetto ai due anni precedenti è del 40% circa.

La seconda ha un carattere più di interpretazione sociale. L’età media dei nuovi iscritti si è notevolmente abbassata rispetto all’anno precedente, evidentemente in relazione alla tipologia di canale preferenziale, il web, utilizzato per farci conoscere. Questo è un dato che ci aiuterà a riflettere nelle future programmazioni


Conclusioni

L’attività ha dato i frutti molto positivi anche se, alcune condizioni non ci hanno permesso oggettivamente di raccogliere il massimo: dalla non sistematicità della mia azione, che si è tradotta nel non avere messo in campo tutte le azioni possibili e con la costanza necessaria. Inoltre Il periodo internazionale non felice ha contribuito negativamente, ma in questo caso forse va ribaltato il punto di vista, ovvero c’è da chiedersi: cosa sarebbe successo se non avessimo fatto tutto ciò?

Ci troveremmo probabilmente di fronte ad un risultato largamente negativo anziché ad uno positivo.

In ogni caso, sia che l'aumento sia quello oggettivamente registrato che quello ipotizzato sulla base delle estrapolazioni descritte, c'è ancora un buon margine di miglioramento soprattutto nella percentuale di conversione dei contatti in iscritti, attività questa che ha un po' abbassato i potenziali risultati dell'aumento di Tour effettuati. E' probabile che il web ha portato in palestra una nuova tipologia di utenti con i quali occorre studiare la migliore modalità di approccio.

Due variabili però andrebbero valutate, alla fine, per dare un peso reale a tutto ciò, una quantitativa, ovvero il tempo da me dedicato a questa esperienza, ed una qualitativa, cioè il fatto che la mia attività professionale mi ha dato come un background ed una conoscenza adeguata a portarla avanti. Difficile valutarle per capire il rapporto costi/ricavi, ma sono convinto che se questo rientrasse nell’attività primaria di una persona si otterrebbero risultati molto migliori, così come, continuando a lavorare in questa maniera, ci sarà la possibilità di ulteriori miglioramenti e il consolidamento dei precedenti.

Ritengo infine che una persona più giovane, quindi naturalmente più in sintonia con gli schemi di comunicazione tipici dell’utenza target del web, possa in questo caso realizzare meglio di me l’attività quotidiana di relazione e promozione.

Tuesday, October 21, 2008

Le possibilità di marketing locale offerte dalla "Rete Globale" e dal web 2.0: un caso pratico di applicazione, una palestra (parte quinta).

“Scusate il ritardo” diceva Troisi ed anche io, complice un week end a Barcellona, mi sono preso una piccola pausa prima degli ultimi post di questa serie dedicata alle palestre. Veniamo quindi ai dati più direttamente connessi alla nostra attività e che erano l’obiettivo del nostro lavoro in quest’anno.

altri paragrafi:

> premessa: scenario e strategia
> strumenti: website e social network
> strumenti: contenuti e mezzi tradizionali

> i risultati: incremento di accessi
> i risultati: richieste di informazione
> i risultati: iscrizioni


Come ho detto la nostra è una piccola associazione, che vive grazie al numero degli associati, e che si trova a subire la concorrenza delle multinazionali del Fitness, quindi, nella cronica carenza di budget, ci siamo aggrappati alle possibilità offerte dal Web e dal Social Networking.

I risultati mi sembrano molto interessanti, in considerazione anche che non c’è ne un SEO ne un SEM e neppure un grafico (e si vede... :) ) nel nostro team. Ma in realtà quella che è stata una necessità è diventata anche una scelta, trasformando un problema in una opportunità; avevamo deciso infatti di non dare l’impressione di essere una palestra “patinata”, ma piuttosto di essere un ruspante network di amici e credo che abbia funzionato per costruire quell’approccio “friendly” che avevamo scelto. Anche la qualità dei video non è stata volutamente ricercata, in quanto abbiamo immaginato che dovevano essere come quelli postati dai tanti ragazzi su YouTube, piuttosto che come molti video promozionali che si trovano in giro.


Richieste di informazioni, i vecchi ed i nuovi

Abbiamo diviso i contatti tra quelli di vecchi associati e nuovi, perché da un lato occorre capire se si ha la capacità di attrarre nuovi associati (NEW, perché questo permette la crescita), dall’altro il rientro di vecchi associati testimonia la costanza della qualità del servizio nel tempo e permette di consolidare i risultati negli anni.

Complessivamente le richieste di informazioni (TOUR) sono aumentate del 66%, con punte nella settimana centrale di settembre di +156%, fortemente sbilanciate sui NEW, come vedremo di seguito.

Una (non sistematica) richiesta di come la persona sia venuta a conoscenza della palestra, ha dato concretezza alla nostra sensazione che il forte aumento fosse, in larga parte, determinato da utenti arrivati via web. Ha premiato lo sforzo di indicizzare la pagine del nostro sito, sia in relazione alle attività connesse alla nostro settore, sia relativamente alla localizzazione fisica della palestra e alle principali vie della zona. Non ho dati con un valore statistico preciso, poiché la raccolta delle informazioni non è stata sempre effettuata in maniera costante, ma la maggior parte delle persone ha utilizzato il web per conoscerci, mentre, in misura minore, altre persone sono arrivate a noi per passaparola o per le attività di marketing locale che abbiamo approntato.


Associati e Vecchi Abbonati

Estrapolando le informazioni della tipologia di contatti not NEW la situazione è sostanzialmente pari a quella dell’anno precedente (lieve calo), con un’inversione significativa tra vecchi associati che chiedono di rinnovare (in aumento significativo) e persone che hanno frequentato la palestra anni fa e ritornano (in diminuzione).

L’interpretazione che ne è stata data, verificando anche il mood ed il gradimento, è che la soddisfazione di frequentare un posto che piace funge da stimolo per chi è tuttora associato, mentre probabilmente la situazione economica, piena di tumulti e paura, ha determinato, per molti, una contrazione invece degli investimenti (il fitness non è ovviamente tra le priorità primarie delle famiglie), determinando quella quota in meno di rientri di vecchi utenti non più frequentanti.


Nuovi (NEW)

Diverso il discorso dei NEW, ovvero coloro che non erano mai stati nella nostra palestra e sui quali ci aspettavamo di ottenere dei risultati grazie all’attività di comunicazione.

Qui i risultati, come premesso all’inizio, sono molto interessanti, trasformando il +66% complessivo in +125% e +408% nella settimana citata all’inizio.

La cosa interessante è stata, come riportato in alcuni post precedenti, che uno dei risultati ottenuti dall’impostazione data al sito è stata quella di parlare spesso con persone che avevano già chiaro in mente cosa potevano aspettarsi dalla palestra e che addirittura riuscivano a riconoscere ed avere familiarità con alcuni degli istruttori che comparivano nei video.

L’incognita a questo punto era quella di capire, a fine periodo, quale sarebbe stato il tasso di conversione di tutti questi leads, da contatto ad iscritto. Da un lato assistevamo ad un crescente ingresso di nuove persone, con la consapevolezza che, rispetto al passato, aumentava la quantità di persone che sarebbero passate solo per chiedere informazioni, mentre, in precedenza, chi arrivava, per essere stato indirizzato da altri, era già ben predisposto nei nostri confronti.
Dall’altro eravamo ansiosi di capire se l’approccio, non completamente commerciale, del nostro website avrebbe dato alle persone che ci contattavano un’adeguata rappresentazione dello spirito con cui viviamo il fitness e la gestione della palestra.

Mi lascio sempre un po' prendere dalla voglia di chiacchierare ed il limite medio (abbondantemente superato) utilizzato per testi sul web mi impone (consiglia) di rimandarvi a domani per le conclusioni ed il tasso di coonversione , spezzando questo che voleva essere l'ultimo post in due parti.

Wednesday, October 15, 2008

Le possibilità di marketing locale offerte dalla "Rete Globale" e dal web 2.0: un caso pratico di applicazione, una palestra (parte quarta).

paragrafi:

> premessa: scenario e strategia
> strumenti: website e social network
> strumenti: contenuti e mezzi tradizionali

> i risultati: incremento di accessi
> i risultati: richieste di informazione ed iscrizioni

Dopo i primi post sulle azioni intraprese per fare comunicazione siamo arrivati dunque ad analizzare i risultati pratici dell’attività svolta fino ad ora, anche se fa sempre un po’ effetto trattare una associazione come un’impresa con necessità di marketing. Occorre dire anche che è un approccio obbligato, come per tutte quelle organizzazioni che fanno Fund Raising e la cui ragione di esistere è costituita proprio dall’attività promozionale finalizzata alla raccolta di fondi da ridistribuire.


Parametri di riferimento

Faccio una premessa obbligata che riguarda il mondo del fitness e delle palestre: come è ovvio immaginare settembre è il periodo forse più intenso dell’anno, perché tutti rientrano dalle vacanze e sentono il bisogno di riprendere un percorso, spesso interrotto con l’approssimarsi delle vacanze.
Per questa ragione le metriche di riferimento vanno individuate in un corretto ambito temporale, riferito più al medesimo periodo dello scorso anno, che ai mesi immediatamente precedenti.

Utilizzeremo alcuni parametri, ovvero:
  • incrementi di accesso al sito,
  • numero di richieste di informazioni,
  • numero di nuove associazioni.

Per la verità un bilancio più completo andrebbe stilato a fine ottobre ma già i dati di settembre sono interessanti.

Accessi al sito

In questo caso il parametro di riferimento relativo al medesimo mese dell’anno precedente non è significativo, in quanto il sito all’epoca era stato appena pubblicato. Nei primi mesi, in cui il sito era una novità, gli accessi erano ovviamente bassi e quindi l’incremento percentuale in genere significativo, ma non per questo da considerarsi significativo. Nei mesi tra febbraio e marzo la situazione ha teso a stabilizzarsi, con un incremento medio mensile intorno al 7 %, ma con un numero di pagine lette sostanzialmente stabile, a testimoniare che dopo i primi periodi di curiosità anche da parte degli associati, il sito veniva consultato essenzialmente per le principali informazioni, quindi piuttosto brevemente dai nuovi utenti.


Accessi al sito – risultati approccio “social”

Da giugno, quando abbiamo cominciato a pubblicare video ed altri contenuti e cominciata l’attività di dissemination sul web, obbiamo osservato che
  • la crescita è salita al 23%,
  • c'è stato un incremento delle pagine viste del 15%,
  • la percentuale di rimbalzo è scesa da oltre 60 a 48%,
  • la percentuale di accessi diretti (quindi persone che già ci conoscono) è scesa dal 18-14% al 10%, a testimoniare un buon incremento di nuovi utenti attraverso i motori di ricerca ed i referring sites.

Credo che debba essere considerato un ottimo risultato anche in relazione al periodo, che visto l’approssimarsi della bella stagione non rappresenta uno dei periodi più intensi, con un calo sistematico di tutti gli indicatori (numero di associati, richieste di informazioni).


Picco di richieste

Il primo mese di riapertura (ultima settimana di agosto- ultima settimana di settembre), complice il periodo, ha registrato numeri interessanti
+164% nelle visite,
+238% per le pagine viste,
+13% il tempo medio
al 42% (in calo dal 48%) la percentuale di rimbalzo.

Da notare che in una condizione di particolare intensità, la percentuale degli utenti arrivati attraverso motori di ricerca è passata da circa a 50% a 60%, a testimoniare che Google, in particolar modo, è sempre il modo preferito dai netsurfer per cercare informazioni in rete.

La situazione, ovviamente dopo il picco delle prime settimane, tende ora a stabilizzarsi, ma ancora al momento con il doppio degli accessi rispetto al miglior risultato ottenuto fino a giugno

Il parametro di accessi al sito però, pur essendo interessante per le prospettive che offre, non è comunque sufficiente motivo di soddisfazione, nel prossimo post parleremo di quali sono gli effetti più concreti rispetto alle nostre finalità, ovvero aumentare il numero di iscritti.

paragrafi:

> premessa: scenario e strategia
> strumenti: website e social network
> strumenti: contenuti e mezzi tradizionali

> i risultati: incremento di accessi
> i risultati: richieste di informazione ed iscrizioni


Tuesday, July 29, 2008

Una proposta per l'ambiente: the ICT for Sustainable Growth Social Network (terza parte), l’Osservatorio sulle Tecnologie per L’Ambiente

continua dal post precedente

Abbiamo visto quindi che esistono numerose potenzialità ancora inespresse nello sviluppo dei social network e la chiave è nella specializzazione e nei servizi, occorre quindi realizzare non un portale di networking tradizionale, ma una piattaforma che abiliti l’applicazione di un modello organizzativo di Enterprise 2.0 per sperimentare un modello di collaborazione in un ambito destrutturato ma fortemente motivato da obiettivi socialmente utili. Si tratta quindi di realizzare un’esperienza collaborativa nel campo dell’ambiente, finalizzata all’organizzazione delle conoscenza e al trasferimento della competenza e della tecnologia ai cittadini.

L'Osservatorio sulle Tecnologie per l'Ambiente

Il progetto si presenta come una forte integrazione di componenti sociali ed umane con componenti tecnologiche, dove le prime però sono assolutamente da intendersi come funzionali al raggiungimento degli obiettivi tecnologici. Infatti lo sviluppo dello spirito collaborativo dovrebbe essere teso a:

1. rappresentare la struttura semantica delle informazioni
2. ottimizzare i risultati di categorizzazione automatica e statistici sui campioni
3. stimolare lo sviluppo delle funzionalità rilasciate in open source

l’esperienza deve essere intesa non solamente per raccogliere il contributo degli utenti (user generated contents) ma con il contributo degli stessi, sia in fase di progettazione (user generated requirements) che di realizzazione (user generated services), attraverso la condivisione con gli utenti sia delle funzionalità da progettare che dal supporto allo sviluppo secondo una modalità Open Source.

Si tratta di progettare una architettura in grado di rendere centralizzata la gestione di informazioni e servizi eterogenei per canale e contenuto e al tempo stesso decentrare il contributo degli utenti alla emersione della conoscenza, integrando il fattore umano attraverso il social networking, teorizzato dalle comunità di pratica, e i sistemi automatici di ricerca e categorizzazione semantica.

Visto lo stretto intreccio tra problematiche tecnologiche ed implicazioni sociali è fondamentale la finalizzazione della ricerca tecnologica in un dominio verticale di conoscenza.

L’Osservatorio sulle Tecnologie per L’Ambiente deve essere uno spazio dove sviluppare e rendere disponibili strumenti e metodologie che facilitino l’accesso all’informazione da parte degli utenti grazie anche all’organizzazione dell’informazione stessa.. Tali strumenti aiuteranno i cittadini a comunicare tra loro e con le Istituzioni in maniera più vicina alle richieste dei cittadini stessi e con strumenti più informali e familiari a coloro che seguono i problemi dell’Ambiente.

Portale informativo ma anche servizi e software

Ma oltre a fornire informazioni sarà un erogatore di servizi tecnologici contraddistinti dall’obiettivo di favorire un approccio al lavoro “sostenibile” cosi come software open source e best practise orentate al medesimo obiettivo precedente

Il primo obiettivo è quello di coinvolgere il cittadino e le imprese nel processo di acquisizione dell’informazione, cercando di quantificare la progressiva consapevolezza del problema con atti espliciti che abbiano un impatto sulla riduzione delle emissioni.

Occorre coinvolgere cittadini ed imprese e trasformarli in soggetti attivi, collaboratori di una meta impresa in cui la ricerca, la formazione e la distribuzione della conoscenza viene organizzata e stimolata grazie agli strumenti descritti dalla teoria delle Comunità di pratica, ovvero

  • Stimolo della conoscenza attraverso la diffusione delle best practise
  • Stimolo alla contribuzione individuale
  • Libertà di organizzazione degli individui in cellule dinamiche
  • Disponibilità d strumenti di lavoro e di collaborazione
  • Presenza di moderatori e “stimolatori”
  • Individuazione dei leader naturali
  • Individuazione dei nodi di diffusione dell’informazione

Tuesday, March 18, 2008

Le aziende italiane che innovano: Blogmeter, ovvero l'arte di sapere "ascoltare" la Rete.

Oggi dedico spazio ad un prodotto, Blogmeter, di cui ho già parlato ampiamente in altri post che hanno, tra l'altro, stimolato un dibattito interessante, segno di un forte interesse nei confronti di questo tipo di tecnologie. Rispondono insieme Vittorio di Tomaso e Sacha Monottti, di cui traccio alla fine un profilo sintetico.


CB: Cominciamo, come al solito, con il nome della società e del prodotto.

BM: Al momento Blogmeter non è ancora un'azienda, ma un prodotto sviluppato da una joint-venture, costituita da specialisti nello sviluppo di tecnologie di web intelligence, analisi semantica e media research.


CB: Ho avuto modo di vedere Blogmeter all'opera e come sai lo valuto molto positivamente, ritrovandovi molte caratteristiche che penso siano fondamentali. Bello per esempio il vostro monitoraggio della campagna elettorale che vi ha guadagnato anche un'autorevole citazione da parte di Repubblica.
E' sempre difficile fare sintesi in questi casi, ma riuscite a descriverlo in poche righe?


BM: Blogmeter è una piattaforma di market/web intelligence il cui obiettivo è la comprensione e l'analisi delle conversazioni che avvengono nei social media (non soltanto blog, ma anche forum, newsgoup e social networks).
Lo scopo di Blogmeter è mettere ordine, nel mare magnum della conversazione online, per fornire ad aziende o istituzioni marketing e consumer insight partendo da informazioni fornite liberamente e spontaneamente quali le conversazioni che si trovano all'interno dei social media.


CB: Quali i principali campi d'azione di Blogmeter, il segmento di mercato ed i vostri interlocutori?

BM: I nostri intelocutori principali sono le aziende che considerano lapropria reputazione un asset fondamentale e/o che hanno un marchio forte, riconoscibile e dunque chiaccherato. Per queste aziende la comunicazione è ovviamente fondamentale e strategica; Blogmeter è parte della più ampia strategia di comunicazione aziendale rivolta ai media digitali: fornisce uno strumento di verifica e di misura di come le strategie di marketing e comunicazione (e non solo!) dell'azienda incidono sul buzz generato sui social media.


CB: Possiamo scendere un po' più nel tecnico e descriverne le componenti architetturali e le principali inovazioni tecnologiche?

BM: All'interno di blogmeter vivono un sofisticato motore di crawling, che naviga la rete alla ricerca di fonti interessanti da analizzare (una fonte, per noi, è interessante quando è un luogo di conversazione) e un motore di analisi semantica, basato su tecnologie proprietarie, che consente l'analisi e la comprensione (almeno per quanto possibile) di quanto viene detto in rete.
Esteriormente blogmeter si presenta come un'applicazione di intelligence intuitiva e facile da usare, che consente sia viste di insieme (cruscotti e grafici) che viste specifiche (identificazione delle conversazioni da tracciare, estrazione di concept cloud), fino alla possibilità di leggere ciascun singolo messaggio grazie ad un motore di ricerca interno.
Ad oggi esistono verticalizzazioni di Blogmeter (che implicano specifiche configurazioni dei crawler e dell'analisi semantica) su settori che vanno dall'automotive alle banche, dalla salute / benessere al cinema, dalla moda alla politica. Le fonti monitorate portano un numero enorme di messaggi mensili e di post: la nostra proiezione 2008 è di indicizzare e analizzare diversi milioni di post per ciascuna verticalizzazione.


CB: Quale e' il vostro modello di business?

BM: Blogmeter è proposto come sas. il cliente acquista un abbonamento per avere accesso al prodotto attraverso un'interfaccia di analisi web based inclusiva di supporto ed aggiornamenti constanti su temi e fonti monitorati. Non sono richiesti investimenti hardware o software e il roll out su un settore monitorato è pressochè immediato.


Vittorio di Tomaso dopo gli studi all’Università di Torino e presso la Scuola Normale Superiore di Pisa, ha intrapreso un percorso accademico, come visiting researcher alla Brandeis University di Waltham, Massachussets, come docente presso l’Università del Piemonte Orientale e la Libera Università di Bolzano. Attualmente insegna Informatica Umanistica all’Università di Torino. Autore di numerose pubblicazioni scientifiche in Italia e all’estero, è attualmente membro della redazione di Sistemi Intelligenti, rivista di Scienza Cognitiva edita da Il Mulino.
E’ Ceo e co-fondatore di CELI, azienda italiana specializzata in tecnologie automatiche di analisi del linguaggio.

Sacha Monotti Graziadei ha lavorato per Ernst & Young Consultants e AGB Nielsen Media Research, leader mondiale nella rilevazione dell’audience televisivo. Nel 2006 ha deciso di tornare ai media digitali fondando Me-Source, società specializzata nello sviluppo di soluzioni innovative nei settori della “web intelligence” e della “social media analysis”.


ARTICOLI CORRELATI:

La percezione della comunicazione, l'indice Hespi
Individuazione e monitoraggio degli influencers
banking 2.0: intelligence e confronto con il mercato