Oggi è il Linux Day, la festa del sistema operativo "libero" più diffuso al mondo.
Per conoscere le iniziative vi consiglio il sito predisposto dalla Italian Linux Society o i tanti post dedicati da importanti magazine on line.
Qui preferisco fare una breve riflessione sul rapporto tra il software libero e l'economia reale. Sarebbe intereressante quantificare i miliardi di euro che istituzioni e aziende di tutto il mondo hanno risparmiato grazie al fatto di avere installato una qualche distribuzione di Linux, riducendo costi ma al tempo stesso dando comunque linfa economica a società tecnologiche per consulenze o sviluppo di nuove funzionalità.
Con minori costi complessivi o al massimo a parità investimento hanno realizzato qualcosa in più, un servizio nuovo per i cittadini o per lavoratori e clienti di una azienda, mi viene in mente la frase di Neal Armstrong allo sbarco sul suolo lunare, "un piccolo passo per un uomo, ma un balzo da gigante per l'umanità" (That's one small step for [a] man, one giant leap for mankind).
Ma quello che appare una clamorosa anomalia è che oggi pochi saprebbero dire chi è Linus Torvald e ancora meno saprebbero riconoscerlo in una foto, Linus non è il famoso DJ ma il programmatore finlandese che ha promosso la realizzazione di Linux. Richard Stallman è invece un signore dai lunghi capelli e dall'altrettanto lunga barba alle cui idee tutto il movimento Open Source deve rispettosamente molto, compreso il software GNU da cui prese avvio il progetto Linux. Le cose buone fatte da Stallman sono tante ma per questo vi rimando alle sue biografie.
La maggior parte delle persone che non si occupano di informatica (ahimè anche molte di quelle che se ne occupano) costretti a guardare le foto (p.s. quella di Stallman è presa da Wikipedia, grande fonte di conoscenza libera) che ho inserito nel mio post avrebbero un bel punto interrogativo stampato in faccia o guarderebbero Stallman con una certa diffidenza.
Se però inserissi, sotto, anche la foto di Steve Jobs istintivamente stringerebbero nelle mani il loro iPhone 5 da 900 euro a la loro bocca disegnerebbe sul viso un sorriso di compiacimento (p.s. inutile mettere il link alla sua biografia, tutti sanno chi era).
Fama e riconoscenza per chi ha fatto confluire nelle casse della propria azienda (e sue) miliardi di dollari e perplessità per chi ha contribuito a generare il più importante cambiamento nell'evoluzione del mercato tecnologico con tutte le sue conseguenze positive nel mondo reale.
Lungi da me innescare una contrapposizione tra questi personaggi che hanno tutti contribuito al percorso dell'economia digitale a partire (tutti) dalle rispettive, lecite, aspettative ma desideravo osservare come spesso i riconoscimentio e la fama per una persona sono spesso proporzionali al denaro che un singolo riesce ad accumulare e con il quale, altrettanto spesso, alimenta la propria immagine pubblica.
Nel mio piccolo oggi voglio solo ringraziare due uomini che hanno fatto una cosa straordinaria.
Ha scritto Antoine de Saint-Exupéry "Se vuoi costruire una nave, non radunare uomini solo per raccogliere il
legno e distribuire i compiti, ma insegna loro la nostalgia del mare
ampio e infinito".
Ecco quello che hanno fatto Torvald e Stallman non è solo avere "inventato" un nuovo prodotto ma avere tracciato una strada che milioni di persone stanno seguendo, certamente entrambi non hanno rinunciato ad un giusto compenso per il proprio lavoro ma certamente hanno rinunciato a trarre per se stessi il profitto massimo possibile. A favore di tutti.
Showing posts with label Aziende. Show all posts
Showing posts with label Aziende. Show all posts
Saturday, October 27, 2012
Thursday, July 12, 2012
xdams, la piattaforma Open Source tutta italiana per la gestione degli archivi multimediali e la valorizzazione dei Beni Culturali
Il dado è tratto, abbiamo rilasciato con licenza Open Source la piattaforma xdams per la gestione di archivi storici multimediali.
“Abbiamo” sta a indicare la società per cui lavoro, regesta.exe, ma più in particolare tutte le persone che da anni collaborano allo sviluppo di questa piattaforma. Si è trattato infatti di una scelta a cui tutti hanno contribuito e verso la quale tutti hanno spinto, il punto di arrivo di un percorso iniziato 10 anni fa e al tempo stesso una nuova partenza.
Cos'è xdmas?
Come dicevo nell’introduzione xdams è un software di catalogazione dei patrimoni storico culturali, archivi storici, fotografici e multimediali in generale. La versione che è stata rilasciata comprende il modello dati dell’archivio storico, codificato secondo EAD, il modulo soggetti produttori e gli authority codificati in EAC-CPF. La caratteristica di questo software è quella di gestire i principali standard nazionali e internazionali per il trattamento di questo tipo di materiali (Isad, Isaar, Fiaf, Scheda F, MAG, Unimarc ecc.) permettendo a tutti coloro i quali utilizzano questo software di lavorare all’interno di un contesto scientificamente riconosciuto a livello internazionale
La scelta principale è stata quella di utilizzare per la persistenza il formato standard per eccellenza di rappresentazione delle informazioni ovvero l’XML, per cui xdams non si serve di un database tradizionale ma di file XML . Tutto ciò permette la massima dinamicità nella configurazione della base dati e soprattutto ne consente una agevole modifica, anche “on fly”.
La roadmap e il servizio di hosting gratuito
Oltre alle prossime versioni con nuove tipologie di archivi e/o con enhancement tecnologici personalmente aspetto con particolare attenzione la partenza del servizio di hosting (gratuito di base e a pagamento per livelli più avanzati) che potrà fornire strumenti lavoro a nuove tipologie di utenti e diventare il volano per la creazione di una comunità di esperti, punto di riferimento per lo sviluppo della conoscenza.
Le continue evoluzioni del prodotto hanno avuto quale costante la determinazione di favorire la corretta organizzazione e conservazione delle informazioni e degli oggetti ma anche la predisposizione di una base informativa adeguata alla pubblicazione on line e alla valorizzazione del patrimonio culturale, come avvenuto nel caso dei tanti utenti della piattaforma, Archivio Luce, Camera dei Deputati, IBC Emilia Romagna, Fondazione Feltrinelli e tanti altri.
Obiettivo, condivisione e sviluppo.
Oggi la scelta Open Source rappresenta una nuova fase dell’evoluzione di xdams, il tentativo di allargare la capacità di sviluppo del software ma anche e soprattutto della base dei suoi utilizzatori attraverso un’esperienza di sharing della conoscenze e delle risorse al posto di un modello basato esclusivamente sulla immediata remunerazione dei servizi e dei prodotti.
Speriamo di creare una vera e propria comunità di esperti e sviluppatori che possano collaborare per ottenere il massimo dalla condivisione delle risorse destinate a questo settore. Ci auguriamo poi che questo sia un’ulteriore punto di arrivo per un nuovo rilancio che potrebbe essere l’esportazione di questo modello anche all’estero. L’Italia è il paese con il più grande patrimonio storico al mondo e ci sono le competenze per diventare un punto di riferimento per questo settore.
Labels:
Aziende,
eccellenza,
Open Source,
web 2.0,
web of data
Saturday, February 11, 2012
Un nuovo, ma collaudato, software open source tutto italiano: xdams, il digital archive management per i beni culturali

E' arrivato il grande giorno. Dopo tanto lavoro martedi 14 febbraio prossimo verrà presentato il progetto xdams open source.
Dal progetto europeo, più di 10 anni fa, è stata fatta tanta strada, tanti progetti e utenti che hanno consentito alla nostra piattaforma di diventare sicuramente uno dei software più affidabili che c'è nel digital archive management dei beni culturali.
Le linee progettuali hanno sempre rispettato l'indicazione di conformità con gli standard italiani e internazionali, ma al tempo stesso il desiderio di soddisfare i requisiti di ricerca ed innovazione imposti dalle sempre più velocemente mutate situazioni tecnologiche e sociali.
Questa piattaforma oggi rappresenta una delle realizzazioni più affidabili e all'avanguardia e proprio oggi invece di lucrare su questa rendita di posizione diventa open source. L'obiettivo è quello di fare un ulteriore passo in avanti, di favorire la diffusione e la condivisione della conoscenza per trasformare un prodotto in una comunità. Tutto ciò perchè crediamo nell'approccio open source e che questa sia una scelta matura che assicura al tempo stesso sostenibilità e larga diffusione.
Questa scelta ci permetterà di lavorare ad un progetto con un approccio che realizza tutte le nostre aspirazioni e speriamo possa, al tempo stesso, garantire una maggiore diffusione della piattaforma. Proprio per questo xdams sarà un software scaricabile grauitamente ma anche un servizio che potrà essere attivato da tutti, altrettanto gratuitamente e con estrema facilità.
Il 14 febbraio, collegandosi al sito www.xdams.org si potrà assistere in streaming ad un evento concepito per spiegare le nostre motivazioni e i nostri obiettivi, nonchè per offrire a tutti il punto di vista di alcuni utenti di xdams.
L'inizio di un nuovo percorso che ci auguriamo collettivo e proficuo per tutti.
Monday, October 24, 2011
Esiste un business dal volto umano? CSR e aziende, un convegno a Torino il 26 ottobre (La forza del mercato!)
Mercoled' a Torino un convegno sulla Corporate Social Responsibility dal titolo un po' impegnativo "Responsabile Etico Sostenibile - Esiste un business dal volto umano?". presso l'Unione Industriali in via Vela 17 (http://www.clubcomunicazione.it/RES/).
Ne approfitto per una breve riflessione su questo tema...
Non me ne vogliano i gentilissimi Luca e Francesca che mi hanno invitato al convegno (e che ringrazio) ma la risposta alla domanda credo che sia no... ma non intende essere una risposta negativa.
Avere un approccio etico e responsabile per una azienda non è a "costo zero", richiede un impegno economico e progettuale non da poco e certamente, se a un manager è richiesto di portare risultati economici, non è facile chiedergli di ottenerli rispettando codici di comportamento che non sono (solo apparentemente) immediatamente riconducibili ai propri obiettivi professionali.
Mi sono occupato per una azienda per la quale ho lavorato di CSR e posso testimoniare che, se anche delle scelte in questo senso vengono prese, non è facile portare avanti politiche di responsabilità sociale se in tutta l'azienda non matura un differente approccio al lavoro.
Non si tratta di quindi cattiva volontà ma di difficoltà oggettiva.
la forza del mercato
Se invece le aziende che investono in CSR sono premiate dai consumatori allora anche i manager devono (o possono) adeguarsi a questo stile di vita, la Social Responsibility diventa un valore economico più immediatamente percepibile e un fattore di crescita aziendale.
Il potere di chi spende e può fare delle scelte, privilengiando chi si impegna per la crescita sostenibile o in progetti con finalità etiche, è un potere enorme perchè, come ho scritto in precedenza, trasforma un valore enorme ma non facilmente quantificabile in una precisa dimensione economica.
L'ottimizzazione della catena distributiva di un'industria porta alla riduzione delle emissioni di CO2 in questo mondo un po' malconcio e se pure non saremo in grado di misurarne gli enormi benefici per noi, per i nostri figli e nipoti, l'azienda che per questa scelta si vedrà premiata sul mercato sarà incentivata a proseguire su questa strada.
Qualcuno obietterà che questo potrebbe non significare un reale cambiamento nella mentalità di chi fa business ma io credo che da un lato occorra essere pragmatici, la nostra storia è piena di ottime intenzioni e di pessime azioni, per cui ben vengano azioni virtuose, qualunque siano le motivazioni. Guardando il problmea da un altro punto di vista sono certo invece che il ricondurre anche la "Responsabilità" ad un valore più facilmente percepibile da chi si occupa di business alla lunga aiuterà a capire che un approccio di questo tipo non è affatto solo un impegno e un costo e che quindi non c'è giustificazione nel non adottarlo.
E' quindi auspicable che si organizzino incontri di questo tipo per far capire alle persone che il loro modo di comportarsi (negli acquisti) è determinante affinché le aziende imbocchino un ciclo virtuoso.
Il convegno
L'evento è organizzato dal Club Comunicazione d'Impresa dell'Unione Industriali di Torino e nel corso del seminario saranno trattati casi di buone e cattive pratiche aziendali in materia di responsabilità sociale d'impresa. Tra le case-history che verranno presentate, presenti in sala i diretti protagonisti, quelle di IKEA, FIAT, Gruppo Michelin, Bayer e altre aziende in diversi settori. Modererà l'incontro il giornalista Oscar Giannino.
Ne approfitto per una breve riflessione su questo tema...
Non me ne vogliano i gentilissimi Luca e Francesca che mi hanno invitato al convegno (e che ringrazio) ma la risposta alla domanda credo che sia no... ma non intende essere una risposta negativa.
Avere un approccio etico e responsabile per una azienda non è a "costo zero", richiede un impegno economico e progettuale non da poco e certamente, se a un manager è richiesto di portare risultati economici, non è facile chiedergli di ottenerli rispettando codici di comportamento che non sono (solo apparentemente) immediatamente riconducibili ai propri obiettivi professionali.
Mi sono occupato per una azienda per la quale ho lavorato di CSR e posso testimoniare che, se anche delle scelte in questo senso vengono prese, non è facile portare avanti politiche di responsabilità sociale se in tutta l'azienda non matura un differente approccio al lavoro.
Non si tratta di quindi cattiva volontà ma di difficoltà oggettiva.
la forza del mercato
Se invece le aziende che investono in CSR sono premiate dai consumatori allora anche i manager devono (o possono) adeguarsi a questo stile di vita, la Social Responsibility diventa un valore economico più immediatamente percepibile e un fattore di crescita aziendale.
Il potere di chi spende e può fare delle scelte, privilengiando chi si impegna per la crescita sostenibile o in progetti con finalità etiche, è un potere enorme perchè, come ho scritto in precedenza, trasforma un valore enorme ma non facilmente quantificabile in una precisa dimensione economica.
L'ottimizzazione della catena distributiva di un'industria porta alla riduzione delle emissioni di CO2 in questo mondo un po' malconcio e se pure non saremo in grado di misurarne gli enormi benefici per noi, per i nostri figli e nipoti, l'azienda che per questa scelta si vedrà premiata sul mercato sarà incentivata a proseguire su questa strada.
Qualcuno obietterà che questo potrebbe non significare un reale cambiamento nella mentalità di chi fa business ma io credo che da un lato occorra essere pragmatici, la nostra storia è piena di ottime intenzioni e di pessime azioni, per cui ben vengano azioni virtuose, qualunque siano le motivazioni. Guardando il problmea da un altro punto di vista sono certo invece che il ricondurre anche la "Responsabilità" ad un valore più facilmente percepibile da chi si occupa di business alla lunga aiuterà a capire che un approccio di questo tipo non è affatto solo un impegno e un costo e che quindi non c'è giustificazione nel non adottarlo.
E' quindi auspicable che si organizzino incontri di questo tipo per far capire alle persone che il loro modo di comportarsi (negli acquisti) è determinante affinché le aziende imbocchino un ciclo virtuoso.
Il convegno
L'evento è organizzato dal Club Comunicazione d'Impresa dell'Unione Industriali di Torino e nel corso del seminario saranno trattati casi di buone e cattive pratiche aziendali in materia di responsabilità sociale d'impresa. Tra le case-history che verranno presentate, presenti in sala i diretti protagonisti, quelle di IKEA, FIAT, Gruppo Michelin, Bayer e altre aziende in diversi settori. Modererà l'incontro il giornalista Oscar Giannino.
Wednesday, May 19, 2010
La responsabilità sociale, la crescita sostenibile, i social network e le grandi aziende: un workshop organizzato da Barilla sul cambiamento climatico
Zio Burp mi ha invitato ad un evento ben conoscendo la mia attenzione al tema della responsabilità sociale e dell'ambiente.
Barilla una delle (poche?) aziende italiane che si impongono nel mondo (28% del mercato della pasta negli USA) ha organizzato un workshop aperto su "Scarsità delle risorse e cambiamento climatico. Le priorità di intervento."
Questo incontro, cui parteciperanno esperti internazionali del settore, è interessante per alcuni motivi: dimostra per esempio che le aziende possono investire parte dei loro budget di comunicazione in iniziative che danno un profitto non solo a chi le promuove (le aziende), ma anche alla collettività, perchè stimolano la discussione e migliorano il grado di sensibilità delle aziende e delle persone sul tema della crescita sostenibile. Guido Barilla ha ricordato in un comunicato "i percorsi avviati con il Barilla Laboratory for Knowledge and Innovation - laboratorio aziendale per lo sviluppo della cultura, della conoscenza, dell’innovazione e delle competenze manageriali - ed il Barilla Center for Food & Nutrition - centro di pensiero indipendente e multidisciplinare che ha come obiettivo affrontare e fare informazione sui temi dell’alimentazione e della nutrizione".
Ecco speriamo che questi siano permanenti prese di coscienza e che anche le più aziende piccole, stimolate dai buoni esempi, si rendano sempre più consapevoli del ruolo fondamentale di ciascuno di noi nella difesa della nostra stessa sopravvivenza.
Per quanto riguarda poi i temi che seguo più da vicino c'è da rilevare (ma ormai non è più una novità) come i social network siano ormai fondamentali nella strategia di comunicazione delle aziende, a giudicare dalla promozione di questo evento (su facebook) ma anche dagli strumenti che saranno usati per superare le limitazioni fisiche nella fruizione dell'evento (diretta streaming sul web e su Twitter).
Chi lo diceva solo qualche anno fa veniva preso per una persona troppo facile agli entusiasmi ed alle mode...
Barilla una delle (poche?) aziende italiane che si impongono nel mondo (28% del mercato della pasta negli USA) ha organizzato un workshop aperto su "Scarsità delle risorse e cambiamento climatico. Le priorità di intervento."
Questo incontro, cui parteciperanno esperti internazionali del settore, è interessante per alcuni motivi: dimostra per esempio che le aziende possono investire parte dei loro budget di comunicazione in iniziative che danno un profitto non solo a chi le promuove (le aziende), ma anche alla collettività, perchè stimolano la discussione e migliorano il grado di sensibilità delle aziende e delle persone sul tema della crescita sostenibile. Guido Barilla ha ricordato in un comunicato "i percorsi avviati con il Barilla Laboratory for Knowledge and Innovation - laboratorio aziendale per lo sviluppo della cultura, della conoscenza, dell’innovazione e delle competenze manageriali - ed il Barilla Center for Food & Nutrition - centro di pensiero indipendente e multidisciplinare che ha come obiettivo affrontare e fare informazione sui temi dell’alimentazione e della nutrizione".
Ecco speriamo che questi siano permanenti prese di coscienza e che anche le più aziende piccole, stimolate dai buoni esempi, si rendano sempre più consapevoli del ruolo fondamentale di ciascuno di noi nella difesa della nostra stessa sopravvivenza.
Per quanto riguarda poi i temi che seguo più da vicino c'è da rilevare (ma ormai non è più una novità) come i social network siano ormai fondamentali nella strategia di comunicazione delle aziende, a giudicare dalla promozione di questo evento (su facebook) ma anche dagli strumenti che saranno usati per superare le limitazioni fisiche nella fruizione dell'evento (diretta streaming sul web e su Twitter).
Chi lo diceva solo qualche anno fa veniva preso per una persona troppo facile agli entusiasmi ed alle mode...
Labels:
Aziende,
blog,
Giornalismo,
innovazione,
Social Network,
web 2.0
Friday, March 12, 2010
Anche per la Business Intelligence esistono ottime soluzioni Open Source, un possibile vantaggio per progettare la crescita aziendale (Parte seconda)
Nel post precedente ho cominciato un breve excursus sui prodotti di Business Intelligence open source, abbiamo iniziato dal plug in di Eclipse e proseguiano ora con gli altri prodotti che possono essere considerati i più diffusue e conosciuti.
Pentaho
Pentaho forse è la piattaforma più conosciuta per la Business Intelligence, merito della forte campagna di autopromozione e marketing del produttore e di oggettivi riconoscimenti esterni, come nel 2008, quando è risultata vincitrice nella sua categoria come miglior prodotto Open Source.
Non si tratta di un unico prodotto ma di una serie di soluzioni messe insieme per costruire una suite, tra questi:
1. Mondrian per l'OLAP,
2. JfreeReports per la reportistica,
3. Kettle per l'ETL.
Pentaho copre tutti i principali aspetti della Business Intelligence,proponendo oltre alla Community Edition Open Source una versione Enterprise a pagamento con funzionalità aggiuntive ed ovviamente supporto. Per lo sviluppo di nuovi documenti anche Pentaho fa uso di un designer basato su Eclipse e i documenti una volta sviluppati vengono caricati all'interno della piattaforma web per l'esecuzione.
I server web preferiti sono Tomcat o JBoss, ma teoricamente qualunque altro web server Java, mentre per l’ETL viene proposto Pentaho Data Integration (già conosciuto come Kettle).

I prezzi della versione enterprise non sono esorbitanti, ma in ogni caso, a giudicare dai commenti nei forum degli sviluppatori, la CE sia di ottima qualità e buone potrenzialità tale da renderla già interessante per sviluppi significativi.
JasperSoft
JasperSoft è conosciutissima tra gli sviluppatori grazie al software di reporting Open Source JasperReport. Per ilmercato della Business Intelligence ha rilasciato JasperServer cha fa uso di JasperReport per la reportistica, di Mondrian/JPivot per l’ OLAP e di Talend Open Studio per l'ETL.
JasperServer viene descritto come un sistema semplice ma intuitivo e ben sviluppato, con delle API web service per integrarla in prodofindità. Come gli altri prodotti JasperServer è disponibile nella versione Open Source o a pagamento che è leggermente più potente della versione free. Gira su web server Java come Tomcat ma, data la buona aderenza agli standard, è teoricamente semplice farla girare sugli altri server.

Esistono delle implementazioni particolari come quella disponibil a questo link http://dynamicjasper.sourceforge.net/, nate per semplificare ulteriormente l’utilizzo di questo prodotto.
Spago BI
SpagoBI è la prima piattaforma open source di Business Intelligence italiana. E' stata rilasciata da Engineering ed ha una architettura con i componenti principali programmati in Java:
• SpagoBI Server, la piattaforma che comprende tutti gli strumenti analitici, la gestione della sicurezza e delle regole di visibilità, i tools di amministrazione
• SpagoBI Studio, l'ambiente di sviluppo integrato
• SpagoBI Meta, l'ambiente dei metadati
• SpagoBI SDK, il layer di integrazione per usare SpagoBI da applicazioni esterne
• SpagoBI Applications, che accoglie tutti i modelli analitici verticali sviluppati con SpagoBI
Viene dichiarato che si installa su qualsiasi sistema operativo che supporti java e l'accesso alla piattaforma da parte dei client avviene con un normale browser.

Ha una gestione integrata di utenti (amministratori/sviluppatori/utenti comuni) ed è compatibile Oracle, MySQL e postgresql. Spago BI consente differenti tipi di reporting con diverse modalità di estrazione dei dati. Come altri prodotti del genere permette di scegliere il tipo di report per la presentazione e personalizzarele procedure di elaborazione ed estrazione dei dati.
Il sito ufficiale di SpagiBi è http://www.spagoworld.org/xwiki/bin/view/SpagoWorld/ da dove è possibile scaricare l'applicazione, il manuale e testare la piattaforma .
Tra i case studies citati FIAT Group Automobiles “ha scelto SpagoBI come piattaforma di Business Intelligence open source per realizzare link.e.intelligence, la componente analitica del prodotto .link, sviluppato per supportare i processi di vendita della rete internazionale di distribuzione”.
Pentaho
Pentaho forse è la piattaforma più conosciuta per la Business Intelligence, merito della forte campagna di autopromozione e marketing del produttore e di oggettivi riconoscimenti esterni, come nel 2008, quando è risultata vincitrice nella sua categoria come miglior prodotto Open Source.
Non si tratta di un unico prodotto ma di una serie di soluzioni messe insieme per costruire una suite, tra questi:
1. Mondrian per l'OLAP,
2. JfreeReports per la reportistica,
3. Kettle per l'ETL.
Pentaho copre tutti i principali aspetti della Business Intelligence,proponendo oltre alla Community Edition Open Source una versione Enterprise a pagamento con funzionalità aggiuntive ed ovviamente supporto. Per lo sviluppo di nuovi documenti anche Pentaho fa uso di un designer basato su Eclipse e i documenti una volta sviluppati vengono caricati all'interno della piattaforma web per l'esecuzione.
I server web preferiti sono Tomcat o JBoss, ma teoricamente qualunque altro web server Java, mentre per l’ETL viene proposto Pentaho Data Integration (già conosciuto come Kettle).

I prezzi della versione enterprise non sono esorbitanti, ma in ogni caso, a giudicare dai commenti nei forum degli sviluppatori, la CE sia di ottima qualità e buone potrenzialità tale da renderla già interessante per sviluppi significativi.
JasperSoft
JasperSoft è conosciutissima tra gli sviluppatori grazie al software di reporting Open Source JasperReport. Per ilmercato della Business Intelligence ha rilasciato JasperServer cha fa uso di JasperReport per la reportistica, di Mondrian/JPivot per l’ OLAP e di Talend Open Studio per l'ETL.
JasperServer viene descritto come un sistema semplice ma intuitivo e ben sviluppato, con delle API web service per integrarla in prodofindità. Come gli altri prodotti JasperServer è disponibile nella versione Open Source o a pagamento che è leggermente più potente della versione free. Gira su web server Java come Tomcat ma, data la buona aderenza agli standard, è teoricamente semplice farla girare sugli altri server.

Esistono delle implementazioni particolari come quella disponibil a questo link http://dynamicjasper.sourceforge.net/, nate per semplificare ulteriormente l’utilizzo di questo prodotto.
Spago BI
SpagoBI è la prima piattaforma open source di Business Intelligence italiana. E' stata rilasciata da Engineering ed ha una architettura con i componenti principali programmati in Java:
• SpagoBI Server, la piattaforma che comprende tutti gli strumenti analitici, la gestione della sicurezza e delle regole di visibilità, i tools di amministrazione
• SpagoBI Studio, l'ambiente di sviluppo integrato
• SpagoBI Meta, l'ambiente dei metadati
• SpagoBI SDK, il layer di integrazione per usare SpagoBI da applicazioni esterne
• SpagoBI Applications, che accoglie tutti i modelli analitici verticali sviluppati con SpagoBI
Viene dichiarato che si installa su qualsiasi sistema operativo che supporti java e l'accesso alla piattaforma da parte dei client avviene con un normale browser.

Ha una gestione integrata di utenti (amministratori/sviluppatori/utenti comuni) ed è compatibile Oracle, MySQL e postgresql. Spago BI consente differenti tipi di reporting con diverse modalità di estrazione dei dati. Come altri prodotti del genere permette di scegliere il tipo di report per la presentazione e personalizzarele procedure di elaborazione ed estrazione dei dati.
Il sito ufficiale di SpagiBi è http://www.spagoworld.org/xwiki/bin/view/SpagoWorld/ da dove è possibile scaricare l'applicazione, il manuale e testare la piattaforma .
Tra i case studies citati FIAT Group Automobiles “ha scelto SpagoBI come piattaforma di Business Intelligence open source per realizzare link.e.intelligence, la componente analitica del prodotto .link, sviluppato per supportare i processi di vendita della rete internazionale di distribuzione”.
Monday, November 23, 2009
Guerre stellari episodio 4: la Frattura Globale Totale!! Murdoch vs. Google vs. Microsoft vs. Apple vs. Nokia etc. etc...

Tutti i big dell'era digitale sembrano presi da un sussulto di iperattività... non passa giorno senza una novità importante o senza un intervento polemico. Si aggiunga a ciò che sono implosi quei confini commerciali che avevano caratterizzato la competition negli scorsi anni. Prima chi faceva sistemi operativi era in concorrenza con gli altri produttori di analoghi sistemi, che faceva tecnologia non si occupava di contenuti e chi gestiva il mobile aveva solo il problema degli SMS. Anni fa la Microsoft era concentrata soprattutto sul suo Windows ed i pacchetti di office automation, fingeva di ignorare Internet (salvo poi ricredersi), Apple, la rivale di sempre, era relegata ad essere amatissima, ma un pubblico relativamente ristretto (l’opposto dell’odiato rivale), Google macinava il raddoppio di fatturato ogni 18 mesi intorno al suo motore di ricerca e la Nokia conquistava una indiscussa leadership nel suo mercato. Oggi invece si assiste al "tutti contro tutti".
Ma cosa è successo?
L’esplosione del web ha pian piano ridotto le differenze strutturali tra i diversi canali di comunicazione, i dispositivi mobili si sono avvicinati a veri computer ed i PC hanno integrato funzioni di comunicazione diversa.
La Guerra Stellare Globale.
Il risultato è stato che, saturati i propri mercati di riferimento e favoriti dalla convergenza delle tecnologie i vari attori si sono proiettati su segmenti una volta distanti ed ora contigui, anzi destinati forse a diventare un unico segmento, ma diverse sono le strategie e diversa anche la dinamicità con cui viene affrontata la sfida.
Ma andiamo con ordine, a ritroso: ho spesso parlato delle insofferenze degli editori, Murdoch in testa, nei confonti di Google in particolare ed ora la querelle si arricchisce di una nuova voce. Murdoch delesezionerebbe i propri contenuti da Google in favore di Microsoft, che ovviamente ricambierebbe con dollari in quantità. Medesima offerta fatta ad altri editori.
Google dimostra freddezza di fronte a questa evenienza, "Economically it's not a big part of how we generate revenue" ha ribadito indirettamente recentemente Matt Brittin, responsabile UK della casa americana, riferendosi ai ricavi dal servizio news o ancora più direttamente quando Google ha risposto ufficialmente a Murdoch di sentirsi libero proprio di non fare indicizzare le proprie news.
A differenza di tante battaglie vinte questa di Murdoch sembra un po' più ardua (a meno che sia un sapiente diversivo..) perchè il web ha dimostrato (fino ad ora) di essere un mondo commerciale non imbrigliabile nelle tradizionali regole e questo approccio alla fine può rischiare di di fare più danni all'australiano di quanti soldi possa portargli Microsoft, un concorrente che ancora arranca su questo versante. Anzi in questa occasione dimostra proprio di dover pagare per acquisire vantaggi strategici.
Murdoch dovrebbe trascinare nella sua battaglia tutti gli editori... tendenzialmente d'accordo ma poi si sa, un conto parlare un conto è agire.
Google invece porta la guerra in casa Microsoft (ed Apple) con il suo Chrome OS, sistema operativo legerissimo brower based. Chissà... occorrerà vedere, non tutte le iniziative di Google per uscire dal suo perimetro sono risultate vincenti.
Ma non esistono solo questi tre attori, pochi giorni fa Skype ha riacquisito la propria libertà da eBay, ma proviamo a fare un assessment delle forze in campone:
Pochi giorni fa i giornali davano spazio in home page ad una notizie con titoli tipo: “Tutti contro la "piccola" Apple,fa tendenza e i suoi conti volano”, una notizia che preoccupa alcuni perchè, al di la delle quote di mercato, gli utili disegnano un futuro di possibili investimenti in ricerca in campi ormai eterogenei. la sua strategia di diversificazione è concentrata su pochi asset, basati anche su hardaware, ed introdotti uno per volta sul mercato. L’immagine costruita è innovazione, qualità e… fashion. I MAC, Ipod ed Iphone puntano sull’effetto “cult” ed i risultati sembrano dare ragione.
Google invece spazia in campi diversi, da Android per i cellulari ma anche per PC, da Google Chrome a GoogleVoice al nuovissimo Google Wave, passando per la pletora di applicazioni destinate agli amanti del web, gli analytics, la mail etc. Solo nel campo dei social network preferisce far perno sulla propria enorme liquidità con YouTube e facendo accordi con MySpace mentre Windows sembra giocare in difesa , incappa nel passo falso di Vista ed ora confida in Windows 7 e in Bing,
ma vediamo i settori uno per uno.
Sistemi operativi
Come abbiamo appena detto Microsoft deve rincorrere la perdita di credibilità di Vista e lo fa con Windows 7, definito paradossalmente un Vista che funziona, ma al tempo stesso il MAC dota i suo lussuosi computer del nuovissimo Snow Leopard, sistema a 64 bit in grado (in base a quello che dichiarano) di risolvere problemi di compatibilità anche con singole applicazioni che possono girare solo a 32 bit!
Google nel frattempo, un po’ in sordina, porta anche su PC il suo Android, sistema basato su kernel Linux nato per il mobile ma evidentemente pensato per sostenere la competizione della convergenza dei canali di comunicazione. In attesa ovviamente che sia pronto il suo Chrome OS...
Una grande difesa per Microsoft è costituita sia dal sistema in se stesso (ancora a borda delle stra maggioranza dei PC), ma anche dalla ormai consolidata abitudine ad usare i suoi pacchetti da Word ad Excel, tanto da costringere, per una volta, la casa di Cupertino sulla difensiva, emulazioni Windows e doppie partizioni si sono rese necessarie. Open Office o le applicazioni di Google non hanno scalfito il predominio del vecchio Bill.
Mobile
Qui la guerra si fa dura… il già citato Android è un pezzo della strategia di Google, ma anche Google Voice, per ora attivo solo in USA, un numero unico che promette di offrire un unico punto di contatto per ogni utente, semplificando la possibilità di comunicare e soprattutto abbattendo i costi sfruttando il VoIP. La reazione di Apple che ha conquistato un posto preminente con il suo Iphone è stato quello di osteggiare il servizio, non certificandolo sul proprio dispositivo . Strategia, dicono i più, influenzata anche da AT&T, un partner forte di Apple, che come molte compagnie telefoniche ha reagito violentemente alla nuova iniziativa di Google. Di contro la Nokia accusa Iphone di avergli rubato una decina di brevetti.
Uao!! Sembra di sentire il sibilo dei raggi laser che viaggiano tra le galassie ed il rimbombare delle stazioni orbitali colpite!!
Ma andiamo avanti.
Serch engine
Microsoft ci riprova, ha perso in passato miseramente la battaglia dei motori di ricerca ma ora lancia Bing… per ora solo bing e non bang, ne tantomeno big bang… molte promesse di effetti speciali e mirabolanti ma i danni inferti all’avversario pochi, con fortune alterne e talvolta anche in regressione. Ciò nonostante, o forse proprio per questo, fa accordi con Yahoo che per molti presagiscono preluda ad una incorporazione. Ma fa anche accordi per offrire migliori risultati con i due outsider del momento Twitter e Facebook nonchè il feeling con Murdoch di cui si è parlato in precedenza.
Contenuti e Social media
Qui è Google che va all’attacco di ITunes, oltre alle esperienze citate in precedenza, ma al tempo stesso si trova sotto attacco da parte di chi i contenuti li produce, gli editori, ed ai quali scoccia molto che i soldi finiscano soprattutto alla azienda di Mountain View. Questo però sembra solo un diversivo perché i primi sono stretti tra il costante calo che registrano soprattutto nel mondo reale (carta stampata) e l’improbabile lotta a chi porta poi in fondo traffico e revenues on line, scommettiamo che finirà con una buona fetta di soldini ?
Google rilancia con Google Wave, il celebrato prossimo servizio che promette di aggregare informazioni e conversazioni prodotti con sistemi differenti ed anche qui Google persegue una strategia “unificatrice” di contenuti, mentre sembra non avere avuto il successo atteso il suo SN Orkut, molto diffuso ma in realtà territoriali molto concentrate (Brasile) a dispetto dell’aspirazione globale del più famoso search engine del mondo.
Thursday, October 22, 2009
Guerre Stellari Episodio 3: I guadagni del cavaliere bianco....
Ieri una nuova notizia è rimbalzata in tutto il mondo: Apple, nel quarto trimestre dell’anno registra un +67% dei profitti, ben oltre le previsioni. 904 milioni di dollari grazie a Mac ed Iphone, mentre sembra non essere altrettanto brillante il risultato sugli Ipod. D’altra parte è stata proprio la strategia di Apple a puntare su queste due linee, con l’uscita di Snow Leopard a 64 bit ed il battage continuo su Iphone.
Non credo che questa notizia abbia il rango di un nuovo episodio, perché in realtà si tratta soprattutto dell’effetto delle strategie studiate in precedenza, ma se è vero che le strategie sono importanti, sono poi i risultati a sancire gli esiti delle grandi manovre di queste astronavi della tecnologia.
Investire in qualità paga ancor di più in tempi di crisi
Una riflessione però ha valenza indipendentemente dal comparto, la crisi che si è abbattuta su tutto il mondo sembra aver avuto conseguenze per tutti tranne che per Apple e pochi altri, segno che la strategia della qualità paga anche (o forse di più!) in momenti di vacche magre.
Concetto questo che viene amplificato dal fatto che la qualità Steve Jobs se la fa pagare e se la fa pagare anche bene… evidentemente anche (o soprattutto?) quando i soldi diminuiscono le persone preferiscono concentrare gli investimenti su prodotti di sicura affidabilità.
Un concetto vecchissimo che però non sembra essere sufficientemente chiaro agli imprenditori nostrani e non parliamo solo di tecnologia IT, nel cui campo siamo terreno coloniale di conquista e dove la scomparsa dell’Olivetti nelle ere geologiche precedenti ha definitivamente escluso l’Italia dalla competition mondiale, ma anche in tanti altri settori la concorrenza dei prodotti dall’oriente ha solo prodotto richieste di singolari “barriere doganali” protettive.
Il cavaliere bianco e quello nero
Ma torniamo alle guerre stellari.
Dunque Apple infligge un colpo anche psicologico agli avversari, colpo pesante in una guerra che dura da decenni anche grazie al dualismo mediatico dei due uomini simbolo, Bill Gates e Steve Jobs, con il primo che sembra effettivamente uscito dai giochi ed il secondo, tenuto fuori da una malattia, che rientra quasi come un eroe buono.
D’altronde i due hanno da sempre per il pubblico l’immagine del cavaliere bianco e di quello nero, Bill monopolista che ha sempre cercato di fare pesare la forza commerciale di questa posizione, dagli escamotage per far fuori i prodotti della concorrenza (la famosa lotta dei browser) al fiero ostracismo iniziale nei confronti di Internet, a ragion veduta immaginato come un fattore in grado di erodere le posizioni raggiunte. Quella posizione fu rapidamente rivista ma a mio avviso è stato il segnale che Microsoft ha difficoltà a studiare una efficace strategia che sfrutti le opportunità offerte dal web. Ora che internet è centrale nell’evoluzione del mercato Microsoft sembra in difficoltà rispetto ai competitors e prigioniera di un business model non particolarmente aggiornato.
Non voglio prender parte alla disputa sui colori dei cavalieri, anche perchè non è facile trovarne uno senza macchia di questi tempi, vedi le accuse mosse ad Apple a riguardo delle applicazioni certificate per Iphone alla voce VOIP!
Windows vs Mac
Aggiungo solo che questo dualismo è stato spesso alimentato dalla percezione da parte degli utenti di un sistema operativo, Windows, farraginoso e pesante, contro quello del Mac efficace ed anche meno sensibile agli effetti dei virus!!!
Questo non è sempre vero e qualche buco del leopardo bianco lo testimonia ma rimane oggettiva la differenza tra i due prodotti.
Bing ancora non ha dato un contributo determinante e Microsoft dunque aspetta di vedere cosa riuscirà ad ottenere dal Windows 7 con il quale spera di superare la non entusiasmante esperienza di Vista, ma non è certo ciò un segnale di efficace diversificazione. Totalmente all’opposto Google che tra Android, ora anche su netbook, e le esperienze di Google Wave e Google Voice sperimenta vie alternative soprattutto nel campo dei canali di comunicazione unificati.
E la guerra continua....
Ma Bing, Android e Google meritano un’altra puntata e questa, direbbe Lucarelli, è tutta un'altra storia.
continua..
Saturday, June 20, 2009
Viaggio nelle best practise del GREEN.IT e dell'ICT sostenibile: il ruolo dell'Enterprise Content Management in una paperless company
Abbiamo parlato nel precedente post che esistono alcune dimensioni immateriali percepite dal pubblico in maniera più rilevante di altre e che la valorizzazione di tali asset partecipa alla costruzione del valore dell’azienda. Tutte queste dimensioni si basano sul dominio e la condivisione della conoscenza.
L’obiettivo di raggiungere una paperless company non può ovviamente che essere legato ad una graduale adozione di processi operativi digitali, in quanto è necessario avere il tempo per capire le potenzialità offerte da questa pratica per adottarla diffusamente in azienda, avendo ben chiaro il discrimine tra attività possibili ed attività utili.

Non è solo un problema tecnologico ma necessita anche della valutazione dell'impatto sulla struttura
L’adozione infatti di una adeguata strategia ECM non si basa solo su una corretta implementazione tecnologica e funzionale, ma anche, anzi soprattutto, su una responsabile valutazione dell’impatto sulla struttura preesistente, in funzione delle potenziali resistenze culturali o psicologiche che una rivisitazione di un processo necessariamente comporta.
Il cambiamento di un processo, che non viene essenzialmente modificato nel suo workflow, se non per l’automazione di alcuni passaggi, avrà certamente un impatto limitato sul lavoro delle persone coinvolte, ma si corre il rischio di non perseguire tutti gli obiettivi di efficienza realmente raggiungibili. Di contro una eccessiva rimodulazione di un processo esistente può comportare una “teorica” ottimizzazione dei tempi, ma al tempo stesso si possono vedere ridurre i vantaggi effettivi a causa di un “rigetto” endogeno dell’organizzazione, evidentemente non in grado di recepire un cambiamento così radicale.
Inoltre la valutazione del ROI deve ovviamente tenere conto che i cambiamenti introdotti necessitano di formazione del personale coinvolto, ed il peso di tale costo non può essere trascurato nella valutazione dei benefici.
Un processo ricorsivo
La riorganizzazione del flusso dei processi operativi è un processo costante e ricorsivo che può essere suddiviso in 4 fase in stretta relazione
Come si è detto la re-ingegnerizzazione dei processi trova le sue basi nell’adozione di una valida strategia e strumenti ECM. Anche L’Enterprise Content Management può essere scomposto in quattro fasi tra loro collegate in un processo perennemente ricorsivo:
L’obiettivo di raggiungere una paperless company non può ovviamente che essere legato ad una graduale adozione di processi operativi digitali, in quanto è necessario avere il tempo per capire le potenzialità offerte da questa pratica per adottarla diffusamente in azienda, avendo ben chiaro il discrimine tra attività possibili ed attività utili.

Non è solo un problema tecnologico ma necessita anche della valutazione dell'impatto sulla struttura
L’adozione infatti di una adeguata strategia ECM non si basa solo su una corretta implementazione tecnologica e funzionale, ma anche, anzi soprattutto, su una responsabile valutazione dell’impatto sulla struttura preesistente, in funzione delle potenziali resistenze culturali o psicologiche che una rivisitazione di un processo necessariamente comporta.
Il cambiamento di un processo, che non viene essenzialmente modificato nel suo workflow, se non per l’automazione di alcuni passaggi, avrà certamente un impatto limitato sul lavoro delle persone coinvolte, ma si corre il rischio di non perseguire tutti gli obiettivi di efficienza realmente raggiungibili. Di contro una eccessiva rimodulazione di un processo esistente può comportare una “teorica” ottimizzazione dei tempi, ma al tempo stesso si possono vedere ridurre i vantaggi effettivi a causa di un “rigetto” endogeno dell’organizzazione, evidentemente non in grado di recepire un cambiamento così radicale.
Inoltre la valutazione del ROI deve ovviamente tenere conto che i cambiamenti introdotti necessitano di formazione del personale coinvolto, ed il peso di tale costo non può essere trascurato nella valutazione dei benefici.
Un processo ricorsivo
La riorganizzazione del flusso dei processi operativi è un processo costante e ricorsivo che può essere suddiviso in 4 fase in stretta relazione
- Assessment dei processi
- Analisi
- Ottimizzazione del workflow e degli strumenti
- Valutazione dei risultati ed elaborazione delle metriche di misurazione
Come si è detto la re-ingegnerizzazione dei processi trova le sue basi nell’adozione di una valida strategia e strumenti ECM. Anche L’Enterprise Content Management può essere scomposto in quattro fasi tra loro collegate in un processo perennemente ricorsivo:
- Analisi ed integrazione dei sistemi di alimentazione delle informazioni
- Organizzazione, categorizzazione ed archiviazione dei contenuti
- Integrazioni con le altre informazioni e sistemi aziendali
- Distribuzione ed arricchimento delle informazioni integrate

Tuesday, May 26, 2009
Viaggio nelle best practise del GREEN.IT e dell'ICT sostenibile: Enterprise Content Management e valore degli asset intangibili
Questa serie di post prosegue di pari passo con i miei spostamenti, ora è un Milano-Roma a darmi il tempo di lavorarci su.
La precedente parte era dedicata allo scenario cui fanno riferimento i progetti di ECM, che riconducono la propria efficacia alla ricerca di migliori processi aziendali ed alla riduzione dei consumi e dei relativi costi.
Dalla Gestione Documentale all'Enterprise Content Management
Un problema complesso e di forte impatto sulle aziende, essendo molto più che una semplice gestione di documenti, perché ormai da tempo si è superata la visione un troppo semplificata dei primi anni del document management. Si pensi che, mediamente, in strutture organizzative più o meno complesse l’insieme delle informazioni gestite è costituita per il 20% da dati strutturati e per l’80% da documenti di diversa natura, riconducibili all’insieme dei dati non strutturati.

I processi operativi utilizzano principalmente questo secondo insieme per lo scambio di informazioni tra le diverse unità che costituiscono la struttura, aumentando di fatto il peso con cui tale la tipologia di informazioni incide sull’efficienza dei processi.
Tanto più questi documenti circolano in formato non digitale, tanto più l’overhead, indotto dalla gestione fisica dei supporti, produce un aumento dei costi ed il rallentamento dell’iter lavorativo. Ci si trova di fronte a problemi di diversa natura quali, per esempio, quelli legati:
Recupero di efficienza, riduzione dei costi e ricerca del vantaggio competitivo
La parola d’ordine che più frequentemente si ascolta dai nostri interlocutori è infatti: “riduzione dei costi”, accompagnata però, sempre più spesso, anche da una ricerca di maggiore competitività sui mercati, concetti in apparente contraddizione, ma in realtà sostenuti dallo scenario internazionale corrente che impone una maggiore profittabilità degli investimenti.

Se la prima necessità, quella della riduzione dei costi, può essere soddisfatta da un’assessment dell’organizzazione e dei processi e dallo studio di miglioramenti compatibili con la necessità di investimento, la ricerca di vantaggi competitivi risulta sicuramente meno facilmente perseguibile.
La crescita attraverso la valorizzazzione degli asset intangibili
E' in questo caso però che si riesce ad esaltare il valore dell’informazione ed in particolare di quella parte di conoscenza non sempre immediatamente rilevabile. Uno studio di qualche anno fa della Federal Reserve evidenziava che il valore delle aziende sia determinato per una parte da asset tangibili ma per una parte altrettanto grande da asset intangibili, con una riduzione del peso dei primi 78% al 53%, come viene anche descritto in questo documento della Bocconi. Ciò mette in luce come l'emersione di un valore, di per se difficilmente misurabile quali appunto gli asset intangibili, contribuisce alla costruzione del valore, questa volta tangibile, dell'azienda, in misura praticamente pari al patrimonio, cosidetto reale . Sono molte le dimensioni con le quali può essere declinato il valore intangibile di una azienda quali:
La precedente parte era dedicata allo scenario cui fanno riferimento i progetti di ECM, che riconducono la propria efficacia alla ricerca di migliori processi aziendali ed alla riduzione dei consumi e dei relativi costi.
Dalla Gestione Documentale all'Enterprise Content Management
Un problema complesso e di forte impatto sulle aziende, essendo molto più che una semplice gestione di documenti, perché ormai da tempo si è superata la visione un troppo semplificata dei primi anni del document management. Si pensi che, mediamente, in strutture organizzative più o meno complesse l’insieme delle informazioni gestite è costituita per il 20% da dati strutturati e per l’80% da documenti di diversa natura, riconducibili all’insieme dei dati non strutturati.
I processi operativi utilizzano principalmente questo secondo insieme per lo scambio di informazioni tra le diverse unità che costituiscono la struttura, aumentando di fatto il peso con cui tale la tipologia di informazioni incide sull’efficienza dei processi.
Tanto più questi documenti circolano in formato non digitale, tanto più l’overhead, indotto dalla gestione fisica dei supporti, produce un aumento dei costi ed il rallentamento dell’iter lavorativo. Ci si trova di fronte a problemi di diversa natura quali, per esempio, quelli legati:
- Allo spostamento dei documenti in sedi geograficamente remote o meno
- Alla conservazione dei materiali
- Alla fruibilità del documento originale
- Alla difficoltà di raccogliere statistiche e definire metriche per la misurazione delle performance
Recupero di efficienza, riduzione dei costi e ricerca del vantaggio competitivo
La parola d’ordine che più frequentemente si ascolta dai nostri interlocutori è infatti: “riduzione dei costi”, accompagnata però, sempre più spesso, anche da una ricerca di maggiore competitività sui mercati, concetti in apparente contraddizione, ma in realtà sostenuti dallo scenario internazionale corrente che impone una maggiore profittabilità degli investimenti.
Se la prima necessità, quella della riduzione dei costi, può essere soddisfatta da un’assessment dell’organizzazione e dei processi e dallo studio di miglioramenti compatibili con la necessità di investimento, la ricerca di vantaggi competitivi risulta sicuramente meno facilmente perseguibile.
La crescita attraverso la valorizzazzione degli asset intangibili
E' in questo caso però che si riesce ad esaltare il valore dell’informazione ed in particolare di quella parte di conoscenza non sempre immediatamente rilevabile. Uno studio di qualche anno fa della Federal Reserve evidenziava che il valore delle aziende sia determinato per una parte da asset tangibili ma per una parte altrettanto grande da asset intangibili, con una riduzione del peso dei primi 78% al 53%, come viene anche descritto in questo documento della Bocconi. Ciò mette in luce come l'emersione di un valore, di per se difficilmente misurabile quali appunto gli asset intangibili, contribuisce alla costruzione del valore, questa volta tangibile, dell'azienda, in misura praticamente pari al patrimonio, cosidetto reale . Sono molte le dimensioni con le quali può essere declinato il valore intangibile di una azienda quali:
- Forza del management
- Reputazione, comunicazione e trasparenza
- Strategie e loro esecuzione
- Processi
- Network di relazioni
- Capitale intellettuale ed umano
- Capacità di innovazione
Monday, May 4, 2009
Comunicazione e Capitale umano in tempo di crisi, il 91% degli impiegati vuole condividere le informazioni, se ne discute il 7 maggio all’OPEN DAY
Qualche giorno fa ho ricevuto l’invito per giovedi 7 maggio all’Open Day (viale Ergisto Bezzi 2) organizzato da IQM selezione e Krauthammer (multinazionale che fornisce servizi di Consulenza, Formazione manageriale e Coaching) ed è stata l’occasione per una riflessione sulla percezione del capitale rappresentato dalle risorse nel bel mezzo di questa “grande crisi”.
Alberto Baggini, CEO di IQM e professore al Politecnico di Milano, è stata una delle persone che per prime hanno animato le discussioni sul mio blog con una intervista sull’argomento “capitale umano”, arricchendolo del particolare punto di vista di chi ha il compito di valutare candidati per una eventuale assunzione.
Manager all'altezza della crisi?
Avevamo parlato delle differenti tipologie di intelligenza e di come tali abilità devono essere calibrate rispetto alle reali esigenze della azienda che sta ricercando personale, di come sia importante far emergere le reali caratteristiche ed in particolare Alberto Baggini aveva evidenziato che nel suo lavoro “ colloqui sotto stress consentono di valutare le reazioni dei candidati di fronte a reazioni non prevedibili o difficilmente inquadrabili, in modo che il nostro interlocutore non possa mettere in atto un comportamento consolidato ma debba mettere in gioco il proprio istinto, la propria capacità di improvvisazione e di gestione delle criticità, che sono poi requisiti fondamentali di fronte a richieste endogene od esogene di adattamento”.
Se è vero che spesso in tempi normali le doti di leadership di un manager non vengono sottoposte a stress particolari, fusioni, cali di risorse finanziarie o di quote di mercato fanno esplodere in tutta evidenza le contraddizioni di manager non adeguati al ruolo che ricoprono.
Il costo aziendale di professionalità inadeguate e la "distanza" tra manager ed impiegati
La valutazione di un candidato (sia manager o meno) ha una grande criticità ed un peso nella vita aziendale successiva, perché ovviamente l’introduzione in una struttura di professionisti non adeguati al ruolo ha un peso crescente, quanto più diminuiscono le dimensioni della società e quanto più la crisi erode i margini operativi.
Leggiamo da più parti che la crisi “rappresenta una opportunità” , ricorrendo ad un raffigurazione benevola della realtà, in quanto sarebbe molto più corretto dire che la crisi è uno “stimolo” a mettere in piedi un processo maggiormente virtuoso, nel controllo dei costi e nella valorizzazione degli asset.
L’opportunità è infatti un evento puntuale che si presenta limitato nel tempo, mentre la necessità di migliorare processi e strutture è permanente, ciò che cambia è solo la percezione dell’urgenza con cui porre rimedio a disfunzioni e disservizi, urgenza che in tempi di crescita viene solamente nascosta dall’andamento positivo di una azienda.
Questa “opportunità” però, anche durante la crisi (o soprattutto?), rimane spesso uno slogan scritto sui giornali, perché un periodo di recessione non fa altro che amplificare la necessità di tagli e tali tagli vengono spesso realizzati sulla base solo di criteri “immediatamente” economici, senza valutazioni sui valori intrinseci e sulle prospettive di medio e lungo termine. La contrazione del mercato, a mio avviso, non fa ha altro che amplificare il muro che spesso esiste tra livelli di management diverso e tra manager ed impiegati.
La comunicazione e la condivisione come valore aziendale e qualità di un manager
Proprio il comunicato stampa dell OPEN DAY contiene alcune statistiche che sostengono tale percezione “Da un’indagine realizzata a livello europeo da consulenti esperti di formazione e coaching manageriale facenti parte di Krauthammer è emerso che la maggior parte dei manager non riesce a soddisfare le esigenze dei dipendenti e conseguentemente neanche quelle aziendali. I dipendenti desiderano essere informati dai loro manager sulle decisioni prese e che queste ultime siano contestualizzate e accompagnate da chiarimenti. Il 40% dei manager soddisfa tale richiesta, tuttavia, più di un terzo (35%) ha la tendenza a limitarsi ai fatti e ai dettagli; il 25% ha un atteggiamento opposto, ossia fornisce spiegazioni imprecise e vaghe. Quando i dipendenti riscontrano difficoltà nell'eseguire un compito, il 91% di essi desidera analizzare i problemi insieme ai manager, ma solo il 47% dei manager si comporta in tal modo, mentre un terzo (31%) tende a fornire ai dipendenti un'analisi personale, senza consultarli. Il migliore leader in tempi di crisi è colui che non minimizza questi aspetti, contribuendo a rendere meno “esplosiva” una situazione già critica. È importante mantenere alti i livelli di comunicazione con i propri dipendenti: essere trasparenti sulla situazione aziendale e sulle strategie adottate, chiamando a raccolta tutte le forze in campo e assumendo un diverso atteggiamento verso i contributi altrui”.
Troppo spesso invece il detenere informazione viene considerato un valore, in virtù dell'ossequio all'obsoleto "divide et impera", un valore finalizzato al mantenimento ed all'accrescimento del peso della propria posizione nella struttura aziendale, a prescindere se tali atteggiamenti abbiamo o meno una ricaduta sull'organizzazione e sui risultati aziendali. Ricaduta che esiste e che troppo spesso è negativa.
OPEN DAY
Avendolo citato all’inizio del post chiudo solo con una nota proprio sull’OPEN DAY, un’iniziativa che ha l’obiettivo di far incontrare e discutere professionisti, specialisti e manager sulla comunicazione e sul valore del capitale rappresentato dalle persone e dalla loro competenza. Si terrà giovedì 7 Maggio 2009 in viale Ergisto Bezzi 2, dal mattino alla serà e vedrà wokshop, incontri personalizzati e momenti di discussione. Per chi è interessato può scrivere a info@iqmselezione.it
Alberto Baggini, CEO di IQM e professore al Politecnico di Milano, è stata una delle persone che per prime hanno animato le discussioni sul mio blog con una intervista sull’argomento “capitale umano”, arricchendolo del particolare punto di vista di chi ha il compito di valutare candidati per una eventuale assunzione.
Manager all'altezza della crisi?
Avevamo parlato delle differenti tipologie di intelligenza e di come tali abilità devono essere calibrate rispetto alle reali esigenze della azienda che sta ricercando personale, di come sia importante far emergere le reali caratteristiche ed in particolare Alberto Baggini aveva evidenziato che nel suo lavoro “ colloqui sotto stress consentono di valutare le reazioni dei candidati di fronte a reazioni non prevedibili o difficilmente inquadrabili, in modo che il nostro interlocutore non possa mettere in atto un comportamento consolidato ma debba mettere in gioco il proprio istinto, la propria capacità di improvvisazione e di gestione delle criticità, che sono poi requisiti fondamentali di fronte a richieste endogene od esogene di adattamento”.
Se è vero che spesso in tempi normali le doti di leadership di un manager non vengono sottoposte a stress particolari, fusioni, cali di risorse finanziarie o di quote di mercato fanno esplodere in tutta evidenza le contraddizioni di manager non adeguati al ruolo che ricoprono.
Il costo aziendale di professionalità inadeguate e la "distanza" tra manager ed impiegati
La valutazione di un candidato (sia manager o meno) ha una grande criticità ed un peso nella vita aziendale successiva, perché ovviamente l’introduzione in una struttura di professionisti non adeguati al ruolo ha un peso crescente, quanto più diminuiscono le dimensioni della società e quanto più la crisi erode i margini operativi.
Leggiamo da più parti che la crisi “rappresenta una opportunità” , ricorrendo ad un raffigurazione benevola della realtà, in quanto sarebbe molto più corretto dire che la crisi è uno “stimolo” a mettere in piedi un processo maggiormente virtuoso, nel controllo dei costi e nella valorizzazione degli asset.
L’opportunità è infatti un evento puntuale che si presenta limitato nel tempo, mentre la necessità di migliorare processi e strutture è permanente, ciò che cambia è solo la percezione dell’urgenza con cui porre rimedio a disfunzioni e disservizi, urgenza che in tempi di crescita viene solamente nascosta dall’andamento positivo di una azienda.
Questa “opportunità” però, anche durante la crisi (o soprattutto?), rimane spesso uno slogan scritto sui giornali, perché un periodo di recessione non fa altro che amplificare la necessità di tagli e tali tagli vengono spesso realizzati sulla base solo di criteri “immediatamente” economici, senza valutazioni sui valori intrinseci e sulle prospettive di medio e lungo termine. La contrazione del mercato, a mio avviso, non fa ha altro che amplificare il muro che spesso esiste tra livelli di management diverso e tra manager ed impiegati.
La comunicazione e la condivisione come valore aziendale e qualità di un manager
Proprio il comunicato stampa dell OPEN DAY contiene alcune statistiche che sostengono tale percezione “Da un’indagine realizzata a livello europeo da consulenti esperti di formazione e coaching manageriale facenti parte di Krauthammer è emerso che la maggior parte dei manager non riesce a soddisfare le esigenze dei dipendenti e conseguentemente neanche quelle aziendali. I dipendenti desiderano essere informati dai loro manager sulle decisioni prese e che queste ultime siano contestualizzate e accompagnate da chiarimenti. Il 40% dei manager soddisfa tale richiesta, tuttavia, più di un terzo (35%) ha la tendenza a limitarsi ai fatti e ai dettagli; il 25% ha un atteggiamento opposto, ossia fornisce spiegazioni imprecise e vaghe. Quando i dipendenti riscontrano difficoltà nell'eseguire un compito, il 91% di essi desidera analizzare i problemi insieme ai manager, ma solo il 47% dei manager si comporta in tal modo, mentre un terzo (31%) tende a fornire ai dipendenti un'analisi personale, senza consultarli. Il migliore leader in tempi di crisi è colui che non minimizza questi aspetti, contribuendo a rendere meno “esplosiva” una situazione già critica. È importante mantenere alti i livelli di comunicazione con i propri dipendenti: essere trasparenti sulla situazione aziendale e sulle strategie adottate, chiamando a raccolta tutte le forze in campo e assumendo un diverso atteggiamento verso i contributi altrui”.
Troppo spesso invece il detenere informazione viene considerato un valore, in virtù dell'ossequio all'obsoleto "divide et impera", un valore finalizzato al mantenimento ed all'accrescimento del peso della propria posizione nella struttura aziendale, a prescindere se tali atteggiamenti abbiamo o meno una ricaduta sull'organizzazione e sui risultati aziendali. Ricaduta che esiste e che troppo spesso è negativa.
OPEN DAY
Avendolo citato all’inizio del post chiudo solo con una nota proprio sull’OPEN DAY, un’iniziativa che ha l’obiettivo di far incontrare e discutere professionisti, specialisti e manager sulla comunicazione e sul valore del capitale rappresentato dalle persone e dalla loro competenza. Si terrà giovedì 7 Maggio 2009 in viale Ergisto Bezzi 2, dal mattino alla serà e vedrà wokshop, incontri personalizzati e momenti di discussione. Per chi è interessato può scrivere a info@iqmselezione.it
Tuesday, March 3, 2009
Il Social banking sposa il cellulare in Sudafrica con Wizzit la Mobile Bank degli unbanked: parte seconda, gli aspetti sociali

Approfondimenti sui servizi sono contenuti anche negli altri articoli citati e sul sito della banca, per cui evito di scrivere cose già descritte da altri e passo ad analizzare i tre focus point che ho individuato.
La componente sociale.
Questa banca si inserisce a pieno titolo nelle iniziative volte ad offrire servizi a persone che tradizionalmente trovano poco credito (non solo finanziario, ma anche in termini di assistenza) presso le banche tradizionali, ricordiamo a questo proposito il Social Lending , il prestito tra privati, che in Italia è arrivato grazie a due iniziative diverse, Boober e Zopa, come la Grameen Bank, ovvero la banca dei poveri in India, o il circuito Kiva che è nato per favorire il microcredito nei confronti dei paese meno ricchi del globo.
In Italia anche un colosso come Unicredit si è mosso in qualche modo in questa direzione creando Agenzia Tu, ovvero sportelli focalizzati su servizi agli immigrati, con personale non solo multi-lingua ma anche “multi-etnico”.
Sempre Unicredit rilancia ora con un progetto ben più significativo sotto il profilo sociale, insieme con L’Università di Bologna sarà il partner italiano per il lancio della Grameen Bank Italia.

Nell’intervista evidenzia il paradosso costituito dalla situazione attuale, la sua banca presta soldi a fronte di garanzie quali “polli, maiali e verdura” e non ha problemi, mentre le banche tradizionali che vogliono solo clienti già ricchi e richiedono garanzie da favola, scoprono spesso che queste si rivelano “carta e carta costruita su carta” e determinano situazioni come quella attuale.
"La morale è semplice:i poveri, alla fine, sono clienti migliori.”, chiosa il premio Nobel.
La crisi come opportunità
Altri due punti però emergono nella medesima intervista, se è vero che il sistema oggi sta cedendo, il momento va vissuto come un’opportunità per ricostruirlo in maniera migliore.
Yunus fa notare che la crisi finanziaria trascina con se anche il mondo industriale, che va in crisi quando le banche riducono il credito. Ciò rende evidente perché che è difficile uscire da situazioni di povertà, come nei due terzi del Globo, dove non si ha accesso al credito. L’auspicio di Muhammad Yunus è che un nuovo sistema economico, più “inclusivo”, potrà aiutare a riequilibrare le disparità attuali.
L’ultimo punto riguarda un tema che spesso ho trattato nel mio blog in tema di impegno sociale e trasferimento di tecnologia. Yunus ricorda “le grandi aziende detengono la tecnologia e la creatività per risolvere i problemi del mondo, possono metterli a disposizione di progetti in grado di autosostenersi economicamente”. Proprio le banche, i maggiori investitori in IT, rappresentano la potenziale chiave di volta per innescare un ciclo virtuoso in questo ambito.
A tutte le iniziative citate o alle altre riconducibili al tema del Social Banking sarebbe possibile assegnare un “rating sociale” per differenziare quali nascono soprattutto con la mission di servire la collettività e quali invece hanno eminentemente il compito di puntare a nicchie non tradizionali di mercato. Ma ignorerei tale differenziazione, perché da un lato questi progetti devo avere una organizzazione economica che le renda stabili nel tempo, dall’altro mi accontenterei semplicemente dei loro effetti positivi.
In ogni caso bisogna riconoscere a tutti un’attenzione, che spesso non viene dedicata, alle persone meno fortunate.
Se il Social Banking è anche Green Banking
Un secondo aspetto sociale riguarda poi le positive ricadute in termini ambientali del mobile banking, che riduce da un lato le emissioni diminuendo i trasferimenti delle persone ma anche del denaro contante.

La riduzione degli altri costi di gestione del cartaceo, in primis l’utilizzo della stessa carta, fanno del mobile banking una risorsa anche per i paesi occidentali, nei quali non sussistono le carenze infrastrutturali ed i livelli di povertà delle popolazioni del continente africano.
Questo aspetto ambientalista riconducibile all’interno del trend del Green Banking non viene particolarmente enfatizzato da Wizzit, ma ne rimane comunque una ulteriore qualità
Wednesday, February 11, 2009
Green banking, Green economy, Green IT... il mondo è sempre più Green!!! La coscienza ambientalista comincia ad essere una competenza professionale

Credo che questo salto sia decisamente importante perché gran parte del nostro tempo viene speso sul posto di lavoro e fino ad ora una errata interpretazione del concetto business is business ha rappresentato tale approccio verde soprattutto come un onere. Stiamo passando da come ciascuno di noi può imparare a "Salvare il mondo senza essere Superman" ad un approccio strutturato e collettivo.
Ora però anche il nuovo presidente degli Stati Uniti, Barak Obama ha ripudiato la politica “petrolifera” del suo predecessore ed il mondo industriale comincia fare la sua parte, spinto da maggiore consapevolezza sedimentatasi nel tempo, piuttosto che da motivi di opportunità economica, come riduzione costi o politiche di marketing basate sulla Social Responsibility.
Questa mattina aprendo la mia posta mi sono trovato una newsletter della banca che mi raccontava dell’iniziativa www.ambiente.quiubi.it “nata per sensibilizzare i clienti del Gruppo UBI Banca sul tema della sostenibilità ambientale.” La newletter proseguiva “In primo luogo, utilizzando attivamente Qui UBI internet banking anche tu puoi partecipare in prima persona alla riduzione di emissioni di CO2 per minori spostamenti verso la filiale e alla diminuzione di consumi di carta, scegliendo di ricevere gratuitamente estratti conto e altri documenti tramite internet”.
Guardo con interesse queste iniziative perchè credo che ci sia ancora molto da fare a riguardo dell'alfabetizzazione "Verde" delle persone. Mi è venuto infatti in mente un articolo di qualche mese fa in cui, esaminando i dati sui comportamenti dei correntisti, si rilevava che, a fronte di un 43% di consumatori che dichiarano di preferire aziende con grande sensibilità ambientale, il 75% dei correntisti intrattiene con le proprie banche un rapporto ancora fortemente improntato allo scambio di documentazione scritta.
Evidenziata questa contraddizione da parte dei consumatori, l’articolo proseguiva esaminando alcune leve da utilizzare per ridurre l’impatto sull’ambiente, dall’ovvia smaterializzazione dei documenti, all’utilizzo più evoluto del mobile banking, al fine di ridurre trasferimenti verso filiali locali o ATM/bancomat e conseguentemente ridurre l’emissioni inquinanti.
Le banche sono tra i principali investitori in IT in tutto il mondo e portano forte la responsabilità di accelerare il processo attraverso comportamenti virtuosi, ma è altrettanto evidente che ciò passa per una effettiva e completa consapevolezza da parte dei consumatori che anche loro devono fare la propria parte.
Non a caso l’iniziativa di UBI si appoggia, come forma di comunicazione, ad un concorso, per favorire evidentemente la ricezione di un concetto probabilmente di grande impatto, ma che spesso non viene sempre tradotto in azioni concrete. Un po’ più di un anno fa notavo come ancora c’era molta ritrosia nell’utilizzo dei sistemi di internet banking da parte degli italiani, perché, evidentemente, i timori nell’utilizzo del web per transazioni finanziare sono più forti della volontà di mettere in campo comportamenti virtuosi. Anche i dati successivi confermano quell'analisi.
In un altro articolo di ZeroUno, si riferisce della ricerca di IDC “Green IT Barometer” da cui emerge che quasi la metà delle grandi aziende sta cominciando ad adottare una politica di investimenti nell IT ispirata ai concetti della crescita sostenibile. Le motivazioni, come detto, si collocano a metà tra le politiche di CSR, quindi marketing oriented, e ricerca di ottimizzare i costi.
Si osserva infatti nell’articolo che “ogni Euro investito in un server ne genera 7 per la sua gestione nell’intero ciclo di vita, e che la gestione dell’infrastruttura energetica diviene un fattore critico”. Nella nostra azienda la virtualizzazione dei server e l’utilizzo di altre attrezzature maggiormente eco-compatibili ha prodotto un risparmio del 5-6% sui costi energetici.
L'inchiesta evidenzia che non mancano ovviamente le voci contrarie, chi ritiene che ciò possa essere addirittura “rischioso” (19%) o comunque di non avere competenze a sufficienza (41%) per portare avanti un tale progetto.
Ma la capacità di intervento delle banche non si limita all’infrastruttura IT, in quanto soggetti in grado anche di finanziare e quindi promuovere la produzione di energia rinnovabile.
HSBC leader bancario e finanziario mondiale, dal 2007 ha dato inizio al progetto "Climate Confidence Index", per misurare l'attitudini dei consumatori, nel mondo e nel tempo, e molte altre iniziative stanno partendo in tutto il mondo, pinte sia da motivazioni reali che di opportunità
In Italia è nato anche un premio, il Green Globe Banking perche “Il sistema bancario può e deve assumere oggi un ruolo fondamentale nell’incentivare l’adozione di pratiche virtuose in campo ambientale, promuovendo temi della “finanza ecocompatibile” con politiche istituzionali, strategie di impieghi/raccolta e logiche di investimento che soddisfino bisogni di target sempre più trasversali”. La prima edizione del premio è stata vinta da Intesasanpaolo.
Uno dei suoi animatori il Professor Marco Fedeli, docente di Marketing ed Economia Aziendale dell’Università di Genova, parlando di Green Economy ricorda che “Qualcuno parla addirittura di rivoluzione ambientale dopo le due grandi rivoluzioni, agricola e industriale, che hanno segnato la storia dell’umanità”. Enfasi a parte, il mondo del lavoro sembra muoversi, forse ancora troppo lentamente, ma è compito di ciascuno di noi accelerare tale processo.
Altri articoli:
Green.IT, la tecnologia sostenibile
Una proposta per l'Ambiente
Thursday, January 22, 2009
Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte terza): il processo di auto-apprendimento del sistema
Continuando l’approfondimento sulla business intelligence di livello avanzato, ritengo sia interessante esplodere il concetto di auto-apprendimento dei sistemi.
Come si è detto nei post precedenti il valore costituito dalla competenza dell’esperto è complementare a qualunque base dati, per quanto esaustiva, che una azienda abbia potuto predisporre per descrivere la propria conoscenza, sopratutto perché l’aumento delle informazioni disponibili, conseguente alla rivoluzione digitale, ha reso ancor più determinante la capacità interpretativa dei dati dell'esperto al fine di estrarre informazione di sintesi.
Al tempo stesso questa capacità risulta sempre meno utilizzabile in maniera non automatica con il crescere delle informazioni da esaminare ed è difficilmente formalizzabile, ma gli strumenti basati su modelli statistici contribuiscono a rendere “computabile” questo know how implicito. Vediamo per esempio come potrebbe funzionare un modello basato sull’analisi discriminante.
L’analisi discriminante tenta di identificare le variabili che, appunto, “discriminano”, l’appartenenza ad un gruppo piuttosto che un altro e ad individuare le funzioni lineari che meglio descrivono e chiariscono l’appartenenza ad un gruppo. Si tratta in definitiva delle sommatorie di variabili indipendenti “pesate”, con un processo che è finalizzato all’individuazione di set di pesi che, meglio di altri, collochino un evento descritto dalle variabile in un gruppo piuttosto che un altro. In definitiva si ricerca cosa differenzia in sostanza i due gruppi.
L’analisi discriminante è basata sull’esplorazione di un set di casi, in cui gli eventi vengono suddivisi in gruppi logici ed il percorso di apprendimento consiste proprio nell’identificazione dei pesi delle possibili funzioni lineari che descrivono gli eventi, con la individuazione di quelle che minimizzano quanto più possibile l’area grigia cui possono appartenere eventi dei gruppi distinti.
La definizione dei casi campione è il modo in cui l’esperto comunica al sistema la propria conoscenza e ne determina il percorso di apprendimento. Alla fine di questo il sistema è in grado di analizzare nuovi eventi ed assegnare loro uno scoring, la probabilità che l’evento appartenga ad un insieme o ad un altro.
Ma rifacciamo un passo indietro, ovvero a come avviene il trasferimento di competenza. Il primo step è costituito dalla “segmentazione” ovvero lo studio delle informazioni presenti per individuare quali sono le categorie di informazioni in grado di rappresentare gli eventi e se esistono dati storici adeguati ad attivare il processo di auto apprendimento.
La “selezione” delle variabili consiste nella ricognizione delle stesse per identificare quelle rilevanti ai fini dello studio in oggetto.
Occorre osservare che diventa determinante la corretta identificazione delle variabili e l’eventuale correlazione tra esse perché si possa realmente valutare il peso discriminate delle singola variabile
Il processo di apprendimento termina con la validazione dei modelli con l’applicazione degli stessi ad un numero significativo di casi campione per determinare, sempre con tecniche statistiche, la rilevanza dell’errore atteso.
In realtà, potenzialmente, il processo prosegue durante l’esercizio stesso del sistema perché possono essere definiti degli ulteriori punti di sincronizzazione del sistema, nei quali i risultati stessi dell’attività di analisi possono essere forniti al sistema come feedback, per ampliare/aggiornare i casi campione e rifinire ulteriormente i modelli, variando eventualmente i pesi, in relazione alle modifiche introdotte dal tempo sul corso degli eventi.
Questa caratteristica di continua ricorsività costituisce evidentemente un ulteriore plus di questo approccio che non è più statico o modificato su precisa e formale analisi dell’uomo che interviene a cambiare le impostazioni iniziali, ma è lo strumento stesso che offre la base informativa ed i mezzi per avviare un processo di revisione.
I casi cui tale metodo può essere utilizzato sono moltissimi nella abituale operatività aziendale, a fini “repressivi” e di indagine, ovvero determinare che un certo evento sia fraudolento o nocivo (tentativo di frode o di intrusione, possibilità che un cliente non restituisca un prestito, possibilità che stia per verificarsi un crash di un servizio critico) di “allerta” commerciale (comportamento che indica la propensione di un cliente ad abbandonare un il suo fornitore, appartenenza di una persona ad un target specifico).
Come si è detto nei post precedenti il valore costituito dalla competenza dell’esperto è complementare a qualunque base dati, per quanto esaustiva, che una azienda abbia potuto predisporre per descrivere la propria conoscenza, sopratutto perché l’aumento delle informazioni disponibili, conseguente alla rivoluzione digitale, ha reso ancor più determinante la capacità interpretativa dei dati dell'esperto al fine di estrarre informazione di sintesi.
Al tempo stesso questa capacità risulta sempre meno utilizzabile in maniera non automatica con il crescere delle informazioni da esaminare ed è difficilmente formalizzabile, ma gli strumenti basati su modelli statistici contribuiscono a rendere “computabile” questo know how implicito. Vediamo per esempio come potrebbe funzionare un modello basato sull’analisi discriminante.
L’analisi discriminante tenta di identificare le variabili che, appunto, “discriminano”, l’appartenenza ad un gruppo piuttosto che un altro e ad individuare le funzioni lineari che meglio descrivono e chiariscono l’appartenenza ad un gruppo. Si tratta in definitiva delle sommatorie di variabili indipendenti “pesate”, con un processo che è finalizzato all’individuazione di set di pesi che, meglio di altri, collochino un evento descritto dalle variabile in un gruppo piuttosto che un altro. In definitiva si ricerca cosa differenzia in sostanza i due gruppi.
L’analisi discriminante è basata sull’esplorazione di un set di casi, in cui gli eventi vengono suddivisi in gruppi logici ed il percorso di apprendimento consiste proprio nell’identificazione dei pesi delle possibili funzioni lineari che descrivono gli eventi, con la individuazione di quelle che minimizzano quanto più possibile l’area grigia cui possono appartenere eventi dei gruppi distinti.
Ma rifacciamo un passo indietro, ovvero a come avviene il trasferimento di competenza. Il primo step è costituito dalla “segmentazione” ovvero lo studio delle informazioni presenti per individuare quali sono le categorie di informazioni in grado di rappresentare gli eventi e se esistono dati storici adeguati ad attivare il processo di auto apprendimento.
La “selezione” delle variabili consiste nella ricognizione delle stesse per identificare quelle rilevanti ai fini dello studio in oggetto.
Occorre osservare che diventa determinante la corretta identificazione delle variabili e l’eventuale correlazione tra esse perché si possa realmente valutare il peso discriminate delle singola variabile
Il processo di apprendimento termina con la validazione dei modelli con l’applicazione degli stessi ad un numero significativo di casi campione per determinare, sempre con tecniche statistiche, la rilevanza dell’errore atteso.
In realtà, potenzialmente, il processo prosegue durante l’esercizio stesso del sistema perché possono essere definiti degli ulteriori punti di sincronizzazione del sistema, nei quali i risultati stessi dell’attività di analisi possono essere forniti al sistema come feedback, per ampliare/aggiornare i casi campione e rifinire ulteriormente i modelli, variando eventualmente i pesi, in relazione alle modifiche introdotte dal tempo sul corso degli eventi.
I casi cui tale metodo può essere utilizzato sono moltissimi nella abituale operatività aziendale, a fini “repressivi” e di indagine, ovvero determinare che un certo evento sia fraudolento o nocivo (tentativo di frode o di intrusione, possibilità che un cliente non restituisca un prestito, possibilità che stia per verificarsi un crash di un servizio critico) di “allerta” commerciale (comportamento che indica la propensione di un cliente ad abbandonare un il suo fornitore, appartenenza di una persona ad un target specifico).
Labels:
Aziende,
banca,
business intelligence,
eccellenza,
innovazione
Thursday, January 15, 2009
Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte seconda): il trasferimento di competenza tra uomo e macchina
Abbiamo osservato nel precedente post una differenza tra BI di base ed avanzata e proviamo ad analizzare un po’ più in dettaglio in cosa consiste questa secondo più evoluto livello della business intelligence.
Appartengono, per esempio, a questa fascia di applicazioni quei sistemi basati sulla capacità del sistema di applicare modelli statistici all’analisi degli eventi presenti e passati per ottenere indicazioni sul comportamento futuro.
Analisi del passato per predirre il futuro
Tutto ciò avviene dopo che il sistema ha subito un periodo di “addestramento”, durante il quale degli esperti cercano di trasferire al sistema stesso la propria competenza. Questo trasferimento di conoscenza avviene indicando al sistema quali risultati ha ottenuto in passato l’osservazione degli esperti ed il sistema cerca di dedurre quali sono le reali correlazioni tra le variabili che rappresentano un evento, individuando pattern che possano permettere di riconoscere il riprodursi di un evento con un certo anticipo. Si definiscono degli scenari predittivi entro i quali si riconosce che l’evento che si è realizzato o si sta realizzando appartiene, un una certa probabilità, ad una specifica categoria di avvenimenti.
Trasferimento di competenza dall'uomo alla macchina
La differenza con sistemi tradizionali è che l’esperto non descrive in una analisi formalizzata la propria competenza, successivamente trasferita ad un team di progetto che elabora del software sulla base di queste specifiche. L’esperto opera un trasferimento di conoscenza direttamente nei confronti dell’applicazione. Per rendere più semplice il discorso ricorrerò ad una mia esperienza progettuale personale.
Nel progetto in questione ci siamo trovati nella situazione di dover discriminare se nell’occorrere di una serie di eventi si riuscisse ad individuare quali di questi rivelassero un comportamento fraudolento. In casi come questo le reti neurali possono rivelarsi molto utili nell’individuazione di tali casi, ma hanno il difetto di non riuscire a certificare ex-post il processo attraverso il quale hanno raggiunto le proprie conclusioni.
Scelta della metodologia adeguata
Questo aspetto risulta invece determinante nel momento in cui tale attività necessita di verifiche da audit interni o enti di sorveglianza terzi. Si è optato quindi, in quel caso, per un diverso modello statistico. Semplificando in maniera estrema il processo, vengono individuati due insiemi campione di eventi, quelli che fanno riferimento ad operazioni corrette e quelli che fanno riferimento ad operazioni “sospette”. Questo è il lavoro dell’esperto (applicativo!) ed è il modo in cui l’esperto stessa comunica al sistema la sua competenza. Ciò avviene senza esplicitare quali sono i parametri per i quali tale operazione viene ritenuta sospetta (un valore supera una certa soglia o altri valori si presentano in una certa serie o con caratteristiche specifiche).
Sarà il sistema a desumere nella fase di apprendimento quali sono le variabili determinanti e quali sono le relazioni che le legano.
Addestramento ricorsivo dei sistemi
I principali vantaggi che derivano da tale approccio è che la ponderazione del peso di una singola variabile viene fatta in base a precisi calcoli su dati reali e che il sistema non si presenta statico ma intrinsecamente dinamico perché, quando si passa alla fase operativa, i risultati dell’attività del sistema stesso costituiscono un feedback per il modello di calcolo che può continuamente essere raffinato e migliorato.
Il sistema quindi auto apprende dalla propria attività, acquisendo ulteriore competenza da chi lo utilizza e ne giudica i risultati, mentre nel caso di un sistema tradizionale, sviluppato su un pur complesso algoritmo basato su soglie è evidente che l’evoluzione della procedura informatica dipende da step di analisi da parte di esperti e successive attività di tuning da parte di un team di sviluppo.
Nello schema che segue un’analisi del flusso logico della procedura che esplica chiaramente la sua natura ricorsiva.

continua..
Appartengono, per esempio, a questa fascia di applicazioni quei sistemi basati sulla capacità del sistema di applicare modelli statistici all’analisi degli eventi presenti e passati per ottenere indicazioni sul comportamento futuro.
Analisi del passato per predirre il futuro
Tutto ciò avviene dopo che il sistema ha subito un periodo di “addestramento”, durante il quale degli esperti cercano di trasferire al sistema stesso la propria competenza. Questo trasferimento di conoscenza avviene indicando al sistema quali risultati ha ottenuto in passato l’osservazione degli esperti ed il sistema cerca di dedurre quali sono le reali correlazioni tra le variabili che rappresentano un evento, individuando pattern che possano permettere di riconoscere il riprodursi di un evento con un certo anticipo. Si definiscono degli scenari predittivi entro i quali si riconosce che l’evento che si è realizzato o si sta realizzando appartiene, un una certa probabilità, ad una specifica categoria di avvenimenti.
Trasferimento di competenza dall'uomo alla macchina
La differenza con sistemi tradizionali è che l’esperto non descrive in una analisi formalizzata la propria competenza, successivamente trasferita ad un team di progetto che elabora del software sulla base di queste specifiche. L’esperto opera un trasferimento di conoscenza direttamente nei confronti dell’applicazione. Per rendere più semplice il discorso ricorrerò ad una mia esperienza progettuale personale.
Nel progetto in questione ci siamo trovati nella situazione di dover discriminare se nell’occorrere di una serie di eventi si riuscisse ad individuare quali di questi rivelassero un comportamento fraudolento. In casi come questo le reti neurali possono rivelarsi molto utili nell’individuazione di tali casi, ma hanno il difetto di non riuscire a certificare ex-post il processo attraverso il quale hanno raggiunto le proprie conclusioni.
Scelta della metodologia adeguata
Questo aspetto risulta invece determinante nel momento in cui tale attività necessita di verifiche da audit interni o enti di sorveglianza terzi. Si è optato quindi, in quel caso, per un diverso modello statistico. Semplificando in maniera estrema il processo, vengono individuati due insiemi campione di eventi, quelli che fanno riferimento ad operazioni corrette e quelli che fanno riferimento ad operazioni “sospette”. Questo è il lavoro dell’esperto (applicativo!) ed è il modo in cui l’esperto stessa comunica al sistema la sua competenza. Ciò avviene senza esplicitare quali sono i parametri per i quali tale operazione viene ritenuta sospetta (un valore supera una certa soglia o altri valori si presentano in una certa serie o con caratteristiche specifiche).
Sarà il sistema a desumere nella fase di apprendimento quali sono le variabili determinanti e quali sono le relazioni che le legano.
Addestramento ricorsivo dei sistemi
I principali vantaggi che derivano da tale approccio è che la ponderazione del peso di una singola variabile viene fatta in base a precisi calcoli su dati reali e che il sistema non si presenta statico ma intrinsecamente dinamico perché, quando si passa alla fase operativa, i risultati dell’attività del sistema stesso costituiscono un feedback per il modello di calcolo che può continuamente essere raffinato e migliorato.
Il sistema quindi auto apprende dalla propria attività, acquisendo ulteriore competenza da chi lo utilizza e ne giudica i risultati, mentre nel caso di un sistema tradizionale, sviluppato su un pur complesso algoritmo basato su soglie è evidente che l’evoluzione della procedura informatica dipende da step di analisi da parte di esperti e successive attività di tuning da parte di un team di sviluppo.
Nello schema che segue un’analisi del flusso logico della procedura che esplica chiaramente la sua natura ricorsiva.

continua..
Labels:
Aziende,
banca,
business intelligence,
eccellenza,
innovazione
Tuesday, January 13, 2009
Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte prima): contesto e riferimenti
Mi sono occupato nei precedenti post della business intelligence e dei risultati dei due osservatori di due delle principali istituzioni scientifiche milanesi l' Università Bocconi ed il Politecnico.
L’attenzione che dedico al settore specifico deriva anche dalla mia attività professionale che ha come focus, in questo momento, proprio la business intelligence. Si parla molto del tema ed il settore di mercato appare tra quelli maggiormente in crescita, sia nel passato che nel futuro prossimo, insieme ad enterprise content management, collaboration, unified communications e pochi altri, ma la percezione che si ricava dall’osservazione sullo stato dell’arte è che ci sia ancora molta strada da percorrere.
Primo livello di approccio alla BI
Le conclusioni dei due laboratori citati evidenziano che il macro tema può essere genericamente diviso in due sottocategorie, la BI elementare e quella avanzata, dove nella prima possono essere compresi tutti gli strumenti di organizzazione e navigazione dei dati ed appare come il livello di utilizzo al momento maggiormente diffuso.
Certamente questo primo passo permette di desumere informazioni sintetiche dalla mole di dati presenti in una azienda e questo fa si che i principali fruitori dei servizi di BI e dei suoi risultati siano soprattutto i livelli direttivi e di management.
Al tempo stesso però appare una grossa limitazione, soprattutto in considerazione del lavoro necessario a raggiungere questi risultati e dal gap, proporzionalmente minimo, per raggiungere risultati di ben altro spessore.
Principale barriera: quantità e qualità dei dati
Come infatti ci evidenzia la School of Management del Politecnico la maggiore difficoltà percepita dalle aziende è quella di avere a disposizione dati in maniera corretta e completa. Questa percezione è lo specchio della difficoltà reale costituita dall’organizzare una raccolta sistematica delle informazioni dai vari processi operativi, soprattutto in realtà con strutture organizzative complesse, come sono appunto le banche di cui principalmente mi occupo. Decine di procedure, gestite da divisioni e aziende diverse, i cui dati devono essere raccolti e resi omogenei.
Un grande lavoro di organizzazione, di sviluppo ma anche di verifica dei risultati ed infine di manutenzione.
Stupisce perché a questo punto, quando il lavoro più impegnativo, in termini di impegno di risorse umane ed economiche, è stato realizzato, non si sfrutti appieno la capacità informativa di questo mapping della conoscenza aziendale.
Business Intelligence evoluta
Quella che abbiamo definito BI avanzata, ovvero quella fa uso di strumenti statistico-probabilistici e “sistemi esperti”, non ha ancora fatto il suo ingresso estensivo nelle aziende, a parte alcuni settori first mover, che ne fanno uso al momento, in particolare si tratta di settori che si occupano di marketing o rischio.
Il limite, in questo momento, è a mio avviso, costituito dalle competenze, che sono diverse da quelle abitualmente disponibili nel mondo dell’IT e che quindi, essendo poco presenti in azienda, non riescono a dare un impulso decisivo all’utilizzo di questi metodi. C’è anche da dire che la rivoluzione digitale è tutto sommato recente e ancora più recente è la consapevolezza del patrimonio costituito dall’informazione digitale.
Disponibilità di adeguate figure professionali
Il costo quindi per fare questo ulteriore scatto in avanti nel dominio della conoscenza non è più un costo misurabile con variabili quantitative, ma un costo determinato da esigenze qualitative. Se la BI di primo livello si basa essenzialmente su sistemi di organizzazione e rappresentazione delle informazioni, dai classici strumenti di reportistica a quelli più evoluti di navigazione nell’informazione, la BI di secondo livello utilizza motori di calcolo, modelli matematici e sistemi ad auto-apprendimento.
Nel primo caso la funzione di intelligence è soprattutto demandata alla capacità ed alla competenza di chi analizza i dati, supportato da meccanismi di “lettura” delle informazioni, mentre nel secondo livello lo strumento informatico si pone come un mezzo in grado di fornire delle sue autonome interpretazioni delle informazioni, basate sulla capacità di dotare il sistema delle medesima competenza di un esperto.
Si usano in questo caso sistemi di apprendimento basati su modelli di previsione che utilizzano diversi metodi statistici, dalle celebri reti neurali, all’analisi discriminante, alla support vector machine, etc.
Ma in cosa si traduce tutto ciò?
continua nel post successivo: trasferimento di competenza tra uomo e macchina
L’attenzione che dedico al settore specifico deriva anche dalla mia attività professionale che ha come focus, in questo momento, proprio la business intelligence. Si parla molto del tema ed il settore di mercato appare tra quelli maggiormente in crescita, sia nel passato che nel futuro prossimo, insieme ad enterprise content management, collaboration, unified communications e pochi altri, ma la percezione che si ricava dall’osservazione sullo stato dell’arte è che ci sia ancora molta strada da percorrere.
Primo livello di approccio alla BI
Le conclusioni dei due laboratori citati evidenziano che il macro tema può essere genericamente diviso in due sottocategorie, la BI elementare e quella avanzata, dove nella prima possono essere compresi tutti gli strumenti di organizzazione e navigazione dei dati ed appare come il livello di utilizzo al momento maggiormente diffuso.
Certamente questo primo passo permette di desumere informazioni sintetiche dalla mole di dati presenti in una azienda e questo fa si che i principali fruitori dei servizi di BI e dei suoi risultati siano soprattutto i livelli direttivi e di management.
Al tempo stesso però appare una grossa limitazione, soprattutto in considerazione del lavoro necessario a raggiungere questi risultati e dal gap, proporzionalmente minimo, per raggiungere risultati di ben altro spessore.
Principale barriera: quantità e qualità dei dati
Come infatti ci evidenzia la School of Management del Politecnico la maggiore difficoltà percepita dalle aziende è quella di avere a disposizione dati in maniera corretta e completa. Questa percezione è lo specchio della difficoltà reale costituita dall’organizzare una raccolta sistematica delle informazioni dai vari processi operativi, soprattutto in realtà con strutture organizzative complesse, come sono appunto le banche di cui principalmente mi occupo. Decine di procedure, gestite da divisioni e aziende diverse, i cui dati devono essere raccolti e resi omogenei.
Un grande lavoro di organizzazione, di sviluppo ma anche di verifica dei risultati ed infine di manutenzione.
Stupisce perché a questo punto, quando il lavoro più impegnativo, in termini di impegno di risorse umane ed economiche, è stato realizzato, non si sfrutti appieno la capacità informativa di questo mapping della conoscenza aziendale.
Business Intelligence evoluta
Quella che abbiamo definito BI avanzata, ovvero quella fa uso di strumenti statistico-probabilistici e “sistemi esperti”, non ha ancora fatto il suo ingresso estensivo nelle aziende, a parte alcuni settori first mover, che ne fanno uso al momento, in particolare si tratta di settori che si occupano di marketing o rischio.
Il limite, in questo momento, è a mio avviso, costituito dalle competenze, che sono diverse da quelle abitualmente disponibili nel mondo dell’IT e che quindi, essendo poco presenti in azienda, non riescono a dare un impulso decisivo all’utilizzo di questi metodi. C’è anche da dire che la rivoluzione digitale è tutto sommato recente e ancora più recente è la consapevolezza del patrimonio costituito dall’informazione digitale.
Disponibilità di adeguate figure professionali
Il costo quindi per fare questo ulteriore scatto in avanti nel dominio della conoscenza non è più un costo misurabile con variabili quantitative, ma un costo determinato da esigenze qualitative. Se la BI di primo livello si basa essenzialmente su sistemi di organizzazione e rappresentazione delle informazioni, dai classici strumenti di reportistica a quelli più evoluti di navigazione nell’informazione, la BI di secondo livello utilizza motori di calcolo, modelli matematici e sistemi ad auto-apprendimento.
Nel primo caso la funzione di intelligence è soprattutto demandata alla capacità ed alla competenza di chi analizza i dati, supportato da meccanismi di “lettura” delle informazioni, mentre nel secondo livello lo strumento informatico si pone come un mezzo in grado di fornire delle sue autonome interpretazioni delle informazioni, basate sulla capacità di dotare il sistema delle medesima competenza di un esperto.
Si usano in questo caso sistemi di apprendimento basati su modelli di previsione che utilizzano diversi metodi statistici, dalle celebri reti neurali, all’analisi discriminante, alla support vector machine, etc.
Ma in cosa si traduce tutto ciò?
continua nel post successivo: trasferimento di competenza tra uomo e macchina
Labels:
Aziende,
banca,
business intelligence,
eccellenza,
innovazione
Monday, December 15, 2008
Bocconi e Politecnico: la sfida degli Osservatori sulla Business Intelligence
Avevo appena finito di raccontare del convegno di presentazione dell’osservatorio della School of Management del Politecnico che mi sono ritrovato a leggere un approfondimento sulla BI di linea EDP, fortemente contraddistinto dai dati dell’osservatorio del prof Pasini della SDA Bocconi e dagli studi sul settore di IDC.
Salta subito all’occhio come la ricerca della SDA definisca le PMI come le realtà più attive nell’introdurre nella propria gestione sistemi di questo genere, mentre la ricerca del Politecnico era fortemente incentrata (ma non solo) sulle aziende (industrie e banche) di dimensioni medio grandi. Entrambe queste due prestigiose istituzioni però concordano nel dire che ancora un passo indietro rimane la pubblica amministrazione; alcuni progetti sono stati realizzati anche in questo ambito, come questa una esperienza della Ragioneria di Stato citata alla fine di questo post
I due animatori delle rispettive iniziative hanno raccontato la loro visione in due articoli, su Linea EDP la SDA e su Datamanager la School of Management e nelle loro conclusioni emergono valutazioni comuni.
Per entrambi le maggiori difficoltà nell'introduzione di tecnologie di BI sono, per esempio, costituite sostanzialmente dalla qualità e dalla integrazione dei dati, come evidenziato nei post dedicati alla School of Management e dalla SDA,
ma anche dalla scarsa capacità analitica del management, come fa notare, con accento piuttosto critico, proprio l’analisi della Bocconi. L’informazione non viene utilizzata direttamente dai decisori, ma vi arriva mediata da analisti, perdendo quindi un po’ di valenza informativa.
Il segmento di mercato si conferma come uno di quelli che registrerà i maggiori tassi di crescita, superiori a quelli medi del comparto IT, come ci confermano le stime di IDC che ipotizzano il passaggio da un +8,3% del 2007 ad un +2008% per l’anno che sta per chiudersi. Sempre IDC conferma che gli utilizzatori della BI sono coloro che sono deputati a fare scelte strategiche e che sono per il 60% gli executive, il 58% i manager ed il 40% gli analisti.
Tutti concordano quindi sulle potenzialità di questo mercato anche il prossimo anno e risulta una intenzione da parte dei manager di incrementare gli investimenti in BI o almeno di mantenere i medesimi livelli dell’anno precedente.
Salta subito all’occhio come la ricerca della SDA definisca le PMI come le realtà più attive nell’introdurre nella propria gestione sistemi di questo genere, mentre la ricerca del Politecnico era fortemente incentrata (ma non solo) sulle aziende (industrie e banche) di dimensioni medio grandi. Entrambe queste due prestigiose istituzioni però concordano nel dire che ancora un passo indietro rimane la pubblica amministrazione; alcuni progetti sono stati realizzati anche in questo ambito, come questa una esperienza della Ragioneria di Stato citata alla fine di questo post
I due animatori delle rispettive iniziative hanno raccontato la loro visione in due articoli, su Linea EDP la SDA e su Datamanager la School of Management e nelle loro conclusioni emergono valutazioni comuni.
Per entrambi le maggiori difficoltà nell'introduzione di tecnologie di BI sono, per esempio, costituite sostanzialmente dalla qualità e dalla integrazione dei dati, come evidenziato nei post dedicati alla School of Management e dalla SDA,


Tutti concordano quindi sulle potenzialità di questo mercato anche il prossimo anno e risulta una intenzione da parte dei manager di incrementare gli investimenti in BI o almeno di mantenere i medesimi livelli dell’anno precedente.
Thursday, December 11, 2008
L’ Osservatorio sullo stato della Business Intelligence in Italia della School of Management del Politecnico di Milano: il primo report (parte III)
Abbiamo osservato come la Business Intelligence venga spesso usata per processi decisionali strategici e molto meno per processi operativi.
Cito a questo proposito un esempio che ho vissuto da vicino ed è quello della normativa sulla Market Abuse Detection sui mercati mobiliari, ovvero quella legge che imponeva agli intermediari di valutare la correttezza delle operazioni dei propri clienti.
Molti operatori del settore sono partiti a sviluppare soluzioni ad hoc per il problema, mentre noi ci siamo soffermati ad analizzare le tematiche sul tavolo ed abbiamo deciso di utilizzare modelli matematici e prodotti esistenti. Il risultato è stato di duplice soddisfazione, da un lato per la tempestività di realizzazione (in una sola settimana avevamo un oggetto funzionante e specializzato sui primi due casi analizzati), d’altro per avere ottenuto di fatto un prodotto già di nuova generazione rispetto agli altri, in quanto non ragionava solo su soglie fisse o programmabili, ma traeva dall’utilizzo stesso dello strumento, il feedback necessario ad autoapprendere e raffinarsi continuamente.
Processi Operativi e Decisioni Strategiche
Questo è solo un esempio di un possibile impiego operativo, ma possono essere citati diversi esempi:dall’individuazione del ri-presentarsi di pattern indicanti la possibilità di crash nell’erogazione di un servizio o alla valutazione dei migliori livelli attesi in caso di SLA. I metodi statistici vengono spesso utilizzati nella valutazione dei rischi (in genere nei crediti e nella contrattazione mobiliare), ma, come si è detto, non si osserva un uso estensivo della BI nell'operatività quotidiana.
La motivazione probabilmente risiede nella necessità di acquisire anche competenze matematico-statistiche e ciò non è una consuetudine nelle strutture IT, se non in particolari settori. Inoltre il consueto approccio è quello di risolvere problemi con metodi deterministice ed algoritmi basati solo su condizioni oggettive. Ciò fa mancare un po’ l’attitudine a considerare utilizzabili queste metodologie.
Criteri di valutazione
Tra le caratteristiche ritenute qualificanti per un prodotto/suite di BI c’è, sopra tutti, l’integrabilità con altri applicativi, ma anche flessibilità e facilità d’uso, quasi a testimoniare che lo strumento viene visto soprattutto come finalizzato all’uso da parte dell’utente finale. Per il medesimo motivo viene visto come fattore critico l’assistenza, soprattutto da parte delle PMI.
Il costo è ritenuto rilevante per i piccoli, non determinate per le grandi strutture.
Problemi connessi all'introduzione della BI
Un aspetto che sembra accomunare aziende di ogni dimensione è invece la valutazione dei principali ostacoli all’introduzione della BI. Come ci si poteva aspettare il principale freno è costituito dalla necessità di dovere lavorare molto per ottenere la migliore quantità e qualità dei dati. Stupisce un pochino la buona percentuale di intervistati che addebitano allo scarso successo della BI lo scarso commitment in struttura grandi, mentre non stupisce vedere citate la resistenza al cambiamento e la difficoltà di modificare i processi in funzione delle competenze acquisite.
Ancora una volta si evidenzia la differente visione tra PMI e grandi aziende sulla valutazione degli impatti, predominanti sui processi per le prime, sulle risorse per le seconde, evidentemente legato alla capacità, da parte di aziende con catene di comando più corte, di percepire meglio l’effetto dell’adozione di sistemi specifici, mentre tale impatto risulta evidentemente stemperato in organizzazioni con strutture complesse.
Politecnico e Bocconi
In questi giorni mi è accaduto di leggere anche un articolo su una analoga iniziativa della Bocconi, neoi prossimi giorni proverò ad analizzarne le differenze.
* Fonte: C. Orsenigo & C. Vercellis,
Business Intelligence. Creare vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008
Cito a questo proposito un esempio che ho vissuto da vicino ed è quello della normativa sulla Market Abuse Detection sui mercati mobiliari, ovvero quella legge che imponeva agli intermediari di valutare la correttezza delle operazioni dei propri clienti.
Molti operatori del settore sono partiti a sviluppare soluzioni ad hoc per il problema, mentre noi ci siamo soffermati ad analizzare le tematiche sul tavolo ed abbiamo deciso di utilizzare modelli matematici e prodotti esistenti. Il risultato è stato di duplice soddisfazione, da un lato per la tempestività di realizzazione (in una sola settimana avevamo un oggetto funzionante e specializzato sui primi due casi analizzati), d’altro per avere ottenuto di fatto un prodotto già di nuova generazione rispetto agli altri, in quanto non ragionava solo su soglie fisse o programmabili, ma traeva dall’utilizzo stesso dello strumento, il feedback necessario ad autoapprendere e raffinarsi continuamente.
Processi Operativi e Decisioni Strategiche
Questo è solo un esempio di un possibile impiego operativo, ma possono essere citati diversi esempi:dall’individuazione del ri-presentarsi di pattern indicanti la possibilità di crash nell’erogazione di un servizio o alla valutazione dei migliori livelli attesi in caso di SLA. I metodi statistici vengono spesso utilizzati nella valutazione dei rischi (in genere nei crediti e nella contrattazione mobiliare), ma, come si è detto, non si osserva un uso estensivo della BI nell'operatività quotidiana.
La motivazione probabilmente risiede nella necessità di acquisire anche competenze matematico-statistiche e ciò non è una consuetudine nelle strutture IT, se non in particolari settori. Inoltre il consueto approccio è quello di risolvere problemi con metodi deterministice ed algoritmi basati solo su condizioni oggettive. Ciò fa mancare un po’ l’attitudine a considerare utilizzabili queste metodologie.
Criteri di valutazione
Tra le caratteristiche ritenute qualificanti per un prodotto/suite di BI c’è, sopra tutti, l’integrabilità con altri applicativi, ma anche flessibilità e facilità d’uso, quasi a testimoniare che lo strumento viene visto soprattutto come finalizzato all’uso da parte dell’utente finale. Per il medesimo motivo viene visto come fattore critico l’assistenza, soprattutto da parte delle PMI.
Il costo è ritenuto rilevante per i piccoli, non determinate per le grandi strutture.
Problemi connessi all'introduzione della BI
Un aspetto che sembra accomunare aziende di ogni dimensione è invece la valutazione dei principali ostacoli all’introduzione della BI. Come ci si poteva aspettare il principale freno è costituito dalla necessità di dovere lavorare molto per ottenere la migliore quantità e qualità dei dati. Stupisce un pochino la buona percentuale di intervistati che addebitano allo scarso successo della BI lo scarso commitment in struttura grandi, mentre non stupisce vedere citate la resistenza al cambiamento e la difficoltà di modificare i processi in funzione delle competenze acquisite.
Ancora una volta si evidenzia la differente visione tra PMI e grandi aziende sulla valutazione degli impatti, predominanti sui processi per le prime, sulle risorse per le seconde, evidentemente legato alla capacità, da parte di aziende con catene di comando più corte, di percepire meglio l’effetto dell’adozione di sistemi specifici, mentre tale impatto risulta evidentemente stemperato in organizzazioni con strutture complesse.
Politecnico e Bocconi
In questi giorni mi è accaduto di leggere anche un articolo su una analoga iniziativa della Bocconi, neoi prossimi giorni proverò ad analizzarne le differenze.
* Fonte: C. Orsenigo & C. Vercellis,
Business Intelligence. Creare vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008
Labels:
Aziende,
banca,
blog,
business intelligence,
innovazione,
web 2.0
Subscribe to:
Posts (Atom)