Proprio ieri mi sono soffermato sulle controverse opinioni che sta suscitando Facebook e nelle stesse ore, alla presentazione dell'Osservatorio Multicanalita' 2008 del Politecnico di Milano, Cristina Papini, sales e project manager di Nielsen Online, ha presentato dei dati che esprimono chiaramente la parabola fulminante di questo network negli ultimi mesi: passa da 2% dei navigatori nel dicembre 2007 al 44% nel dicembre 2008, diventando il sesto sito italiano.
Al di là delle prevedibile esplosione di Facebook, che segue di fatto quanto successo in tanti altri paesi del mondo, può stupire forse un po’ (ma neppure tanto per chi lo segue da tempo) la rapidità della crescita. Più di tutto è evidente che, proprio a causa di questo suo fulminante exploit può non essere facilmente capito da chi ancora è un po’ ancorato a modelli di valutazione “antichi”.
Antichi perché gli ultimi 3 anni hanno disegnato una evoluzione pari al passaggio da un era geologica ad un’altra, nel mondo della comunicazione e dei rapporti sociali, ed è del tutto comprensibile che taluni non se ne siano accorti e/o sopratutto non siano pronti a cogliere il cambiamento. Non tutto ciò che è "moderno" è bello, per esempio io stesso conservo ed ascolto i vecchi vinili, ma non posso ignorare quanto il web abbia cambiato gli scenari nel mondo della musica.
Questo cambiamento si completerà quanto i cosidetti “natives”, ragazzi nati nell’età del web come li definisce Gartner, svezzati “anche” da Facebook all’uso del web, stravolgeranno completamente il meccanismo broadcasting attuale dell’informazione che oggi garantisce a pochi il potere di distribuire conoscenza (o disinformazione).
Naturale quindi che proprio quelli che oggi traggono benefici dal privilegio del rapporto intermediato tra loro ed il pubblico siano tra i più scettici e diffidenti nei confronti dei nuovi media. Ciò avviene talvolta coscientemente, ma spesso anche in maniera inconsapevole a causa della difficoltà di comprendere le nuove tecnologie e/o il meccanismo di comunicazione sociale dei più giovani. Non sto parlando di persone over 60... può bastare avere più di 40 per non avere familiarità con la rete e approcciare con una certa ansia ciò che sta succedendo.
Lo scenario è ancora in velocissima evoluzione ed è difficile prevedere tra tre anni quale sarà la situazione, quale di questi social network, dopo una prevedibile fase di riflusso, sopravviverà e quanto avrà cambiato le nostre abitudini, ma al momento il cambiamento è in atto e certamente lascerà il segno. Forse rimarranno come uno strumento in più, come il cellulare la mail, e non leggeremo più di dibattiti o commenti taglienti, oppure rimarranno nell'uso comune per una relativamente limitata comunità di utenti. O spariranno.... ?
Certo è che i Social Network sono le oggi le cosidette Killer Apllication che hanno fatto fare un gran balzo in avanti a tante persone nella loro prima alfabetizzazione a riguardo del mondo del web.
Con ciò non credo che Facebook e portali simili salveranno il mondo e condivido dubbi, perplessità e pregi evidenziati da altri osservatori e giustamente come si legge in questo post non sarei felicissimo di vedere pubblicata da un presunto amico una mia foto anni 70 capelli lunghi (eh si allora li avevo almeno...) e camicia a fiori, ma al tempo stesso so che oggi ho degli strumenti che mi permettono di tenere i contatti con gli amici (veri) anche più facilmente, vincendo quella tendenza all’isolamento che la nostra società progressivamente ci stava imponendo.
E se un giorno avrò qualcosa da dire avrò modo di farlo e di essere ascoltato. In fondo.. solo per questo.. non ne vale la pena?
Friday, January 30, 2009
Wednesday, January 28, 2009
Facebook è di Moda. Abbasso Facebook!! ovvero come cambiano le valutazioni in pochi mesi....
Ovviamente non è il mio pensiero, ma il tema sta diventando sempre più caldo.
Si susseguono infatti le voci, più o meno autorevoli, che commentano con toni negativi il fenomeno Facebook, per Amendola Facebook è demenziale mentre il carissimo Robecchi ha affermato che è “da sfigati”.
Un dibattito che ha come argomento un oggetto tecnologico, ma ovviamente il problema è tutt’altro che tecnologico.
I toni stanno cambiando rapidamente da quando qualche mese fa Facebook ha portato il social networking nelle case di molti italiani che neanche sapevano usare internet. Se due anni fa si esaltava la componente “social”, di relazioni e scambio di idee, oggi tutto questo sembra un argomento in più per criticarlo. Esistono migliaia di social network eppure solo Facebook attira questi commenti.
Perché?
I primi SN ad aver raggiunto picchi di utenti altissimi sono stati MySpace e YouTube, eppure oggi nessuno si sognerebbe che YouTube è demenziale solo perché mette in relazione persone. I motivi di questa situazioni sono probabilmente molti:
Su Facebook sono arrivate tante persone normali, che magari su MySpace erano inibiti dalla connotazione troppo spiccatamente “Fashion”. Su MySpace sembrano essere tutti artisti... Questo ha decretato il successo di Facebook rendendolo di moda. E le mode innescano anche la diffidenza di molti (me compreso).
Inoltre il meccanismo di ampia condivisione delle informazioni pone qualche legittimo dubbio sulla privacy delle proprie, così come il tempo impiegato per aggiornare Facebook lascia perplessi.
Io, francamente, pur avendo comunque alcune perplessità, sono in totale disaccordo con coloro i quali ne hanno una visione negativa. Il primo concetto che credo deve essere chiaro è che i SN sono soprattutto un mezzo tecnologico per fare comunicazione, come lo sono stati a loro tempo i primi libri stampati da Guttemberg, il telefono, il cellulare, la televisione e via discorrendo.
Anche il cellulare era, ai suoi esordi, una moda, perché a molti sembrava di poter esibire uno status symbol. Il tempo ha restituito a questo agglomerato di circuiti la sua funzione e se anche oggi qualcuno è comunque preso dalla tentazione di ostentare il più grosso o il più tecnologico nessuno si sognerebbe di parlare di moda per il cellulare. I SN sono un tassello di quel movimento fatto oggi anche dai blog e dai wiki che ha restituito alle persone la possibilità di esprimersi e di veicolare informazioni. Una rivoluzione che ha in se una forte componente democratica.
Murdoch, che non è l’ultimo arrivato in fatto di editoria, ha paragonato quanto sta succedendo alle rivoluzioni “epocali” precedenti nel mondo della comunicazione. Ed è ovviamente in ottima compagnia.
Amendola ne fa legittimamente una questione di educazione dei figli, ma al tempo stesso fa una affermazione, per me, contraddittoria. Occorre, dice, dedicare più qualità al tempo passato con i figli, e questo è indiscutibile, ma quando dice che Facebook è demenziale e che lui usa da poco le mail, probabilmente non comprende che quella maggiore qualità che auspica si traduce anche nel tentativo di comprendere le modalità di relazione e comunicazione dei propri figli.
Credo che sia il problema classico del rapporto genitori-figli. I genitori fanno fatica a comprendere linguaggi e mezzi dei giovani e non riescono a comunicare. Invece di bollare qualcosa come “demenziale” andrebbe compreso, per poter spiegare ad un figlio, per esempio, che va anche bene comunicare via chat (perché via telefono va bene e via chat no?) ma che le relazioni crescono anche andando al bar. Ma l’uno non esclude l’altro...
Non amo l’abuso da Facebook, ma credo che con gli altri SN stia favorendo la semplificazione all’approccio ad internet.Conosco molte persone che non amavano Internet, probabilmente spaventate da uno strumento che non riuscivano a comprendere fino in fondo, mentre ora ne hanno acquisito consuetudine, proprio grazie all’uso di semplici programmi quali Facebook, di cui hanno rapidamente capito l’utilità e se ne sono serviti.
Posso esagerare??? Ha fatto molto più Facebook per la familiarizzazione con il web per moltissime persone che tanti dibattiti ed iniziative.
Per quanto riguarda poi il presunto isolamento da web, di persone che comunicano solo on line, beh.. ragazzi.. siamo alle solite esagerazioni... anzi ho riallacciato tanti fili interrotti nella mia memoria e la cosa mi piace. Capisco che ad altri possa non piacere, ma ognuno è libero di frequentare ciò che desidera.
Sicuramente con i ragazzi occorre più attenzione, ma il discorso non è diverso da quello del troppo tempo passato davanti alla televisione o alla playstation. Ma occorre avere ben chiaro in mente che tutti questi sono effetti, non cause, non giriamo intorno al problema! Amendola dice miglioriamo la qualità del tempo dedicata ai figli, è giusto, ma io dico aumentiamo anche il tempo... e l’uso eccessivo di Facebook diventerà un ex-problema.
Si susseguono infatti le voci, più o meno autorevoli, che commentano con toni negativi il fenomeno Facebook, per Amendola Facebook è demenziale mentre il carissimo Robecchi ha affermato che è “da sfigati”.
Un dibattito che ha come argomento un oggetto tecnologico, ma ovviamente il problema è tutt’altro che tecnologico.
I toni stanno cambiando rapidamente da quando qualche mese fa Facebook ha portato il social networking nelle case di molti italiani che neanche sapevano usare internet. Se due anni fa si esaltava la componente “social”, di relazioni e scambio di idee, oggi tutto questo sembra un argomento in più per criticarlo. Esistono migliaia di social network eppure solo Facebook attira questi commenti.
Perché?
I primi SN ad aver raggiunto picchi di utenti altissimi sono stati MySpace e YouTube, eppure oggi nessuno si sognerebbe che YouTube è demenziale solo perché mette in relazione persone. I motivi di questa situazioni sono probabilmente molti:
Su Facebook sono arrivate tante persone normali, che magari su MySpace erano inibiti dalla connotazione troppo spiccatamente “Fashion”. Su MySpace sembrano essere tutti artisti... Questo ha decretato il successo di Facebook rendendolo di moda. E le mode innescano anche la diffidenza di molti (me compreso).
Inoltre il meccanismo di ampia condivisione delle informazioni pone qualche legittimo dubbio sulla privacy delle proprie, così come il tempo impiegato per aggiornare Facebook lascia perplessi.
Io, francamente, pur avendo comunque alcune perplessità, sono in totale disaccordo con coloro i quali ne hanno una visione negativa. Il primo concetto che credo deve essere chiaro è che i SN sono soprattutto un mezzo tecnologico per fare comunicazione, come lo sono stati a loro tempo i primi libri stampati da Guttemberg, il telefono, il cellulare, la televisione e via discorrendo.
Anche il cellulare era, ai suoi esordi, una moda, perché a molti sembrava di poter esibire uno status symbol. Il tempo ha restituito a questo agglomerato di circuiti la sua funzione e se anche oggi qualcuno è comunque preso dalla tentazione di ostentare il più grosso o il più tecnologico nessuno si sognerebbe di parlare di moda per il cellulare. I SN sono un tassello di quel movimento fatto oggi anche dai blog e dai wiki che ha restituito alle persone la possibilità di esprimersi e di veicolare informazioni. Una rivoluzione che ha in se una forte componente democratica.
Murdoch, che non è l’ultimo arrivato in fatto di editoria, ha paragonato quanto sta succedendo alle rivoluzioni “epocali” precedenti nel mondo della comunicazione. Ed è ovviamente in ottima compagnia.
Amendola ne fa legittimamente una questione di educazione dei figli, ma al tempo stesso fa una affermazione, per me, contraddittoria. Occorre, dice, dedicare più qualità al tempo passato con i figli, e questo è indiscutibile, ma quando dice che Facebook è demenziale e che lui usa da poco le mail, probabilmente non comprende che quella maggiore qualità che auspica si traduce anche nel tentativo di comprendere le modalità di relazione e comunicazione dei propri figli.
Credo che sia il problema classico del rapporto genitori-figli. I genitori fanno fatica a comprendere linguaggi e mezzi dei giovani e non riescono a comunicare. Invece di bollare qualcosa come “demenziale” andrebbe compreso, per poter spiegare ad un figlio, per esempio, che va anche bene comunicare via chat (perché via telefono va bene e via chat no?) ma che le relazioni crescono anche andando al bar. Ma l’uno non esclude l’altro...
Non amo l’abuso da Facebook, ma credo che con gli altri SN stia favorendo la semplificazione all’approccio ad internet.Conosco molte persone che non amavano Internet, probabilmente spaventate da uno strumento che non riuscivano a comprendere fino in fondo, mentre ora ne hanno acquisito consuetudine, proprio grazie all’uso di semplici programmi quali Facebook, di cui hanno rapidamente capito l’utilità e se ne sono serviti.
Posso esagerare??? Ha fatto molto più Facebook per la familiarizzazione con il web per moltissime persone che tanti dibattiti ed iniziative.
Per quanto riguarda poi il presunto isolamento da web, di persone che comunicano solo on line, beh.. ragazzi.. siamo alle solite esagerazioni... anzi ho riallacciato tanti fili interrotti nella mia memoria e la cosa mi piace. Capisco che ad altri possa non piacere, ma ognuno è libero di frequentare ciò che desidera.
Sicuramente con i ragazzi occorre più attenzione, ma il discorso non è diverso da quello del troppo tempo passato davanti alla televisione o alla playstation. Ma occorre avere ben chiaro in mente che tutti questi sono effetti, non cause, non giriamo intorno al problema! Amendola dice miglioriamo la qualità del tempo dedicata ai figli, è giusto, ma io dico aumentiamo anche il tempo... e l’uso eccessivo di Facebook diventerà un ex-problema.
Labels:
blog,
Giornalismo,
innovazione,
Social Network,
web 2.0
Thursday, January 22, 2009
Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte terza): il processo di auto-apprendimento del sistema
Continuando l’approfondimento sulla business intelligence di livello avanzato, ritengo sia interessante esplodere il concetto di auto-apprendimento dei sistemi.
Come si è detto nei post precedenti il valore costituito dalla competenza dell’esperto è complementare a qualunque base dati, per quanto esaustiva, che una azienda abbia potuto predisporre per descrivere la propria conoscenza, sopratutto perché l’aumento delle informazioni disponibili, conseguente alla rivoluzione digitale, ha reso ancor più determinante la capacità interpretativa dei dati dell'esperto al fine di estrarre informazione di sintesi.
Al tempo stesso questa capacità risulta sempre meno utilizzabile in maniera non automatica con il crescere delle informazioni da esaminare ed è difficilmente formalizzabile, ma gli strumenti basati su modelli statistici contribuiscono a rendere “computabile” questo know how implicito. Vediamo per esempio come potrebbe funzionare un modello basato sull’analisi discriminante.
L’analisi discriminante tenta di identificare le variabili che, appunto, “discriminano”, l’appartenenza ad un gruppo piuttosto che un altro e ad individuare le funzioni lineari che meglio descrivono e chiariscono l’appartenenza ad un gruppo. Si tratta in definitiva delle sommatorie di variabili indipendenti “pesate”, con un processo che è finalizzato all’individuazione di set di pesi che, meglio di altri, collochino un evento descritto dalle variabile in un gruppo piuttosto che un altro. In definitiva si ricerca cosa differenzia in sostanza i due gruppi.
L’analisi discriminante è basata sull’esplorazione di un set di casi, in cui gli eventi vengono suddivisi in gruppi logici ed il percorso di apprendimento consiste proprio nell’identificazione dei pesi delle possibili funzioni lineari che descrivono gli eventi, con la individuazione di quelle che minimizzano quanto più possibile l’area grigia cui possono appartenere eventi dei gruppi distinti.
La definizione dei casi campione è il modo in cui l’esperto comunica al sistema la propria conoscenza e ne determina il percorso di apprendimento. Alla fine di questo il sistema è in grado di analizzare nuovi eventi ed assegnare loro uno scoring, la probabilità che l’evento appartenga ad un insieme o ad un altro.
Ma rifacciamo un passo indietro, ovvero a come avviene il trasferimento di competenza. Il primo step è costituito dalla “segmentazione” ovvero lo studio delle informazioni presenti per individuare quali sono le categorie di informazioni in grado di rappresentare gli eventi e se esistono dati storici adeguati ad attivare il processo di auto apprendimento.
La “selezione” delle variabili consiste nella ricognizione delle stesse per identificare quelle rilevanti ai fini dello studio in oggetto.
Occorre osservare che diventa determinante la corretta identificazione delle variabili e l’eventuale correlazione tra esse perché si possa realmente valutare il peso discriminate delle singola variabile
Il processo di apprendimento termina con la validazione dei modelli con l’applicazione degli stessi ad un numero significativo di casi campione per determinare, sempre con tecniche statistiche, la rilevanza dell’errore atteso.
In realtà, potenzialmente, il processo prosegue durante l’esercizio stesso del sistema perché possono essere definiti degli ulteriori punti di sincronizzazione del sistema, nei quali i risultati stessi dell’attività di analisi possono essere forniti al sistema come feedback, per ampliare/aggiornare i casi campione e rifinire ulteriormente i modelli, variando eventualmente i pesi, in relazione alle modifiche introdotte dal tempo sul corso degli eventi.
Questa caratteristica di continua ricorsività costituisce evidentemente un ulteriore plus di questo approccio che non è più statico o modificato su precisa e formale analisi dell’uomo che interviene a cambiare le impostazioni iniziali, ma è lo strumento stesso che offre la base informativa ed i mezzi per avviare un processo di revisione.
I casi cui tale metodo può essere utilizzato sono moltissimi nella abituale operatività aziendale, a fini “repressivi” e di indagine, ovvero determinare che un certo evento sia fraudolento o nocivo (tentativo di frode o di intrusione, possibilità che un cliente non restituisca un prestito, possibilità che stia per verificarsi un crash di un servizio critico) di “allerta” commerciale (comportamento che indica la propensione di un cliente ad abbandonare un il suo fornitore, appartenenza di una persona ad un target specifico).
Come si è detto nei post precedenti il valore costituito dalla competenza dell’esperto è complementare a qualunque base dati, per quanto esaustiva, che una azienda abbia potuto predisporre per descrivere la propria conoscenza, sopratutto perché l’aumento delle informazioni disponibili, conseguente alla rivoluzione digitale, ha reso ancor più determinante la capacità interpretativa dei dati dell'esperto al fine di estrarre informazione di sintesi.
Al tempo stesso questa capacità risulta sempre meno utilizzabile in maniera non automatica con il crescere delle informazioni da esaminare ed è difficilmente formalizzabile, ma gli strumenti basati su modelli statistici contribuiscono a rendere “computabile” questo know how implicito. Vediamo per esempio come potrebbe funzionare un modello basato sull’analisi discriminante.
L’analisi discriminante tenta di identificare le variabili che, appunto, “discriminano”, l’appartenenza ad un gruppo piuttosto che un altro e ad individuare le funzioni lineari che meglio descrivono e chiariscono l’appartenenza ad un gruppo. Si tratta in definitiva delle sommatorie di variabili indipendenti “pesate”, con un processo che è finalizzato all’individuazione di set di pesi che, meglio di altri, collochino un evento descritto dalle variabile in un gruppo piuttosto che un altro. In definitiva si ricerca cosa differenzia in sostanza i due gruppi.
L’analisi discriminante è basata sull’esplorazione di un set di casi, in cui gli eventi vengono suddivisi in gruppi logici ed il percorso di apprendimento consiste proprio nell’identificazione dei pesi delle possibili funzioni lineari che descrivono gli eventi, con la individuazione di quelle che minimizzano quanto più possibile l’area grigia cui possono appartenere eventi dei gruppi distinti.
La definizione dei casi campione è il modo in cui l’esperto comunica al sistema la propria conoscenza e ne determina il percorso di apprendimento. Alla fine di questo il sistema è in grado di analizzare nuovi eventi ed assegnare loro uno scoring, la probabilità che l’evento appartenga ad un insieme o ad un altro.
Ma rifacciamo un passo indietro, ovvero a come avviene il trasferimento di competenza. Il primo step è costituito dalla “segmentazione” ovvero lo studio delle informazioni presenti per individuare quali sono le categorie di informazioni in grado di rappresentare gli eventi e se esistono dati storici adeguati ad attivare il processo di auto apprendimento.
La “selezione” delle variabili consiste nella ricognizione delle stesse per identificare quelle rilevanti ai fini dello studio in oggetto.
Occorre osservare che diventa determinante la corretta identificazione delle variabili e l’eventuale correlazione tra esse perché si possa realmente valutare il peso discriminate delle singola variabile
Il processo di apprendimento termina con la validazione dei modelli con l’applicazione degli stessi ad un numero significativo di casi campione per determinare, sempre con tecniche statistiche, la rilevanza dell’errore atteso.
In realtà, potenzialmente, il processo prosegue durante l’esercizio stesso del sistema perché possono essere definiti degli ulteriori punti di sincronizzazione del sistema, nei quali i risultati stessi dell’attività di analisi possono essere forniti al sistema come feedback, per ampliare/aggiornare i casi campione e rifinire ulteriormente i modelli, variando eventualmente i pesi, in relazione alle modifiche introdotte dal tempo sul corso degli eventi.
Questa caratteristica di continua ricorsività costituisce evidentemente un ulteriore plus di questo approccio che non è più statico o modificato su precisa e formale analisi dell’uomo che interviene a cambiare le impostazioni iniziali, ma è lo strumento stesso che offre la base informativa ed i mezzi per avviare un processo di revisione.
I casi cui tale metodo può essere utilizzato sono moltissimi nella abituale operatività aziendale, a fini “repressivi” e di indagine, ovvero determinare che un certo evento sia fraudolento o nocivo (tentativo di frode o di intrusione, possibilità che un cliente non restituisca un prestito, possibilità che stia per verificarsi un crash di un servizio critico) di “allerta” commerciale (comportamento che indica la propensione di un cliente ad abbandonare un il suo fornitore, appartenenza di una persona ad un target specifico).
Labels:
Aziende,
banca,
business intelligence,
eccellenza,
innovazione
Thursday, January 15, 2009
Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte seconda): il trasferimento di competenza tra uomo e macchina
Abbiamo osservato nel precedente post una differenza tra BI di base ed avanzata e proviamo ad analizzare un po’ più in dettaglio in cosa consiste questa secondo più evoluto livello della business intelligence.
Appartengono, per esempio, a questa fascia di applicazioni quei sistemi basati sulla capacità del sistema di applicare modelli statistici all’analisi degli eventi presenti e passati per ottenere indicazioni sul comportamento futuro.
Analisi del passato per predirre il futuro
Tutto ciò avviene dopo che il sistema ha subito un periodo di “addestramento”, durante il quale degli esperti cercano di trasferire al sistema stesso la propria competenza. Questo trasferimento di conoscenza avviene indicando al sistema quali risultati ha ottenuto in passato l’osservazione degli esperti ed il sistema cerca di dedurre quali sono le reali correlazioni tra le variabili che rappresentano un evento, individuando pattern che possano permettere di riconoscere il riprodursi di un evento con un certo anticipo. Si definiscono degli scenari predittivi entro i quali si riconosce che l’evento che si è realizzato o si sta realizzando appartiene, un una certa probabilità, ad una specifica categoria di avvenimenti.
Trasferimento di competenza dall'uomo alla macchina
La differenza con sistemi tradizionali è che l’esperto non descrive in una analisi formalizzata la propria competenza, successivamente trasferita ad un team di progetto che elabora del software sulla base di queste specifiche. L’esperto opera un trasferimento di conoscenza direttamente nei confronti dell’applicazione. Per rendere più semplice il discorso ricorrerò ad una mia esperienza progettuale personale.
Nel progetto in questione ci siamo trovati nella situazione di dover discriminare se nell’occorrere di una serie di eventi si riuscisse ad individuare quali di questi rivelassero un comportamento fraudolento. In casi come questo le reti neurali possono rivelarsi molto utili nell’individuazione di tali casi, ma hanno il difetto di non riuscire a certificare ex-post il processo attraverso il quale hanno raggiunto le proprie conclusioni.
Scelta della metodologia adeguata
Questo aspetto risulta invece determinante nel momento in cui tale attività necessita di verifiche da audit interni o enti di sorveglianza terzi. Si è optato quindi, in quel caso, per un diverso modello statistico. Semplificando in maniera estrema il processo, vengono individuati due insiemi campione di eventi, quelli che fanno riferimento ad operazioni corrette e quelli che fanno riferimento ad operazioni “sospette”. Questo è il lavoro dell’esperto (applicativo!) ed è il modo in cui l’esperto stessa comunica al sistema la sua competenza. Ciò avviene senza esplicitare quali sono i parametri per i quali tale operazione viene ritenuta sospetta (un valore supera una certa soglia o altri valori si presentano in una certa serie o con caratteristiche specifiche).
Sarà il sistema a desumere nella fase di apprendimento quali sono le variabili determinanti e quali sono le relazioni che le legano.
Addestramento ricorsivo dei sistemi
I principali vantaggi che derivano da tale approccio è che la ponderazione del peso di una singola variabile viene fatta in base a precisi calcoli su dati reali e che il sistema non si presenta statico ma intrinsecamente dinamico perché, quando si passa alla fase operativa, i risultati dell’attività del sistema stesso costituiscono un feedback per il modello di calcolo che può continuamente essere raffinato e migliorato.
Il sistema quindi auto apprende dalla propria attività, acquisendo ulteriore competenza da chi lo utilizza e ne giudica i risultati, mentre nel caso di un sistema tradizionale, sviluppato su un pur complesso algoritmo basato su soglie è evidente che l’evoluzione della procedura informatica dipende da step di analisi da parte di esperti e successive attività di tuning da parte di un team di sviluppo.
Nello schema che segue un’analisi del flusso logico della procedura che esplica chiaramente la sua natura ricorsiva.
continua..
Appartengono, per esempio, a questa fascia di applicazioni quei sistemi basati sulla capacità del sistema di applicare modelli statistici all’analisi degli eventi presenti e passati per ottenere indicazioni sul comportamento futuro.
Analisi del passato per predirre il futuro
Tutto ciò avviene dopo che il sistema ha subito un periodo di “addestramento”, durante il quale degli esperti cercano di trasferire al sistema stesso la propria competenza. Questo trasferimento di conoscenza avviene indicando al sistema quali risultati ha ottenuto in passato l’osservazione degli esperti ed il sistema cerca di dedurre quali sono le reali correlazioni tra le variabili che rappresentano un evento, individuando pattern che possano permettere di riconoscere il riprodursi di un evento con un certo anticipo. Si definiscono degli scenari predittivi entro i quali si riconosce che l’evento che si è realizzato o si sta realizzando appartiene, un una certa probabilità, ad una specifica categoria di avvenimenti.
Trasferimento di competenza dall'uomo alla macchina
La differenza con sistemi tradizionali è che l’esperto non descrive in una analisi formalizzata la propria competenza, successivamente trasferita ad un team di progetto che elabora del software sulla base di queste specifiche. L’esperto opera un trasferimento di conoscenza direttamente nei confronti dell’applicazione. Per rendere più semplice il discorso ricorrerò ad una mia esperienza progettuale personale.
Nel progetto in questione ci siamo trovati nella situazione di dover discriminare se nell’occorrere di una serie di eventi si riuscisse ad individuare quali di questi rivelassero un comportamento fraudolento. In casi come questo le reti neurali possono rivelarsi molto utili nell’individuazione di tali casi, ma hanno il difetto di non riuscire a certificare ex-post il processo attraverso il quale hanno raggiunto le proprie conclusioni.
Scelta della metodologia adeguata
Questo aspetto risulta invece determinante nel momento in cui tale attività necessita di verifiche da audit interni o enti di sorveglianza terzi. Si è optato quindi, in quel caso, per un diverso modello statistico. Semplificando in maniera estrema il processo, vengono individuati due insiemi campione di eventi, quelli che fanno riferimento ad operazioni corrette e quelli che fanno riferimento ad operazioni “sospette”. Questo è il lavoro dell’esperto (applicativo!) ed è il modo in cui l’esperto stessa comunica al sistema la sua competenza. Ciò avviene senza esplicitare quali sono i parametri per i quali tale operazione viene ritenuta sospetta (un valore supera una certa soglia o altri valori si presentano in una certa serie o con caratteristiche specifiche).
Sarà il sistema a desumere nella fase di apprendimento quali sono le variabili determinanti e quali sono le relazioni che le legano.
Addestramento ricorsivo dei sistemi
I principali vantaggi che derivano da tale approccio è che la ponderazione del peso di una singola variabile viene fatta in base a precisi calcoli su dati reali e che il sistema non si presenta statico ma intrinsecamente dinamico perché, quando si passa alla fase operativa, i risultati dell’attività del sistema stesso costituiscono un feedback per il modello di calcolo che può continuamente essere raffinato e migliorato.
Il sistema quindi auto apprende dalla propria attività, acquisendo ulteriore competenza da chi lo utilizza e ne giudica i risultati, mentre nel caso di un sistema tradizionale, sviluppato su un pur complesso algoritmo basato su soglie è evidente che l’evoluzione della procedura informatica dipende da step di analisi da parte di esperti e successive attività di tuning da parte di un team di sviluppo.
Nello schema che segue un’analisi del flusso logico della procedura che esplica chiaramente la sua natura ricorsiva.
continua..
Labels:
Aziende,
banca,
business intelligence,
eccellenza,
innovazione
Tuesday, January 13, 2009
Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte prima): contesto e riferimenti
Mi sono occupato nei precedenti post della business intelligence e dei risultati dei due osservatori di due delle principali istituzioni scientifiche milanesi l' Università Bocconi ed il Politecnico.
L’attenzione che dedico al settore specifico deriva anche dalla mia attività professionale che ha come focus, in questo momento, proprio la business intelligence. Si parla molto del tema ed il settore di mercato appare tra quelli maggiormente in crescita, sia nel passato che nel futuro prossimo, insieme ad enterprise content management, collaboration, unified communications e pochi altri, ma la percezione che si ricava dall’osservazione sullo stato dell’arte è che ci sia ancora molta strada da percorrere.
Primo livello di approccio alla BI
Le conclusioni dei due laboratori citati evidenziano che il macro tema può essere genericamente diviso in due sottocategorie, la BI elementare e quella avanzata, dove nella prima possono essere compresi tutti gli strumenti di organizzazione e navigazione dei dati ed appare come il livello di utilizzo al momento maggiormente diffuso.
Certamente questo primo passo permette di desumere informazioni sintetiche dalla mole di dati presenti in una azienda e questo fa si che i principali fruitori dei servizi di BI e dei suoi risultati siano soprattutto i livelli direttivi e di management.
Al tempo stesso però appare una grossa limitazione, soprattutto in considerazione del lavoro necessario a raggiungere questi risultati e dal gap, proporzionalmente minimo, per raggiungere risultati di ben altro spessore.
Principale barriera: quantità e qualità dei dati
Come infatti ci evidenzia la School of Management del Politecnico la maggiore difficoltà percepita dalle aziende è quella di avere a disposizione dati in maniera corretta e completa. Questa percezione è lo specchio della difficoltà reale costituita dall’organizzare una raccolta sistematica delle informazioni dai vari processi operativi, soprattutto in realtà con strutture organizzative complesse, come sono appunto le banche di cui principalmente mi occupo. Decine di procedure, gestite da divisioni e aziende diverse, i cui dati devono essere raccolti e resi omogenei.
Un grande lavoro di organizzazione, di sviluppo ma anche di verifica dei risultati ed infine di manutenzione.
Stupisce perché a questo punto, quando il lavoro più impegnativo, in termini di impegno di risorse umane ed economiche, è stato realizzato, non si sfrutti appieno la capacità informativa di questo mapping della conoscenza aziendale.
Business Intelligence evoluta
Quella che abbiamo definito BI avanzata, ovvero quella fa uso di strumenti statistico-probabilistici e “sistemi esperti”, non ha ancora fatto il suo ingresso estensivo nelle aziende, a parte alcuni settori first mover, che ne fanno uso al momento, in particolare si tratta di settori che si occupano di marketing o rischio.
Il limite, in questo momento, è a mio avviso, costituito dalle competenze, che sono diverse da quelle abitualmente disponibili nel mondo dell’IT e che quindi, essendo poco presenti in azienda, non riescono a dare un impulso decisivo all’utilizzo di questi metodi. C’è anche da dire che la rivoluzione digitale è tutto sommato recente e ancora più recente è la consapevolezza del patrimonio costituito dall’informazione digitale.
Disponibilità di adeguate figure professionali
Il costo quindi per fare questo ulteriore scatto in avanti nel dominio della conoscenza non è più un costo misurabile con variabili quantitative, ma un costo determinato da esigenze qualitative. Se la BI di primo livello si basa essenzialmente su sistemi di organizzazione e rappresentazione delle informazioni, dai classici strumenti di reportistica a quelli più evoluti di navigazione nell’informazione, la BI di secondo livello utilizza motori di calcolo, modelli matematici e sistemi ad auto-apprendimento.
Nel primo caso la funzione di intelligence è soprattutto demandata alla capacità ed alla competenza di chi analizza i dati, supportato da meccanismi di “lettura” delle informazioni, mentre nel secondo livello lo strumento informatico si pone come un mezzo in grado di fornire delle sue autonome interpretazioni delle informazioni, basate sulla capacità di dotare il sistema delle medesima competenza di un esperto.
Si usano in questo caso sistemi di apprendimento basati su modelli di previsione che utilizzano diversi metodi statistici, dalle celebri reti neurali, all’analisi discriminante, alla support vector machine, etc.
Ma in cosa si traduce tutto ciò?
continua nel post successivo: trasferimento di competenza tra uomo e macchina
L’attenzione che dedico al settore specifico deriva anche dalla mia attività professionale che ha come focus, in questo momento, proprio la business intelligence. Si parla molto del tema ed il settore di mercato appare tra quelli maggiormente in crescita, sia nel passato che nel futuro prossimo, insieme ad enterprise content management, collaboration, unified communications e pochi altri, ma la percezione che si ricava dall’osservazione sullo stato dell’arte è che ci sia ancora molta strada da percorrere.
Primo livello di approccio alla BI
Le conclusioni dei due laboratori citati evidenziano che il macro tema può essere genericamente diviso in due sottocategorie, la BI elementare e quella avanzata, dove nella prima possono essere compresi tutti gli strumenti di organizzazione e navigazione dei dati ed appare come il livello di utilizzo al momento maggiormente diffuso.
Certamente questo primo passo permette di desumere informazioni sintetiche dalla mole di dati presenti in una azienda e questo fa si che i principali fruitori dei servizi di BI e dei suoi risultati siano soprattutto i livelli direttivi e di management.
Al tempo stesso però appare una grossa limitazione, soprattutto in considerazione del lavoro necessario a raggiungere questi risultati e dal gap, proporzionalmente minimo, per raggiungere risultati di ben altro spessore.
Principale barriera: quantità e qualità dei dati
Come infatti ci evidenzia la School of Management del Politecnico la maggiore difficoltà percepita dalle aziende è quella di avere a disposizione dati in maniera corretta e completa. Questa percezione è lo specchio della difficoltà reale costituita dall’organizzare una raccolta sistematica delle informazioni dai vari processi operativi, soprattutto in realtà con strutture organizzative complesse, come sono appunto le banche di cui principalmente mi occupo. Decine di procedure, gestite da divisioni e aziende diverse, i cui dati devono essere raccolti e resi omogenei.
Un grande lavoro di organizzazione, di sviluppo ma anche di verifica dei risultati ed infine di manutenzione.
Stupisce perché a questo punto, quando il lavoro più impegnativo, in termini di impegno di risorse umane ed economiche, è stato realizzato, non si sfrutti appieno la capacità informativa di questo mapping della conoscenza aziendale.
Business Intelligence evoluta
Quella che abbiamo definito BI avanzata, ovvero quella fa uso di strumenti statistico-probabilistici e “sistemi esperti”, non ha ancora fatto il suo ingresso estensivo nelle aziende, a parte alcuni settori first mover, che ne fanno uso al momento, in particolare si tratta di settori che si occupano di marketing o rischio.
Il limite, in questo momento, è a mio avviso, costituito dalle competenze, che sono diverse da quelle abitualmente disponibili nel mondo dell’IT e che quindi, essendo poco presenti in azienda, non riescono a dare un impulso decisivo all’utilizzo di questi metodi. C’è anche da dire che la rivoluzione digitale è tutto sommato recente e ancora più recente è la consapevolezza del patrimonio costituito dall’informazione digitale.
Disponibilità di adeguate figure professionali
Il costo quindi per fare questo ulteriore scatto in avanti nel dominio della conoscenza non è più un costo misurabile con variabili quantitative, ma un costo determinato da esigenze qualitative. Se la BI di primo livello si basa essenzialmente su sistemi di organizzazione e rappresentazione delle informazioni, dai classici strumenti di reportistica a quelli più evoluti di navigazione nell’informazione, la BI di secondo livello utilizza motori di calcolo, modelli matematici e sistemi ad auto-apprendimento.
Nel primo caso la funzione di intelligence è soprattutto demandata alla capacità ed alla competenza di chi analizza i dati, supportato da meccanismi di “lettura” delle informazioni, mentre nel secondo livello lo strumento informatico si pone come un mezzo in grado di fornire delle sue autonome interpretazioni delle informazioni, basate sulla capacità di dotare il sistema delle medesima competenza di un esperto.
Si usano in questo caso sistemi di apprendimento basati su modelli di previsione che utilizzano diversi metodi statistici, dalle celebri reti neurali, all’analisi discriminante, alla support vector machine, etc.
Ma in cosa si traduce tutto ciò?
continua nel post successivo: trasferimento di competenza tra uomo e macchina
Labels:
Aziende,
banca,
business intelligence,
eccellenza,
innovazione
Subscribe to:
Posts (Atom)