Showing posts with label eccellenza. Show all posts
Showing posts with label eccellenza. Show all posts

Thursday, December 6, 2012

Il primo Open Data Day italiano a febbraio

Ieri a Bologna si è tenuto il primo incontro preparatorio per il primo Open Data Day italiano, in previsione per  febbraio, ovviamente in concomitanza con la giornata internazionale dedicata agli Open Data.

L'incontro promosso (anche attraverso un sito ad hoc), dall’Associazione Stati Generali dell’Innovazione e regesta.exe aveva l'obiettivo di organizzare un confronto tra tutti i soggetti, pubblici e privati, che hanno finora lavorato in Italia su Open Data e Linked Open Data per intraprendere un’iniziativa dal basso a sostegno degli Open Data e delle attività avviate dall’Agenzia per l’Italia digitale in questo settore.

L'adesione è stata più che ampia e coinvolgente, con interessanti e vivaci spunti di riflessione, per la cui analisi vi rimando alla cronaca via twitter fatta da stessa regesta oppure seguendo l'hashtag

Quello che mi interessa sottolineare come questo tema stia assumendo sempre più importanza anche nel panorama italiano e, pur senza voler tornare per forza una citazione ormai consueta nel mondo degli Open Data, ovvero quella della battaglia del pioniere di internet e degli Open Data Tim Berners Lee, non possiamo che sottoscrivere la dichiarazione " unlock our data and reframe the way we use it together".

Questa è una svolta troppo importante per ignorarne i benefici ma naturalmente l'innovatività di questo cambiamento non risiede nella capacità tecnologica di adottare un'infrastruttura tecnologica più o meno adeguata, quanto nella volontà dei singoli di "pensare insieme", ovvero nell'adesione reale alla filosofia degli Open Data (...e non nell'inseguire il suo essere oggi un po' di moda!).
  

Saturday, October 27, 2012

Linux Day, ma chi sarà questo Linus Torvald ????

Oggi è il Linux Day, la festa del sistema operativo "libero" più diffuso al mondo.

Per conoscere le iniziative vi consiglio il sito predisposto dalla Italian Linux Society o i tanti post dedicati da importanti magazine on line.

Qui preferisco fare una breve riflessione sul rapporto tra il software libero e l'economia reale. Sarebbe intereressante quantificare i miliardi di euro che istituzioni e aziende di tutto il mondo hanno risparmiato grazie al fatto di avere installato una qualche distribuzione di Linux, riducendo costi ma al tempo stesso dando comunque linfa economica a società tecnologiche per consulenze o sviluppo di nuove funzionalità.

Con minori costi complessivi o al massimo a parità investimento hanno realizzato qualcosa in più, un servizio nuovo per i cittadini o per lavoratori e clienti di una azienda, mi viene in mente la frase di Neal Armstrong allo sbarco sul suolo lunare, "un piccolo passo per un uomo, ma un balzo da gigante per l'umanità" (That's one small step for [a] man, one giant leap for mankind).

Ma quello che appare una clamorosa anomalia è che oggi pochi saprebbero dire chi è Linus Torvald e ancora meno saprebbero riconoscerlo in una foto, Linus non è il famoso DJ ma il programmatore finlandese che ha promosso la realizzazione di Linux. Richard Stallman è invece un signore dai lunghi capelli e dall'altrettanto lunga barba alle cui idee tutto il movimento Open Source deve rispettosamente molto, compreso il software GNU da cui prese avvio il progetto Linux. Le cose buone fatte da Stallman sono tante ma per questo vi rimando alle sue biografie.


La maggior parte delle persone che non si occupano di informatica (ahimè anche molte di quelle che se ne occupano) costretti a guardare le foto (p.s. quella di Stallman è presa da Wikipedia, grande fonte di conoscenza libera) che ho inserito nel mio post avrebbero un bel punto interrogativo stampato in faccia o guarderebbero Stallman con una certa diffidenza.

Se però inserissi, sotto, anche la foto di Steve Jobs istintivamente stringerebbero nelle mani il loro iPhone 5 da 900 euro a la loro bocca disegnerebbe sul viso un sorriso di compiacimento (p.s. inutile mettere il link alla sua biografia, tutti sanno chi era).

Fama  e riconoscenza per chi ha fatto confluire nelle casse della propria azienda (e sue) miliardi di dollari e perplessità per chi ha contribuito a generare il più importante cambiamento nell'evoluzione del mercato tecnologico con tutte le sue conseguenze positive nel mondo reale.

Lungi da me innescare una contrapposizione tra questi personaggi che hanno tutti contribuito al percorso dell'economia digitale a partire (tutti) dalle rispettive, lecite, aspettative ma desideravo osservare come spesso i riconoscimentio e la fama per una persona sono spesso proporzionali al denaro che un singolo riesce ad accumulare e con il quale, altrettanto spesso, alimenta la propria immagine pubblica.

Nel mio piccolo oggi voglio solo ringraziare due uomini che hanno fatto una cosa straordinaria.

Ha scritto Antoine de Saint-Exupéry "Se vuoi costruire una nave, non radunare uomini solo per raccogliere il legno e distribuire i compiti, ma insegna loro la nostalgia del mare ampio e infinito".

Ecco quello che hanno fatto Torvald e Stallman non è solo avere "inventato" un nuovo prodotto ma avere tracciato una strada che milioni di persone stanno seguendo, certamente entrambi non hanno rinunciato ad un giusto compenso per il proprio lavoro ma certamente hanno rinunciato a trarre per se stessi il profitto massimo possibile. A favore di tutti.

Thursday, July 12, 2012

xdams, la piattaforma Open Source tutta italiana per la gestione degli archivi multimediali e la valorizzazione dei Beni Culturali


Il dado è tratto, abbiamo rilasciato con licenza Open Source la piattaforma xdams per la gestione di archivi storici multimediali.
“Abbiamo” sta a indicare la società per cui lavoro, regesta.exe, ma più in particolare tutte le persone che da anni collaborano allo sviluppo di questa piattaforma. Si è trattato infatti di una scelta a cui tutti hanno contribuito e verso la quale tutti hanno spinto, il punto di arrivo di un percorso iniziato 10 anni fa e al tempo stesso una nuova partenza.



Cos'è xdmas?

Come dicevo nell’introduzione xdams è un software di catalogazione dei patrimoni storico culturali, archivi storici, fotografici e multimediali in generale. La versione che è stata rilasciata comprende il modello dati dell’archivio storico, codificato secondo EAD, il modulo soggetti produttori e gli authority codificati in EAC-CPF. La caratteristica di questo software è quella di gestire i principali standard nazionali e internazionali per il trattamento di questo tipo di materiali (Isad, Isaar, Fiaf, Scheda F, MAG, Unimarc ecc.) permettendo a tutti coloro i quali utilizzano questo software di lavorare all’interno di un contesto scientificamente riconosciuto a livello internazionale
La scelta principale è stata quella di utilizzare per la persistenza il formato standard per eccellenza di rappresentazione delle informazioni ovvero l’XML, per cui xdams non si serve di un database tradizionale ma di file XML . Tutto ciò permette la massima dinamicità nella configurazione della base dati e soprattutto ne consente una agevole modifica, anche “on fly”.


La roadmap e il servizio di hosting gratuito

Oltre alle prossime versioni con nuove tipologie di archivi e/o con  enhancement tecnologici personalmente aspetto con particolare attenzione la partenza del servizio di hosting  (gratuito di base e a pagamento per livelli più avanzati) che potrà fornire strumenti lavoro a nuove tipologie di utenti e diventare il volano per la creazione di una comunità di esperti, punto di riferimento per lo sviluppo della conoscenza.
Le continue evoluzioni del prodotto hanno avuto quale costante la determinazione di favorire la corretta organizzazione e conservazione delle informazioni e degli oggetti ma anche la predisposizione di una base informativa adeguata alla pubblicazione on line e alla valorizzazione del patrimonio culturale, come avvenuto nel caso dei tanti utenti della piattaforma, Archivio Luce, Camera dei Deputati, IBC Emilia Romagna, Fondazione Feltrinelli e tanti altri.



Obiettivo, condivisione e sviluppo.

Oggi la scelta Open Source rappresenta una nuova fase dell’evoluzione di xdams, il tentativo di allargare la capacità di sviluppo del software ma anche e soprattutto della base dei suoi utilizzatori attraverso un’esperienza di sharing della conoscenze e delle risorse al posto di un modello basato esclusivamente sulla immediata remunerazione dei servizi e dei prodotti.
Speriamo di creare una vera e propria comunità di esperti e sviluppatori che possano collaborare per ottenere il massimo dalla condivisione delle risorse destinate a questo settore. Ci auguriamo poi che questo sia un’ulteriore punto di arrivo per un nuovo rilancio che potrebbe essere l’esportazione di questo modello anche all’estero. L’Italia è il paese con il più grande patrimonio storico al mondo e ci sono le competenze per diventare un punto di riferimento per questo settore.

Saturday, February 11, 2012

Un nuovo, ma collaudato, software open source tutto italiano: xdams, il digital archive management per i beni culturali



E' arrivato il grande giorno. Dopo tanto lavoro martedi 14 febbraio prossimo verrà presentato il progetto xdams open source.

Dal progetto europeo, più di 10 anni fa, è stata fatta tanta strada, tanti progetti e utenti che hanno consentito alla nostra piattaforma di diventare sicuramente uno dei software più affidabili che c'è nel digital archive management dei beni culturali.

Le linee progettuali hanno sempre rispettato l'indicazione di conformità con gli standard italiani e internazionali, ma al tempo stesso il desiderio di soddisfare i requisiti di ricerca ed innovazione imposti dalle sempre più velocemente mutate situazioni tecnologiche e sociali.

Questa piattaforma oggi rappresenta una delle realizzazioni più affidabili e all'avanguardia e proprio oggi invece di lucrare su questa rendita di posizione diventa open source. L'obiettivo è quello di fare un ulteriore passo in avanti, di favorire la diffusione e la condivisione della conoscenza per trasformare un prodotto in una comunità. Tutto ciò perchè crediamo nell'approccio open source e che questa sia una scelta matura che assicura al tempo stesso sostenibilità e larga diffusione.

Questa scelta ci permetterà di lavorare ad un progetto con un approccio che realizza tutte le nostre aspirazioni e speriamo possa, al tempo stesso, garantire una maggiore diffusione della piattaforma. Proprio per questo xdams sarà un software scaricabile grauitamente ma anche un servizio che potrà essere attivato da tutti, altrettanto gratuitamente e con estrema facilità.

Il 14 febbraio, collegandosi al sito www.xdams.org si potrà assistere in streaming ad un evento concepito per spiegare le nostre motivazioni e i nostri obiettivi, nonchè per offrire a tutti il punto di vista di alcuni utenti di xdams.

L'inizio di un nuovo percorso che ci auguriamo collettivo e proficuo per tutti.

Thursday, September 24, 2009

La banca "verde": si comincia dalla carta alla sportello. Un approccio diverso per rendere efficienti i processi. (Parte Seconda)

AbiLab ha prodotto qualche mese fa uno studio sui costi della gestione della documentazione in banca che ho cominciato ad introdurre nel precedente post. In particolare Abilab fa una stima dei costi per sportello piuttosto accurata per le spese di conservazione (1500 eur l’anno per sportello), di gestione logistica, spedizione e ricerca, ma non da una stima altrettanto precisa per gli altri costi interni di gestione, ovvero quelli che, tra front office e back office, sono pagati dalle banche soprattutto in termini di personale, di efficienza e di competitività.

Fonte AbiLab

Un importante costo sommerso, di difficile valutazione, infatti è proprio la stima del debito di competitività che si sconta, al tempo impiegato dal personale in attività “fisiche”, va sommata la perdita di valore potenziale indotta dalla impossibilità di realizzare alcune tipologie di servizio, nei termini desiderati, o nella percezione di inefficienza da parte della clientela.

Due fattori nuovi sembrano determinare una certo cambiamento, o per lo meno un diverso orientamento, ed il primo è certamente la recente crisi economica. Questa ha spinto big e meno big a lavorare con maggiore intensità nel campo della ricerca di efficienza per migliorare, in particolar modo, il conto economico, messo a dura prova dalle tempesta finanziaria e dalla esplosione degli effetti delle speculazioni degli anni scorsi.


Più chiaro il quadro normativo

Dall’altra parte si va schiarendo il panorama normativo, che in Italia rappresenta spesso, a causa della scarsa reattività all’innovazione ed alla sua complessità intrinseca, un forte ostacolo alla modernizzazione del settore. “Le banche – nel documento si legge la dichiarazione del presidente di ABI Lab, Domenico Santececca – sono uno dei settori produttivi più legati alla carta… ... In questo quadro, le recenti evoluzioni normative introdotte dal Governo con la legge 2/2009, semplificano notevolmente le procedure di digitalizzazione e conservazione aprendo una nuova frontiera alla gestione documentale, con meno carta e più efficienza”.

Solo il 9% dei documenti esaminati da Abilab nasce già in forma digitale e questo 9% fa riferimento soprattutto a quei documenti per i quali non è richiesta la firma del cliente. Di contro i già citati incassi e pagamenti, i più diffusi allo sportello, non sono in genere gestiti in maniera digitalmente integrata e concorrono al grosso della spesa e delle inefficienze.
Fonte Abilab

Come si può affrontare la modernizzazione dei processi che coinvolgono il trattamento della carta?

Sicuramente un approccio incrementale permette di maturare la necessaria esperienza affinché si riduca sempre di più la possibilità di incorrere in errori di valutazione, che possano condurre a perseguire obiettivi che non danno completamente i risultati desiderati. Alcune applicazioni prototipali e la loro verifica sul campo possono offrire la possibilità di progettare e testare un proprio personale approccio all’innovazione nella gestione documentale, con il giusto mix tra innovazione (e quindi capacità di modificare sostanzialmente lo status quo) e conservazione, per evitare che i costi per l’introduzione dei nuovi processi oscurino i risultati ottenuti.

Più in dettaglio un progetto di questo genere richiede:
  • Assessment dei sistemi (conoscenza delle tecnologie, censimento, studio delle integrazioni)
  • Osservazione dei processi (valutazione delle performance per pertinenza e tempo)
  • Individuazione dei processi da efficientare (Concretezza, coinvolgimento, velocita’)
  • Definizione scenario progettuale di reingegnerizzazione (accettabilita’, sostenibilita’, progressivita’)
Cruciale in questo contesto l'osservazione dei processi e l'individuazione di quelli da effientare, cercando di basare il proprio metodo di valutazione su dati oggettivi quali il perseguimento di un adeguato ROI nel minore tempo possibile.

Monday, May 4, 2009

Comunicazione e Capitale umano in tempo di crisi, il 91% degli impiegati vuole condividere le informazioni, se ne discute il 7 maggio all’OPEN DAY

Qualche giorno fa ho ricevuto l’invito per giovedi 7 maggio all’Open Day (viale Ergisto Bezzi 2) organizzato da IQM selezione e Krauthammer (multinazionale che fornisce servizi di Consulenza, Formazione manageriale e Coaching) ed è stata l’occasione per una riflessione sulla percezione del capitale rappresentato dalle risorse nel bel mezzo di questa “grande crisi”.

Alberto Baggini, CEO di IQM e professore al Politecnico di Milano, è stata una delle persone che per prime hanno animato le discussioni sul mio blog con una intervista sull’argomento “capitale umano”, arricchendolo del particolare punto di vista di chi ha il compito di valutare candidati per una eventuale assunzione.


Manager all'altezza della crisi?

Avevamo parlato delle differenti tipologie di intelligenza e di come tali abilità devono essere calibrate rispetto alle reali esigenze della azienda che sta ricercando personale, di come sia importante far emergere le reali caratteristiche ed in particolare Alberto Baggini aveva evidenziato che nel suo lavoro “ colloqui sotto stress consentono di valutare le reazioni dei candidati di fronte a reazioni non prevedibili o difficilmente inquadrabili, in modo che il nostro interlocutore non possa mettere in atto un comportamento consolidato ma debba mettere in gioco il proprio istinto, la propria capacità di improvvisazione e di gestione delle criticità, che sono poi requisiti fondamentali di fronte a richieste endogene od esogene di adattamento”.

Se è vero che spesso in tempi normali le doti di leadership di un manager non vengono sottoposte a stress particolari, fusioni, cali di risorse finanziarie o di quote di mercato fanno esplodere in tutta evidenza le contraddizioni di manager non adeguati al ruolo che ricoprono.


Il costo aziendale di professionalità inadeguate e la "distanza" tra manager ed impiegati

La valutazione di un candidato (sia manager o meno) ha una grande criticità ed un peso nella vita aziendale successiva, perché ovviamente l’introduzione in una struttura di professionisti non adeguati al ruolo ha un peso crescente, quanto più diminuiscono le dimensioni della società e quanto più la crisi erode i margini operativi.

Leggiamo da più parti che la crisi “rappresenta una opportunità” , ricorrendo ad un raffigurazione benevola della realtà, in quanto sarebbe molto più corretto dire che la crisi è uno “stimolo” a mettere in piedi un processo maggiormente virtuoso, nel controllo dei costi e nella valorizzazione degli asset.

L’opportunità è infatti un evento puntuale che si presenta limitato nel tempo, mentre la necessità di migliorare processi e strutture è permanente, ciò che cambia è solo la percezione dell’urgenza con cui porre rimedio a disfunzioni e disservizi, urgenza che in tempi di crescita viene solamente nascosta dall’andamento positivo di una azienda.

Questa “opportunità” però, anche durante la crisi (o soprattutto?), rimane spesso uno slogan scritto sui giornali, perché un periodo di recessione non fa altro che amplificare la necessità di tagli e tali tagli vengono spesso realizzati sulla base solo di criteri “immediatamente” economici, senza valutazioni sui valori intrinseci e sulle prospettive di medio e lungo termine. La contrazione del mercato, a mio avviso, non fa ha altro che amplificare il muro che spesso esiste tra livelli di management diverso e tra manager ed impiegati.


La comunicazione e la condivisione come valore aziendale e qualità di un manager

Proprio il comunicato stampa dell OPEN DAY contiene alcune statistiche che sostengono tale percezione “Da un’indagine realizzata a livello europeo da consulenti esperti di formazione e coaching manageriale facenti parte di Krauthammer è emerso che la maggior parte dei manager non riesce a soddisfare le esigenze dei dipendenti e conseguentemente neanche quelle aziendali. I dipendenti desiderano essere informati dai loro manager sulle decisioni prese e che queste ultime siano contestualizzate e accompagnate da chiarimenti. Il 40% dei manager soddisfa tale richiesta, tuttavia, più di un terzo (35%) ha la tendenza a limitarsi ai fatti e ai dettagli; il 25% ha un atteggiamento opposto, ossia fornisce spiegazioni imprecise e vaghe. Quando i dipendenti riscontrano difficoltà nell'eseguire un compito, il 91% di essi desidera analizzare i problemi insieme ai manager, ma solo il 47% dei manager si comporta in tal modo, mentre un terzo (31%) tende a fornire ai dipendenti un'analisi personale, senza consultarli. Il migliore leader in tempi di crisi è colui che non minimizza questi aspetti, contribuendo a rendere meno “esplosiva” una situazione già critica. È importante mantenere alti i livelli di comunicazione con i propri dipendenti: essere trasparenti sulla situazione aziendale e sulle strategie adottate, chiamando a raccolta tutte le forze in campo e assumendo un diverso atteggiamento verso i contributi altrui”.

Troppo spesso invece il detenere informazione viene considerato un valore, in virtù dell'ossequio all'obsoleto "divide et impera", un valore finalizzato al mantenimento ed all'accrescimento del peso della propria posizione nella struttura aziendale, a prescindere se tali atteggiamenti abbiamo o meno una ricaduta sull'organizzazione e sui risultati aziendali. Ricaduta che esiste e che troppo spesso è negativa.


OPEN DAY

Avendolo citato all’inizio del post chiudo solo con una nota proprio sull’OPEN DAY, un’iniziativa che ha l’obiettivo di far incontrare e discutere professionisti, specialisti e manager sulla comunicazione e sul valore del capitale rappresentato dalle persone e dalla loro competenza. Si terrà giovedì 7 Maggio 2009 in viale Ergisto Bezzi 2, dal mattino alla serà e vedrà wokshop, incontri personalizzati e momenti di discussione. Per chi è interessato può scrivere a info@iqmselezione.it

Thursday, April 2, 2009

Uno studio dimostra che l'uso di internet in ufficio non diminuisce la produttività. Anzi l'aumenta del 9%!

Oggi la sezione di Repubblica dedicata al lavoro riporta un commento ad uno studio australiano che ha tentato di dimostrare una relazione tra aumento della produttività ed utilizzo del web, in particolare dei social network.

Non so se questa ricerca sui comportamenti degli impiegati abbia solide base scientifiche e tanto meno ho io le basi per valutare se è vero che l'utilizzo quotidiano di Facebook induca un aumento del 9%, come sostenuto nell'articolo, sono certo però che le "distrazioni" cui siamo soggetti al lavoro sono in genere insite nel nostro approccio e che quindi se abbiamo un approccio responsabile al mondo del lavoro non sarà certo Facebook a minarlo.

Di contro non basta proibire l'uso di Facebook ad un dipendente per farlo lavorare. Tutt'altro.

Purtroppo spesso è radicata la convinzione che una politica "proibizionistica" dia i suoi frutti nel rendere produttive le persone, mentre la realtà è che solo una strategia di coinvolgimento può consentire di massimizzare l'impegno sul posto di lavoro. Si confondono obiettivi quantitativi (presenza in ufficio) con obiettivi qualitativi (capacità di produrre), la velocità e la frenesia con la reale capacità di creare valore aggiunto.

Thursday, January 22, 2009

Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte terza): il processo di auto-apprendimento del sistema

Continuando l’approfondimento sulla business intelligence di livello avanzato, ritengo sia interessante esplodere il concetto di auto-apprendimento dei sistemi.

Come si è detto nei post precedenti il valore costituito dalla competenza dell’esperto è complementare a qualunque base dati, per quanto esaustiva, che una azienda abbia potuto predisporre per descrivere la propria conoscenza, sopratutto perché l’aumento delle informazioni disponibili, conseguente alla rivoluzione digitale, ha reso ancor più determinante la capacità interpretativa dei dati dell'esperto al fine di estrarre informazione di sintesi.

Al tempo stesso questa capacità risulta sempre meno utilizzabile in maniera non automatica con il crescere delle informazioni da esaminare ed è difficilmente formalizzabile, ma gli strumenti basati su modelli statistici contribuiscono a rendere “computabile” questo know how implicito. Vediamo per esempio come potrebbe funzionare un modello basato sull’analisi discriminante.

L’analisi discriminante tenta di identificare le variabili che, appunto, “discriminano”, l’appartenenza ad un gruppo piuttosto che un altro e ad individuare le funzioni lineari che meglio descrivono e chiariscono l’appartenenza ad un gruppo. Si tratta in definitiva delle sommatorie di variabili indipendenti “pesate”, con un processo che è finalizzato all’individuazione di set di pesi che, meglio di altri, collochino un evento descritto dalle variabile in un gruppo piuttosto che un altro. In definitiva si ricerca cosa differenzia in sostanza i due gruppi.

L’analisi discriminante è basata sull’esplorazione di un set di casi, in cui gli eventi vengono suddivisi in gruppi logici ed il percorso di apprendimento consiste proprio nell’identificazione dei pesi delle possibili funzioni lineari che descrivono gli eventi, con la individuazione di quelle che minimizzano quanto più possibile l’area grigia cui possono appartenere eventi dei gruppi distinti.

La definizione dei casi campione è il modo in cui l’esperto comunica al sistema la propria conoscenza e ne determina il percorso di apprendimento. Alla fine di questo il sistema è in grado di analizzare nuovi eventi ed assegnare loro uno scoring, la probabilità che l’evento appartenga ad un insieme o ad un altro.

Ma rifacciamo un passo indietro, ovvero a come avviene il trasferimento di competenza. Il primo step è costituito dalla “segmentazione” ovvero lo studio delle informazioni presenti per individuare quali sono le categorie di informazioni in grado di rappresentare gli eventi e se esistono dati storici adeguati ad attivare il processo di auto apprendimento.

La “selezione” delle variabili consiste nella ricognizione delle stesse per identificare quelle rilevanti ai fini dello studio in oggetto.

Occorre osservare che diventa determinante la corretta identificazione delle variabili e l’eventuale correlazione tra esse perché si possa realmente valutare il peso discriminate delle singola variabile

Il processo di apprendimento termina con la validazione dei modelli con l’applicazione degli stessi ad un numero significativo di casi campione per determinare, sempre con tecniche statistiche, la rilevanza dell’errore atteso.

In realtà, potenzialmente, il processo prosegue durante l’esercizio stesso del sistema perché possono essere definiti degli ulteriori punti di sincronizzazione del sistema, nei quali i risultati stessi dell’attività di analisi possono essere forniti al sistema come feedback, per ampliare/aggiornare i casi campione e rifinire ulteriormente i modelli, variando eventualmente i pesi, in relazione alle modifiche introdotte dal tempo sul corso degli eventi.

Questa caratteristica di continua ricorsività costituisce evidentemente un ulteriore plus di questo approccio che non è più statico o modificato su precisa e formale analisi dell’uomo che interviene a cambiare le impostazioni iniziali, ma è lo strumento stesso che offre la base informativa ed i mezzi per avviare un processo di revisione.

I casi cui tale metodo può essere utilizzato sono moltissimi nella abituale operatività aziendale, a fini “repressivi” e di indagine, ovvero determinare che un certo evento sia fraudolento o nocivo (tentativo di frode o di intrusione, possibilità che un cliente non restituisca un prestito, possibilità che stia per verificarsi un crash di un servizio critico) di “allerta” commerciale (comportamento che indica la propensione di un cliente ad abbandonare un il suo fornitore, appartenenza di una persona ad un target specifico).

Thursday, January 15, 2009

Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte seconda): il trasferimento di competenza tra uomo e macchina

Abbiamo osservato nel precedente post una differenza tra BI di base ed avanzata e proviamo ad analizzare un po’ più in dettaglio in cosa consiste questa secondo più evoluto livello della business intelligence.

Appartengono, per esempio, a questa fascia di applicazioni quei sistemi basati sulla capacità del sistema di applicare modelli statistici all’analisi degli eventi presenti e passati per ottenere indicazioni sul comportamento futuro.


Analisi del passato per predirre il futuro

Tutto ciò avviene dopo che il sistema ha subito un periodo di “addestramento”, durante il quale degli esperti cercano di trasferire al sistema stesso la propria competenza. Questo trasferimento di conoscenza avviene indicando al sistema quali risultati ha ottenuto in passato l’osservazione degli esperti ed il sistema cerca di dedurre quali sono le reali correlazioni tra le variabili che rappresentano un evento, individuando pattern che possano permettere di riconoscere il riprodursi di un evento con un certo anticipo. Si definiscono degli scenari predittivi entro i quali si riconosce che l’evento che si è realizzato o si sta realizzando appartiene, un una certa probabilità, ad una specifica categoria di avvenimenti.


Trasferimento di competenza dall'uomo alla macchina

La differenza con sistemi tradizionali è che l’esperto non descrive in una analisi formalizzata la propria competenza, successivamente trasferita ad un team di progetto che elabora del software sulla base di queste specifiche. L’esperto opera un trasferimento di conoscenza direttamente nei confronti dell’applicazione. Per rendere più semplice il discorso ricorrerò ad una mia esperienza progettuale personale.

Nel progetto in questione ci siamo trovati nella situazione di dover discriminare se nell’occorrere di una serie di eventi si riuscisse ad individuare quali di questi rivelassero un comportamento fraudolento. In casi come questo le reti neurali possono rivelarsi molto utili nell’individuazione di tali casi, ma hanno il difetto di non riuscire a certificare ex-post il processo attraverso il quale hanno raggiunto le proprie conclusioni.


Scelta della metodologia adeguata

Questo aspetto risulta invece determinante nel momento in cui tale attività necessita di verifiche da audit interni o enti di sorveglianza terzi. Si è optato quindi, in quel caso, per un diverso modello statistico. Semplificando in maniera estrema il processo, vengono individuati due insiemi campione di eventi, quelli che fanno riferimento ad operazioni corrette e quelli che fanno riferimento ad operazioni “sospette”. Questo è il lavoro dell’esperto (applicativo!) ed è il modo in cui l’esperto stessa comunica al sistema la sua competenza. Ciò avviene senza esplicitare quali sono i parametri per i quali tale operazione viene ritenuta sospetta (un valore supera una certa soglia o altri valori si presentano in una certa serie o con caratteristiche specifiche).

Sarà il sistema a desumere nella fase di apprendimento quali sono le variabili determinanti e quali sono le relazioni che le legano.


Addestramento ricorsivo dei sistemi

I principali vantaggi che derivano da tale approccio è che la ponderazione del peso di una singola variabile viene fatta in base a precisi calcoli su dati reali e che il sistema non si presenta statico ma intrinsecamente dinamico perché, quando si passa alla fase operativa, i risultati dell’attività del sistema stesso costituiscono un feedback per il modello di calcolo che può continuamente essere raffinato e migliorato.

Il sistema quindi auto apprende dalla propria attività, acquisendo ulteriore competenza da chi lo utilizza e ne giudica i risultati, mentre nel caso di un sistema tradizionale, sviluppato su un pur complesso algoritmo basato su soglie è evidente che l’evoluzione della procedura informatica dipende da step di analisi da parte di esperti e successive attività di tuning da parte di un team di sviluppo.

Nello schema che segue un’analisi del flusso logico della procedura che esplica chiaramente la sua natura ricorsiva.



continua..

Tuesday, January 13, 2009

Il passaggio dalla Business Intelligence di primo livello a quella avanzata (parte prima): contesto e riferimenti

Mi sono occupato nei precedenti post della business intelligence e dei risultati dei due osservatori di due delle principali istituzioni scientifiche milanesi l' Università Bocconi ed il Politecnico.

L’attenzione che dedico al settore specifico deriva anche dalla mia attività professionale che ha come focus, in questo momento, proprio la business intelligence. Si parla molto del tema ed il settore di mercato appare tra quelli maggiormente in crescita, sia nel passato che nel futuro prossimo, insieme ad enterprise content management, collaboration, unified communications e pochi altri, ma la percezione che si ricava dall’osservazione sullo stato dell’arte è che ci sia ancora molta strada da percorrere.


Primo livello di approccio alla BI

Le conclusioni dei due laboratori citati evidenziano che il macro tema può essere genericamente diviso in due sottocategorie, la BI elementare e quella avanzata, dove nella prima possono essere compresi tutti gli strumenti di organizzazione e navigazione dei dati ed appare come il livello di utilizzo al momento maggiormente diffuso.

Certamente questo primo passo permette di desumere informazioni sintetiche dalla mole di dati presenti in una azienda e questo fa si che i principali fruitori dei servizi di BI e dei suoi risultati siano soprattutto i livelli direttivi e di management.

Al tempo stesso però appare una grossa limitazione, soprattutto in considerazione del lavoro necessario a raggiungere questi risultati e dal gap, proporzionalmente minimo, per raggiungere risultati di ben altro spessore.


Principale barriera: quantità e qualità dei dati

Come infatti ci evidenzia la School of Management del Politecnico la maggiore difficoltà percepita dalle aziende è quella di avere a disposizione dati in maniera corretta e completa. Questa percezione è lo specchio della difficoltà reale costituita dall’organizzare una raccolta sistematica delle informazioni dai vari processi operativi, soprattutto in realtà con strutture organizzative complesse, come sono appunto le banche di cui principalmente mi occupo. Decine di procedure, gestite da divisioni e aziende diverse, i cui dati devono essere raccolti e resi omogenei.

Un grande lavoro di organizzazione, di sviluppo ma anche di verifica dei risultati ed infine di manutenzione.

Stupisce perché a questo punto, quando il lavoro più impegnativo, in termini di impegno di risorse umane ed economiche, è stato realizzato, non si sfrutti appieno la capacità informativa di questo mapping della conoscenza aziendale.


Business Intelligence evoluta

Quella che abbiamo definito BI avanzata, ovvero quella fa uso di strumenti statistico-probabilistici e “sistemi esperti”, non ha ancora fatto il suo ingresso estensivo nelle aziende, a parte alcuni settori first mover, che ne fanno uso al momento, in particolare si tratta di settori che si occupano di marketing o rischio.

Il limite, in questo momento, è a mio avviso, costituito dalle competenze, che sono diverse da quelle abitualmente disponibili nel mondo dell’IT e che quindi, essendo poco presenti in azienda, non riescono a dare un impulso decisivo all’utilizzo di questi metodi. C’è anche da dire che la rivoluzione digitale è tutto sommato recente e ancora più recente è la consapevolezza del patrimonio costituito dall’informazione digitale.


Disponibilità di adeguate figure professionali

Il costo quindi per fare questo ulteriore scatto in avanti nel dominio della conoscenza non è più un costo misurabile con variabili quantitative, ma un costo determinato da esigenze qualitative. Se la BI di primo livello si basa essenzialmente su sistemi di organizzazione e rappresentazione delle informazioni, dai classici strumenti di reportistica a quelli più evoluti di navigazione nell’informazione, la BI di secondo livello utilizza motori di calcolo, modelli matematici e sistemi ad auto-apprendimento.

Nel primo caso la funzione di intelligence è soprattutto demandata alla capacità ed alla competenza di chi analizza i dati, supportato da meccanismi di “lettura” delle informazioni, mentre nel secondo livello lo strumento informatico si pone come un mezzo in grado di fornire delle sue autonome interpretazioni delle informazioni, basate sulla capacità di dotare il sistema delle medesima competenza di un esperto.

Si usano in questo caso sistemi di apprendimento basati su modelli di previsione che utilizzano diversi metodi statistici, dalle celebri reti neurali, all’analisi discriminante, alla support vector machine, etc.

Ma in cosa si traduce tutto ciò?

continua nel post successivo: trasferimento di competenza tra uomo e macchina


Friday, December 5, 2008

L’ Osservatorio sullo stato della Business Intelligence in Italia della School of Management del Politecnico di Milano: il primo report (parte II)

Continuiamo dal post precedente l’analisi dei risultati dell’Osservatorio sullo Stato della Business Intelligence in Italia della School of Management del Politecnico di Milano.

Sulla base della distinzione descritta precedentemente tra Business Intelligence di base ed BI evoluta la situazione che sembra emergere dall’analisi è che le aziende sono raggruppabili in due insiemi diversi, aziende che la utilizzano in settori specifici, probabilmente stimolati dalla presenza di specifiche figura professionali che possono essere definite early adopters, ovvero fanno da apripista all’utilizzo in azienda di metodologie di BI (approccio verticale) ed aziende che ne fanno un uso pervasivo a più livelli (approccio sistemico)


Approccio Verticale vs. Approccio Sistemico

Nel secondo insieme sono incluse realtà in cui l’adozione è sistematica, molto probabilmente decisa a livello di management. Nel grafico seguente è rappresentato il posizionamento delle aziende rispetto all'utilizzo della BI, relativamente ai 73 case studies analizzati dall'Osservatorio. Le misure con cui vengono descitti i 4 macroinsiemi si riferiscono all'ulitizzo della BI per funzioni aziendali e all'intensità di utilizzo di tali tecnologie


* Fonte: C. Orsenigo & C. Vercellis, Business Intelligence. Creare vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008

Ma anche all'interno della seconda tipologia di aziende, ovvero quelle che strutturalmente hanno introdotto la BI nel proprio processo operativo sono stati osservati comportamenti diversi e percorsi diversificati a seconda delle aziende stesse:
  • approccio sistemico, con precise scelte architetturali e metodologiche valide a livello enterprise
  • approccio pragmantico, rappresentabile con una funzione a “scalini”, in cui il consolidamento di una sperimentazione prelude all’inizio di una successiva
  • approccio “creativo”, in cui viene demandata alla singola funzione organizzativa sia la scelta applicativa che quella tecnica, per ottenere il maggior livello dei risultati, anche a scapito dell’univocità architetturale.
Questa differenziazione introduce, a mio avviso, un tema molto interessante sulle strategie ottimali che le diverse divisioni IT perseguono nella propria attività. Una riflessione su cui torneremo con maggior dettaglio.


Motivazioni all'uso della BI

La principale motivazione che spinge le aziende ad utilizzare strumenti di BI risiede, come emerge dalla ricerca, nella capacità che si acquisisce nel prendere decisioni con miglior cognizione di causa e la capacità di definire migliori strategie di business.

E’ interessante notare che le attese di grandi aziende (68% e 59%) e PMI (55% e 65%) sono sostanzialmente invertite rispetto a questi due aspetti, probabilmente a causa dell’approccio più strutturato delle grandi aziende e della maggiore tensione al mercato di quelle minori, mentre lo scoring dei possibili vantaggi che derivano dall'utilizzo di tali metodologie risulta pressocché uguale per i principali due punti emersi dalla ricerca, come riportato nel grafico seguente e relativo appunto allo scoring dei vantaggi legati all'introduzione della BI.


* Fonte: C. Orsenigo & C. Vercellis, Business Intelligence. Creare vantaggio competitivo con l'analisi dei dati, Rapporto Osservatorio Business Intelligence, Politecnico di Milano, 2008


Gli influenzatori del processo decisionale

Gli influenzatori del processo decisionale sono ovviamente per le grandi aziende in primo luogo:
  • responsabili IT (54%)
  • direzione (42%)
  • finanza (31%)
  • marketing (28%)
Di contro le PMI mostrano percentuali diverse:
  • IT (29%)
  • direzione (45%)
  • finanza (12%)
  • marketing (26%)
Questo sembra potersi spiegare con la forte propensione del management delle PMI di assolvere anche a funzioni tipiche dell’IT e del Finance. Ciò finisce con rendere meno strutturate queste due funzioni e quindi meno in grado di essere driver di innovazione.

Questo quadro statistico sembra testimoniare anche, in generale, la scarsa propensione ad utilizzare metodologie di questo tipo in processi operativi veri e propri, infatti la BI viene ancora vista come un supporto di analisi delle informazioni a fini decisionali e non a migliorare processi ed organizzazione. La BI viene vista come un fattore strategico, ma risulta essere un po' inprigionata proprio da questa visione, che di fatto non permette di sfruttarne in pieno tutte le potenzialità.

Su questo tema nel prossimo post vorrei dedicare un po' di tempo ad analizzare un episodio professionale che ho vissuto in prima persona.

Tuesday, November 18, 2008

La cultura delle eccellenza nasce fin dai banchi di scuola: intervista un po' proccupante sull'Italia a Tullio De Mauro

Ho trattato in altri post (apprendimento nell'era del web, l'eccellenza del team, eccellenza e competitività: Alberto Baggini) il tema della qualificazione del personale, la gestione dell'eccellenza, come di un aspetto legato alla vita lavorativa di ciascuno di noi, però spesso ci sfugge che la qualità della professionalità dell'individuo nasce molto prima del suo ingresso nel mondo del lavoro e anche nell'università.

E' recente la polemica sull'incapacità dei nostri atenei di trattenere i migliori cervelli che sono usciti dai propri percorsi di studi e men che meno di attrarne addirittura dall'estero, come succede altrove, anche in paesi che spesso consideriamo "meno evoluti" del nostro. Ma la capacità di apprendere nasce ben prima, a partire dai banchi delle elementari e dal tessuto familiare in cui si stimolano le attitudini. Non vi propongo un analisi personale ma questa intervista di Piero Ricca, in due parti, a Tullio De Mauro, uno dei pochi ministri per l'Istruzione, "tecnico", una persona che conosce i problemi di cui si è occupato nel corso del suo mandato.


Scuola e Famiglia: il loro ruolo nell'educazione

Il tema dell'intervista è in realtà il legame tra cultura e democrazia e di come sia difficile, afferma De Mauro (condivido al 100%), maturare convinzioni consapevoli, ignorando spesso buona parte dei temi di cui si parla. Tralasciando però la connotazione politica, le medesime affermazioni di De Mauro possono essere utilizzate per comprendere meglio le difficoltà della ricerca in Italia e come il grande accusato, la scuola, in realtà condivida questa sua responsabilità con un'altro perno della nostra società: la famiglia.

Non anticipo molto di quello che ascolterete, ma alcuni dati sono inquietanti. Partendo dalla considerazione dal numero di parole conosciute (non usate!!) che va dai 20-25 mila all'uscita dalla scuola ai 25-30 mila dei primi anni di università, si arriva, a seconda delle facoltà, a 60-65 mila per le peggiori e 75-80 mila nelle migliori, dove un massimo in generale viene considerato 85.000.

Questi sono riferimenti solo indicativi dello sviluppo del sapere, che ovviamente non si limita alla sola comprensione delle parole, ma è interessante notare che in Italia però, complice uno stile di vita poco stimolante, si ha una perdina della conoscenza che alcuni studi sima nel 79.8% contro il 20% circa di USA, Inghilterra e Francia.

Una delle concause è la famiglia, come si è detto, sia nel percorso di acquisizione del sapere che nel suo mantenimento, e De Mauro cita alcuni dati impressionanti, solo il 20% delle famiglie ha più di 50 libri in casa, bassa è la percentuale di chi legge giornali ed in queste condizioni il 12% dei laureati rimane nelle fasce meno alfabetizzate della popolazione.

Ora però vi lascio (per chi lo desidera) all'ascolto dell'intervista, sottolineando solo una delle ultime frasi, sull'importanza del web, legato ad un altro tema trattato in questo blog, ovvero la capacità di individuare informazione spesso non resa disponibile dai media tradizionali

Prima parte





Seconda parte




---

Monday, September 29, 2008

Il PMO ed il controllo dei rischi. Quando può risultare più conveniente chiudere un progetto

Ho pubblicato tempo fa un primo post sul PMO e desidero oggi approfondire qual’è il ruolo principale del PMO, ovvero, a mio avviso, di monitorare i rischi e ridurre gli effetti degli eventi ad essi connessi.

L’attività di normalizzazione dei processi e di ottimizzazione dell’uso delle risorse economiche, materiali ed umane hanno infatti il fine si di ottenere i migliori risultati possibili, ma sopratutto quello di evitare l’insorgere di problemi non previsti, o di assorbire l’impatto di quelli non prevedibili.

In alcuni casi l’interpretazione aziendale che si è data del ruolo del PMO è tale da associare tale struttura e/o responsabile alle scelte strategiche ma nella maggior parte dei casi la mansione assegnata è più legata ad attività operative.

Dunque, si è detto, Il PMO deve monitorare i rischi e preservare il progetto da esiti negativi indotti da eventi straordinari o meno (generati internamente e/o occorsi all’esterno), da cattiva pianificazione del programma di lavoro (o di parte di esso) o da una sua errata conduzione.

In realtà l’espressione “preservare il progetto” non è vera in assoluto in quanto, in situazioni estreme, può essere prerogativa del PMO quella di valutare se i benefici che deriveranno dal completamento delle attività possano essere resi inefficaci dall’eccessivo prolungarsi delle attività stesse o se il costo per il completamento del progetto superari il profitto che ne deriverebbe.

Una fredda analisi del rapporto costi/benefici può quindi indurre a prendere la decisione che la chiusura del progetto, prima del suo completamento, risulti più economica e/o più strategica di una sua eventuale prosecuzione. Ci si può quindi trovare di fronte alla opportunità/necessità di accettare la perdita degli investimenti fin qui realizzati, piuttosto che aggiungerne altri, mettendo cosi a repentaglio altre iniziative.

Semplificando (forse eccessivamente) si possono identificare tre macro-categorie di rischi che possono essere individuati durante l’esecuzione di un progetto :

Rischi di basso impatto: le conseguenze del concretizzarsi di un evento negativo sono considerate poco significative e/o la probabilità che esso si verifichi molto basse. In questo caso le azioni previste dal contingency plan sono ritenute idonee ad assorbirne gli effetti o addirittura, in alcuni casi, può essere considerato più economico accettare questo rischio senza mettere in piedi alcuna attività utile ad ammortizzarne gli effetti.

Rischio di eventi che modificano sostanzialmente l’andamento del progetto: il manifestarsi di una circostanza negativa comporta possibili ritardi, o aumento di costi. In questo caso la predisposizione di un piano alternativo deve essere considerato vitale ed occorre definire per tempo una strategia che limiti gli effetti di tale evenienza. Naturalmente questo comporta studiare per la medesima situazione più scenari, per verificare l’applicabilità delle diverse strategie di recovery e sopratutto il rapporto costi/benefici.

Rischi gravi: siamo nella zona “rossa” della suddetta scala. I rischi di questo tipo si riferiscono ad eventi che possono stravolgere il progetto o addirittura decretarne il fallimento.In tal caso valgono tutte le considerazioni fatte al punto precedente, ove, se possibile, tutti i piani e le valutazioni assumono un carattere di massima attenzione. In questa categoria rientrano anche tutti i casi di rischi per eventi imponderabili, come disastri fisici o di diversa natura. Abbiamo assistito in questi mesi al fallimento di alcuni colossi della finanza mondiale... per un loro fornitore questo evento poteva risultare “imponderabile” un anno fa, ma, con il passare dei mesi, il rischio ha cominciato a manifestarsi e concretizzarsi. Tra le opzioni da considerare in questi casi, come abbiamo già detto in precedenza, quella di valutare se non risulti maggiormente economico disporre la chiusura del progetto.

Friday, September 19, 2008

Quando l'argomento che interessa di più, in un blog che parla di banche e tecnologia, è l'elogio dell'ozio!

Non so bene cosa mi ha spinto a rifletterci...

Da un po’ di mesi, guardando i dati delle mie statistiche su Google Analytics, vedevo che in testa al gradimento delle persone che “incappano” nel mio sito c’è il post dedicato allElogio dell’Ozio.

Eppure ho sempre considerato che quel primo posto, nelle pagine più viste, fosse un evento incidentale, determinato da chissà quale fenomeno, il cui accadere esulava dalla mia capacità di comprensione.

L’altro giorno, come moltissimi altri giorni, il post era li, in testa alla classifica dell’ultimo mese, e grazie proprio ad un momento di tranquillità ci ho riflettuto su... “ma se è così, praticamente sempre, evidentemente non è una situazione occasionale?” (riflessione elementare Watson!). Mi sono preso la briga di verificare e così ho scoperto quello che non ero riuscito ad immaginare, ovvero che nell’ultimo anno, a parte chi “atterra” sulla mia homepage, la pagina più visitata è quella dedicata all’OZIO.

Ma come?” mi sono chiesto “con tutta la fatica che faccio per scrivere di banche, mercati mobiliari e tecnologia la mia pagina più vista è –l’elogio dell’ozio-?? “.

Ormai, preso dalla curiosità, sono andato a utilizzare i Webmaster Tools, con più attenzione, e anche li il risultato è lo stesso: la ricerca della parola “ozio” sulle pagine in italiano mi vede nono, sotto Beppe Grillo. Proprio nel post di su beppegrillo.it si tratta il medesimo tema, ovvero la forza rivoluzionaria del pensare che l’ozio non determina un’inutile perdita di tempo, ma consente di liberare le nostre migliori energie, spesso compresse dalla necessità di erogare potenza nelle nostre attività quotidiane, routinarie e poco qualificanti.

Insomma tanto sforzo per risultati modesti, quando invece è la riflessione che ci permette di stimolare le nostre più nascoste potenzialità cerebrali.

Quello che in fondo è successo a me questa mattina... un piacevole rallentamento delle attività, dopo un periodo molto intenso, mi ha fatto vedere con chiarezza qualcosa che avevo sotto gli occhi da sempre. Consiglio di leggere nel post la citazione della prefazione del libro di Tom Hodgkinson, una affermazione simpatica sulla eversività dell’ozio. Il lavoro infatti può diventare effettivamente metodo di controllo, non a caso all’ingresso dei campi nazisti si leggeva: Arbeit Macht Frei, ovvero Il lavoro rende liberi.

Se fossi un politico mi troverei già in polemica con il ministro Brunetta e la sua “guerra ai fannulloni”, ma certamente l’uso dell’ozio di cui parlo non è il “fancazzismo” istituzionalizzato di alcuni, quanto la capacità di fermarsi a riflettere per chi dedica molte energie al proprio lavoro.

In ogni caso... la riflessione che mi sono trovato a fare non è sulle ragioni dell’ozio o meno, ma su quanto questo tema interessa. Evidentemente il vortice lavorativo in cui ci sentiamo inseriti fa insorgere in molti il dubbio che qualcosa non va... allora prenderò in prestito un verso di Carboni: “ci stiamo sbagliando ragazzi...”.???

Sempre qualche giorno fa ho letto di una ricerca di Kelly Services, su insonnia e lavoro, ed i due fattori ahimè sono correlati, il 10% degli italiani soffre di insonnia, a causa del lavoro, e quindi evidentemente l’eccessiva determinazione nel lavoro provoca l’insorgere anche di una contrapposta richiesta di relax. Da questo dipende tanto interesse al tema dell’ozio?

Riflettendo sui temi usuali per questo blog qual’è l’atteggiamento più produttivo per il management di uno staff di professional? Spremerli come limoni (pratica rintracciabile in molte società di consulenza, spesso di derivazione anglosassone) oppure istituzionalizzare la “riflessione” come fa Google che, a meno a quanto dichiara, lascia i propri dipendenti liberi di avere del tempo libero da mansioni, per una certa parte del proprio orario di lavoro?

Per quanto mi riguarda la risposta è implicita nella domanda, anche se va specificato che non è un valore assoluto, ci sono momenti della nostra vita (lavorativa) in cui occorre rimboccarsi le maniche e pensare alla quantità di ciò che si produce. Poi ogni tanto occorre fermarsi a riflettere.

La reale difficoltà è capire dove è il punto di equilibrio...