Appare oggi inconsueto parlare delle “Ere” di Internet pensando che, a differenza delle evoluzioni geologiche compiutesi in milioni di anni, oggi parliamo di spazi temporali misurabili nell’arco di poche stagioni.
Dopo l’iniziale fase universitaria della Rete, abbiamo vissuto il passaggio alla prima fase commerciale e di diffusione di massa. La contemporanea esplosione delle borse mondiali, della nascita dei broker on line in Italia e della connettività free ad internet ha fatto da traino verso la net economy. E verso la sua implosione...
Già allora emergeva però un doppio aspetto connesso a questa evoluzione, l’aspetto tecnologico, ovvero la disponibilità di servizi, e quello sociale: la visione ludica del “giocare” in Borsa e la padronanza dell’informazione, unica, quella di Borsa appunto, ad arrivare in real time agli utenti finali.
Neppure l’esplosione della “bolla” è stato un freno sufficiente a fermare a questo processo, ma solo un suo adeguato dimensionamento. 2005, 2006 e 2007 hanno visto poi l’affermazione da un lato del Web come veicolo commerciale (crescono i conti on line, le transazioni di borsa sono nella maggior parte on line e c’è l’esplosione di acquisti in alcuni settori specifici) dall’altro la conferma che i due aspetti, che già emergevano con il trading on line, gioco ed informazione, sono due tra i maggiori requisiti dell’attuale era geologica del Web, quella contrassegnata dal suffisso 2.0.
Un fenomeno, quello del Web 2.0 e del Semantic Web, sul quale è ormai un fiorire di iniziative ma anche di commenti sulle principali testate on line e non.
Osserviamo affermarsi i Social Network, (Facebbok, Newsvine, DIGG, MySpace, YouTube, Linkedin, Delicious, Wikipedia, sSmallWord, StumbleUpon, Twitter ecc.) luoghi, al tempo stesso, di incontro e di informazione, informazione quest’ultima che assume una nuova rilevante peculiarità, è “libera”.
Ognuno riesce a scrivere on wire i propri pensieri e scegliere cosa ritiene di voler leggere. Il fenomeno nuovo è il recupero della originale spirito del web, il singolo che si riconosce nella collettività e acquista forza nel riconoscimento reciproco, il trust della comunità.
Dal punta di vista tecnologico questo significa anche la nascita di strumenti più adeguati a supportare la dinamica creatività del web, in primis tutto il movimento Open Source, ma anche AJAX, COMET e i framework di Social Networking.
Purtroppo in Italia risulta sempre difficile far nascere iniziative innovative, come nell’Open Source, dove, pur essendo all’avanguardia nell’utilizzo e nella partecipazione ai grandi progetti, poco ancora si fa per promuoverne nascita e management.
La sfida oggi è nel superamento degli attuali schemi di networking e nella specializzazione della ricerca dell’informazione, dai motori semantici ai sistemi di supporto della conoscenza. Speriamo finalmente che anche qui da noi, oltre all’eccellenza costituita dai tanti bravi ricercatori, si trovi il coraggio e la saggezza per l’investimento in ricerca.
A questo riguardo un pizzico di fiducia ci viene dalla crescente domanda di pubblicità on-line, che porta agli attori di questo mercato nuovi stimoli per la ricerca di strumenti innovativi. Sembra un paradosso... ma ci tocca sperare nella pubblicità!
Wednesday, September 19, 2007
Dalla “compliance” al business - del 7.5.2007
La gestione ordinaria delle architetture tecnologiche del sistema bancario assorbono normalmente gran parte delle risorse messe a disposizione dei budget degli IT manager, restringendo ad una quota poco elevata gli investimenti nell’innovazione .
Questa quota si è sempre più ristretta negli ultimi tempi a causa, tra le altre, delle delusioni e dei postumi degli enormi sforzi economici sostenuti nel cosiddetto periodo della “Net-Economy”, quando le grandi aspettative su internet hanno imposto agli Istituti Bancari grandi investimenti in tecnologia, per i quali poi il ROI si è spesso sgretolato con la contrazione dei mercati mobiliari.
L’aspetto che, forse più di ogni altro, ha sottratto fondi alla ricerca ed innovazione nel campo dei servizi finanziari e non, sono state negli ultimi anni le esigenze di compliance alle recenti normative internazionali. I progetti di adeguamento, associati ai progetti di integrazione dovuti alla concentrazione del sistema bancario, hanno assorbito risorse economiche ed energie umane.
Se però i progetti di integrazione erano finalizzati alla efficientazione delle strutture e alla riqualificazione della spesa, i progetti di compliance sono vissuti essenzialmente come centri di costo di difficile rivalutazione.
Oggi il mondo della finanza e dell’intermediazione mobiliare è attraversato da dubbi e domande sulle opportunità offerte dalla MiFID e dalle necessità del controllo derivanti dalla normativa sulla Market Abuse.
Saranno anche questi investimenti indirizzati solo al forzato adeguamento a norme imposte al sistema bancaria ?
Esaminiamo il caso della normativa contro gli abusi di mercato. La legge Legge 62/05 art.9 che recepisce le Direttiva 2003/6/CE sugli abusi di mercato prevede che già dall’aprile scorso le banche si siano dotate di adeguati sistemi per l’individuazione di casi sospetti.
La norma è in vigore, ma le istituzioni sono ancora ferme ad una soluzione tendenzialmente “organizzativa”. La situazione è da un lato non chiara in se, dall’altro, vista la complessità ed i temi (monitorare la propria clientela) gli intermediari sono in buona parte “resistenti”.
Ma è indubbio che prima o poi gli organi di controllo accelereranno il processo e in questo caso le idee di Consob in materia sono chiare: ha presentato un progetto in cui un sistema complesso M.A.D. (Market Abuse Detection) si fa carico di analizzare il mercato cercando attraverso modelli e situazioni le potenziali manovre di manipolazione. Menenna di Consob sostiene che “l’esame del comportamento delle variabili finanziarie richiede evidentemente la definizione di un modello di riferimento per ognuna di esse”.
L’informazione che però la Consob non ha è proprio il dettaglio di chi compie le operazioni, dettaglio ovviamente fondamentale per individuare correttamente il maggior numero di situazioni a rischio. Per questa ragione questa funzione di controllo ed intelligence viene demandata all’intermediario stesso.
Proviamo allora ad immaginare l’impatto reale nel caso in cui l’Istituzione Finanziaria volesse realizzare un sistema veramente completo ed efficiente.
Una prima fase richiede una integrazione di informazioni gestite attualmente da sistemi diversi della banca, talvolta non messi in comunicazione tra di loro.
Semplificando un pò, occorrono :
- dati di borsa dettagliati, perchè individuare un’operazione che tende a manipolare il mercato è possibile solo se l’analisi è fatta in relazione alle condizioni che in quel momento si verificano sul mercato stesso. Queste informazioni sono da catturarsi in real time direttamente dalla borsa o da provider specializzati.
- Dati daily che tengono conto delle operazioni off line che modificano la sostanza anche dei dati registrati in precedenza.
- Dati anagrafici relativi a titoli e controparti integrate delle ulteriori informazioni relative strettamente alla market abuse.
- Comunicati price sensitive e comunicati ufficiali, ma volendo allargare lo spettro, anche news da provider ed altri sorgenti informative in grado di cogliere i “rumors”, magari utilizzato il meccanissmo di free contribution del protocollo RSS.
- Dati sull’operatività che potrebbero non essere chiaramente presenti nel sistema IT dell’intermediario, perchè fino a che l’attività è fatta tutta attraverso sistemi automatici (raccolta ordini, trading on line) la completezza delle informazioni è garantita dalla qualità dei sistemi ma quando le operazioni vengono gestite con maggiore manualità è ovvio che solo l’incrocio tra le informazioni dal mercato con i sistemi del front end può dare completezza di informazione.
Tanto per complicare ulteriormente un pò le cose, bisogna tener presente il lavoro derivate dalla necessità di considerare rettifiche che modificano la situazione già precedentemente consolidata.
Chiusa questa parte di consolidamento c’è la rimappatura dei dati esistenti in oggetti di business che possano essere analizzati.
Come esaminare poi questa mole di informazioni?
Basta organizzare qualche query ben fatta per far emergere comportamenti che probabilmente si concretizzano in un arco temporale ampio?
Il market abuse manager non dovrà avere a disposizione strumenti che gli consentano di analizzare i dati pregressi e avere una finestra sull’operatività real time per verificare che quella controparte soggetta ad analisi stiano continuando il suo piano di manipolazione del mercato?
Occorrerà poi certificare ex-post che la attività di analisi ha seguito un processo chiaro e deterministico. Quindi il nostro sistema informativo non potrà fare a meno di storicizzare temporalmente anche le procedure che hanno determinato la rilevazione o meno di comportamenti anomali.
Ricordiamo infine che a differenza delle ordinarie segnalazioni Banca d’Italia viene richiesta una attività di intelligence per la corretta determinazione delle situazioni, per segnalare solo quelle realmente sospette. Quindi l’attività manuale di un esperto richiederà opportuni strumenti di monitoraggio anche real time del mercato.
Dicevamo... basteranno alcune query...? ...Sicuramente no.
Occorrono sistemi in grado di elaborare strategie più complesse di detection, basate su modelli matematici e processi ricorsivi di apprendimento.
Senza entrare nel dettaglio tecnologico è possibile ipotizzare un sistema suddiviso in
1. integrazione e virtualizzazione dei sistemi esistenti, per creare valore dall’integrazione di informazioni eterogenee
2. sistema di analisi e intelligence, per l’individuazione dei possibili casi di abuso
3. storicizzazione delle informazioni rivenienti dal sistema di analisi e dei modelli utilizzati
4. sistemi a supporto dell’attività di valutazione sui casi individuati
5. segnalazioni agli organi di vigilanza
Occorrerà integrare su una piattaforma tutte le informazioni presenti, storicizzando alcune, rimappando altre. La tecnologia di oggi ci consiglia di fare questo in un’ottica SOA, che come vedremo ci garantisce la possibilità di avere a disposizione oggetti complessi da dati elementari, offrendo la capacità di riutilizzarli in contesti diversi e quindi di creare valore aggiunto in futuro. Questa attività di integrazione risponde ad una logica di virtualizzazione del sistema informativo che Steve Prentice, capo della ricerca in Gartner, individua come uno dei trend di mercato.
Nei prossimi dieci anni si assisterà a una crescita esponenziale nella domanda di capacità infrastrutturale. La virtualizzazione, consente di rompere il legame diretto esistente tra i device e il loro utilizzo e, sempre secondo Gartner, consente maggiori livelli di utilizzo aumentando nel contempo efficienza ed affidabilità.
Su questo si innestano gli altri quattro punti dei quali solo l’ultima appare come un problema meramente tecnologico e a bassa complessità.
In particolare il sistema di intelligence dovrà avere tutti i requisiti già citati in precedenza: efficienza, capacità di auto apprendimento, storicizzazione, certificazione, sistemi di supporto. Il tutto con una forte competenza verticale nel segmento dell finanza
Quale relazione infine con datawarehouse aziendali? Non c’è sovrapposizione? La piattaforma di integrazione non fa altro che preparare alcune informazioni andandole a rimappare possibilmente dove già sono, offrendo interfacce standard utilizzabili in più processi della banca, realizzando quelle features di fruibilità tecnologica che occorrono. Il datawarehouse si integra come “fornitore” da un lato e come “ricettore” dall’altro.
Descritta con questa complessità il problema della normativa market abuse può scoraggiare anche gli animi più intraprendenti.
Ma, rileggendo quanto molto sommariamente analizzato fino a qui, non osserviamo che il patrimonio informativo su cui insiste questa architettura è quello su cui la banca o l’intermediario fondano il proprio business?
Certo siamo di fronte ad un sistema complesso, ma è un sistema che garantisce la conoscenza del proprio business.
Tralasciamo per un attimo il fine “repressivo” per cui esso nasce, quanti campi di applicazione garantisce un sistema cosi?
Controllo del rischio, supporto al Investor Relationship manager, auditing interno, politiche di marketing.
Ecco alcuni esempi in cui la medesima infrastruttura permette di operare sui medesimi dati utilizzando solo modelli di analisi diversa. L’investimento viene quindi ripartito su più linee garantendo la massima profittabilità.
Mantenendo cioè un occhio attento a realizzare solo cose completamente riutilizzabili in futuro. si potrà ragionevolmente far in modo che gli investimenti mirati alle esigenze di compliance non si trasformino in costi per una mera finalità normativa.
Questa quota si è sempre più ristretta negli ultimi tempi a causa, tra le altre, delle delusioni e dei postumi degli enormi sforzi economici sostenuti nel cosiddetto periodo della “Net-Economy”, quando le grandi aspettative su internet hanno imposto agli Istituti Bancari grandi investimenti in tecnologia, per i quali poi il ROI si è spesso sgretolato con la contrazione dei mercati mobiliari.
L’aspetto che, forse più di ogni altro, ha sottratto fondi alla ricerca ed innovazione nel campo dei servizi finanziari e non, sono state negli ultimi anni le esigenze di compliance alle recenti normative internazionali. I progetti di adeguamento, associati ai progetti di integrazione dovuti alla concentrazione del sistema bancario, hanno assorbito risorse economiche ed energie umane.
Se però i progetti di integrazione erano finalizzati alla efficientazione delle strutture e alla riqualificazione della spesa, i progetti di compliance sono vissuti essenzialmente come centri di costo di difficile rivalutazione.
Oggi il mondo della finanza e dell’intermediazione mobiliare è attraversato da dubbi e domande sulle opportunità offerte dalla MiFID e dalle necessità del controllo derivanti dalla normativa sulla Market Abuse.
Saranno anche questi investimenti indirizzati solo al forzato adeguamento a norme imposte al sistema bancaria ?
Esaminiamo il caso della normativa contro gli abusi di mercato. La legge Legge 62/05 art.9 che recepisce le Direttiva 2003/6/CE sugli abusi di mercato prevede che già dall’aprile scorso le banche si siano dotate di adeguati sistemi per l’individuazione di casi sospetti.
La norma è in vigore, ma le istituzioni sono ancora ferme ad una soluzione tendenzialmente “organizzativa”. La situazione è da un lato non chiara in se, dall’altro, vista la complessità ed i temi (monitorare la propria clientela) gli intermediari sono in buona parte “resistenti”.
Ma è indubbio che prima o poi gli organi di controllo accelereranno il processo e in questo caso le idee di Consob in materia sono chiare: ha presentato un progetto in cui un sistema complesso M.A.D. (Market Abuse Detection) si fa carico di analizzare il mercato cercando attraverso modelli e situazioni le potenziali manovre di manipolazione. Menenna di Consob sostiene che “l’esame del comportamento delle variabili finanziarie richiede evidentemente la definizione di un modello di riferimento per ognuna di esse”.
L’informazione che però la Consob non ha è proprio il dettaglio di chi compie le operazioni, dettaglio ovviamente fondamentale per individuare correttamente il maggior numero di situazioni a rischio. Per questa ragione questa funzione di controllo ed intelligence viene demandata all’intermediario stesso.
Proviamo allora ad immaginare l’impatto reale nel caso in cui l’Istituzione Finanziaria volesse realizzare un sistema veramente completo ed efficiente.
Una prima fase richiede una integrazione di informazioni gestite attualmente da sistemi diversi della banca, talvolta non messi in comunicazione tra di loro.
Semplificando un pò, occorrono :
- dati di borsa dettagliati, perchè individuare un’operazione che tende a manipolare il mercato è possibile solo se l’analisi è fatta in relazione alle condizioni che in quel momento si verificano sul mercato stesso. Queste informazioni sono da catturarsi in real time direttamente dalla borsa o da provider specializzati.
- Dati daily che tengono conto delle operazioni off line che modificano la sostanza anche dei dati registrati in precedenza.
- Dati anagrafici relativi a titoli e controparti integrate delle ulteriori informazioni relative strettamente alla market abuse.
- Comunicati price sensitive e comunicati ufficiali, ma volendo allargare lo spettro, anche news da provider ed altri sorgenti informative in grado di cogliere i “rumors”, magari utilizzato il meccanissmo di free contribution del protocollo RSS.
- Dati sull’operatività che potrebbero non essere chiaramente presenti nel sistema IT dell’intermediario, perchè fino a che l’attività è fatta tutta attraverso sistemi automatici (raccolta ordini, trading on line) la completezza delle informazioni è garantita dalla qualità dei sistemi ma quando le operazioni vengono gestite con maggiore manualità è ovvio che solo l’incrocio tra le informazioni dal mercato con i sistemi del front end può dare completezza di informazione.
Tanto per complicare ulteriormente un pò le cose, bisogna tener presente il lavoro derivate dalla necessità di considerare rettifiche che modificano la situazione già precedentemente consolidata.
Chiusa questa parte di consolidamento c’è la rimappatura dei dati esistenti in oggetti di business che possano essere analizzati.
Come esaminare poi questa mole di informazioni?
Basta organizzare qualche query ben fatta per far emergere comportamenti che probabilmente si concretizzano in un arco temporale ampio?
Il market abuse manager non dovrà avere a disposizione strumenti che gli consentano di analizzare i dati pregressi e avere una finestra sull’operatività real time per verificare che quella controparte soggetta ad analisi stiano continuando il suo piano di manipolazione del mercato?
Occorrerà poi certificare ex-post che la attività di analisi ha seguito un processo chiaro e deterministico. Quindi il nostro sistema informativo non potrà fare a meno di storicizzare temporalmente anche le procedure che hanno determinato la rilevazione o meno di comportamenti anomali.
Ricordiamo infine che a differenza delle ordinarie segnalazioni Banca d’Italia viene richiesta una attività di intelligence per la corretta determinazione delle situazioni, per segnalare solo quelle realmente sospette. Quindi l’attività manuale di un esperto richiederà opportuni strumenti di monitoraggio anche real time del mercato.
Dicevamo... basteranno alcune query...? ...Sicuramente no.
Occorrono sistemi in grado di elaborare strategie più complesse di detection, basate su modelli matematici e processi ricorsivi di apprendimento.
Senza entrare nel dettaglio tecnologico è possibile ipotizzare un sistema suddiviso in
1. integrazione e virtualizzazione dei sistemi esistenti, per creare valore dall’integrazione di informazioni eterogenee
2. sistema di analisi e intelligence, per l’individuazione dei possibili casi di abuso
3. storicizzazione delle informazioni rivenienti dal sistema di analisi e dei modelli utilizzati
4. sistemi a supporto dell’attività di valutazione sui casi individuati
5. segnalazioni agli organi di vigilanza
Occorrerà integrare su una piattaforma tutte le informazioni presenti, storicizzando alcune, rimappando altre. La tecnologia di oggi ci consiglia di fare questo in un’ottica SOA, che come vedremo ci garantisce la possibilità di avere a disposizione oggetti complessi da dati elementari, offrendo la capacità di riutilizzarli in contesti diversi e quindi di creare valore aggiunto in futuro. Questa attività di integrazione risponde ad una logica di virtualizzazione del sistema informativo che Steve Prentice, capo della ricerca in Gartner, individua come uno dei trend di mercato.
Nei prossimi dieci anni si assisterà a una crescita esponenziale nella domanda di capacità infrastrutturale. La virtualizzazione, consente di rompere il legame diretto esistente tra i device e il loro utilizzo e, sempre secondo Gartner, consente maggiori livelli di utilizzo aumentando nel contempo efficienza ed affidabilità.
Su questo si innestano gli altri quattro punti dei quali solo l’ultima appare come un problema meramente tecnologico e a bassa complessità.
In particolare il sistema di intelligence dovrà avere tutti i requisiti già citati in precedenza: efficienza, capacità di auto apprendimento, storicizzazione, certificazione, sistemi di supporto. Il tutto con una forte competenza verticale nel segmento dell finanza
Quale relazione infine con datawarehouse aziendali? Non c’è sovrapposizione? La piattaforma di integrazione non fa altro che preparare alcune informazioni andandole a rimappare possibilmente dove già sono, offrendo interfacce standard utilizzabili in più processi della banca, realizzando quelle features di fruibilità tecnologica che occorrono. Il datawarehouse si integra come “fornitore” da un lato e come “ricettore” dall’altro.
Descritta con questa complessità il problema della normativa market abuse può scoraggiare anche gli animi più intraprendenti.
Ma, rileggendo quanto molto sommariamente analizzato fino a qui, non osserviamo che il patrimonio informativo su cui insiste questa architettura è quello su cui la banca o l’intermediario fondano il proprio business?
Certo siamo di fronte ad un sistema complesso, ma è un sistema che garantisce la conoscenza del proprio business.
Tralasciamo per un attimo il fine “repressivo” per cui esso nasce, quanti campi di applicazione garantisce un sistema cosi?
Controllo del rischio, supporto al Investor Relationship manager, auditing interno, politiche di marketing.
Ecco alcuni esempi in cui la medesima infrastruttura permette di operare sui medesimi dati utilizzando solo modelli di analisi diversa. L’investimento viene quindi ripartito su più linee garantendo la massima profittabilità.
Mantenendo cioè un occhio attento a realizzare solo cose completamente riutilizzabili in futuro. si potrà ragionevolmente far in modo che gli investimenti mirati alle esigenze di compliance non si trasformino in costi per una mera finalità normativa.
Tuesday, September 18, 2007
La Banca Multicanale - Intervento al working paper Aifin 2005
Premessa
Sino all'avvento delle tecnologie Internet Based nel mercato finanziario, il personale di filiale è sempre stato il vero intermediario tra la banca e il cliente. L’introduzione dei canali tecnologici - che hanno affiancato quello fisico, pur senza mai sostituirlo del tutto - hanno reso possibile agli utenti fruire direttamente di applicazioni e servizi bancari, rendendo superfluo in alcuni casi questo tipo di intermediazione.
Ciò ha reso le stesse applicazioni e servizi bancari al pari di veri e propri strumenti di marketing e ha fatto emergere una nuova necessità: fornire in maniera automatica servizi diversificati in base ai diversi segmenti di utenza. Per questo motivo, la progettazione di applicazioni rivolte agli utenti dovrebbe essere gestita direttamente dalla banca.
Una diretta conseguenza del nuovo contesto che caratterizza il mercato finanziario è l’adozione di strategie multicanale da parte dei più importanti istituti bancari.
Per “multicanalità” si intende la coesistenza e la sinergia tra canali di tipo sia tecnologico sia applicativo. Ma non solo: essi si intrecciano con canali che possono essere definiti “di business”. L’introduzione di nuovi canali dovrebbe infatti essere accompagnata dalla capacità di tradurre le nuove potenzialità in servizi a valore aggiunto per gli utenti.
L’integrazione di servizi e di dati da un lato e la capacità di erogarli su canali diversi dall’altro sono due dimensioni della multicanalità che possono già considerarsi acquisite. Oggi gran parte delle banche, infatti, dispone di una piattaforma distributiva “multicanale”. Ciò che invece rimane ancora da affrontare è il potenziamento della relazione attraverso l’attività di segmentazione e di targeting. In un contesto di questo tipo, la gestione della conoscenza all’interno della relazione con il cliente – e di conseguenza la possibilità di diversificare prodotti e servizi finanziari – è un aspetto fondamentale di questa evoluzione degli istituti bancari verso la multicanalità.
leggi l' intervento completo
sito di AIFIN
Sino all'avvento delle tecnologie Internet Based nel mercato finanziario, il personale di filiale è sempre stato il vero intermediario tra la banca e il cliente. L’introduzione dei canali tecnologici - che hanno affiancato quello fisico, pur senza mai sostituirlo del tutto - hanno reso possibile agli utenti fruire direttamente di applicazioni e servizi bancari, rendendo superfluo in alcuni casi questo tipo di intermediazione.
Ciò ha reso le stesse applicazioni e servizi bancari al pari di veri e propri strumenti di marketing e ha fatto emergere una nuova necessità: fornire in maniera automatica servizi diversificati in base ai diversi segmenti di utenza. Per questo motivo, la progettazione di applicazioni rivolte agli utenti dovrebbe essere gestita direttamente dalla banca.
Una diretta conseguenza del nuovo contesto che caratterizza il mercato finanziario è l’adozione di strategie multicanale da parte dei più importanti istituti bancari.
Per “multicanalità” si intende la coesistenza e la sinergia tra canali di tipo sia tecnologico sia applicativo. Ma non solo: essi si intrecciano con canali che possono essere definiti “di business”. L’introduzione di nuovi canali dovrebbe infatti essere accompagnata dalla capacità di tradurre le nuove potenzialità in servizi a valore aggiunto per gli utenti.
L’integrazione di servizi e di dati da un lato e la capacità di erogarli su canali diversi dall’altro sono due dimensioni della multicanalità che possono già considerarsi acquisite. Oggi gran parte delle banche, infatti, dispone di una piattaforma distributiva “multicanale”. Ciò che invece rimane ancora da affrontare è il potenziamento della relazione attraverso l’attività di segmentazione e di targeting. In un contesto di questo tipo, la gestione della conoscenza all’interno della relazione con il cliente – e di conseguenza la possibilità di diversificare prodotti e servizi finanziari – è un aspetto fondamentale di questa evoluzione degli istituti bancari verso la multicanalità.
leggi l' intervento completo
sito di AIFIN
Subscribe to:
Posts (Atom)