Avendo ampiamente introdotto il concetto di Big Data negli articoli precedenti, inizieremo oggi ad esplorare alcuni casi interessanti relativi al loro utilizzo, iniziando dall’uso più vicino alle tecniche tradizionali attraverso un’analisi della gestione Big Data nel settore banking.
Nel prossimo articolo ci concentreremo invece su altre casistiche più innovative e diversificate, relative in particolare all’Industry 4.0, all’Internet Of Things (IOT) e alle Smart City.
Per quanto riguarda il caso studio di partenza relativo al settore bancario nazionale, la premessa necessaria è relativa al fatto che diversi istituti bancari italiani si stanno dotando o si sono già dotati di sistemi Big Data, e in particolare di Spark e Hadoop.
Si tratta di sistemi generalmente non approntati per applicazioni particolarmente sofisticate ma piuttosto utili alla realizzazione di analisi che, seppure basate su dati e tecniche tradizionali, hanno oggettivi limiti tecnici legati all’enorme volume di dati coinvolti. Di fatto, la criticità risiede nella necessità di estendere suddette analisi, che già da tempo sono realizzate su dati aggregati (un esempio sono i dati mensili) o su profondità storiche limitate (6 mesi, 1 anno…), a dettagli più specifici od orizzonti temporali più vasti.
I grandi istituti bancari, che gestiscono milioni di clienti e decine di milioni di rapporti, vedono prodursi nei loro sistemi operazionali diversi milioni di transazioni ogni giorno. È ovvio che una mera sintesi di questi Big Data possa portare alla perdita di informazioni preziose che sono invece “nascoste” all’interno delle singole operazioni.
Ecco dunque che attività tradizionali su volumi di dati tanto estesi possono essere finalizzate alla realizzazione di sistemi di Business Intelligence su vasti periodi temporali, e con la capacità di effettuare operazioni di drill-down su dati di estremo dettaglio. In alternativa, le banche possono avere necessità di avere a disposizione dati del passato sia per scopi analitici che normativi.
In ogni caso, la reperibilità di dati meno recenti è molto difficile e laboriosa e può impiegare giorni, soprattutto con sistemi legacy. Diversamente, un’architettura basata su Hadoop permetterebbe un’adeguata storicizzazione delle transazioni e la loro disponibilità ai fini analitici. Inoltre, strumenti come Spark consentono l’elaborazione di grandi moli di dati con in tempi ridotti, ossia limitati a minuti o decine di minuti.
Un bel vantaggio!
Allo stesso modo, vanno poi considerati altri casi in cui la mole dei Big Data impedisce la realizzazione e l’esecuzione di modelli predittivi in tempi ragionevoli. L’impiego di tecnologie quali Spark ha permesso di realizzazione modelli di churn, clustering o campaign targeting su una base dati di grandi dimensioni e tempi di esecuzione dei calcoli limitati a poche ore o addirittura a qualche decina di minuti.
Per chiarezza, ricordiamo che churn, clustering o campaign targeting sono definibili come tecniche di predictive analytics volte a individuare i clienti a rischio di abbandono (modelli di churn), oppure i clienti con alta propensione all’acquisto (modelli di targeting). I modelli di clustering invece raggruppano la clientela in insiemi omogenei, in modo da condurre su di essi ulteriori analisi.
Sempre un ambito banking, un esempio di analisi Big Data più innovativa è legato invece all’utilizzo di strumenti di elaborazione del testo per recuperare informazioni anche dai campi descrittivi come le causali in formato libero tipiche dei bonifici operati tramite internet banking. Alla base di questo tipo di analisi c’è l’esigenza di sfruttare ogni informazione possibile per aumentare la conoscenza della propria clientela, così da proporre servizi e prodotti sempre più adeguati e customizzati.
Non solo: questa analisi più approfondita delle informazioni relative alla clientela ha anche l’obiettivo fondamentale di prevenire dinamiche di churn, che non sono infrequenti in ambito bancario.
Leave A Comment