l dati? Utilizzateli così

Con l’avanzare della Digital Transformation è cresciuta con velocità esponenziale la disponibilità di dati.

Di diversa natura (mercato, clienti, concorrenti, produzione, funzionamento dell’organizzazione, etc.) e da diverse fonti (sistemi informativi aziendali, fonti esterne, Internet of Things, etc.).

Una miniera non sempre governata da una logica rigorosa e non sempre sfruttata adeguatamente.

Quali sono le lacune più frequenti? Perché si verificano? Come si può rimediare? Soprattutto, quali benefici, magari oggi non considerati dal management, si possono ottenere da una gestione efficace ed efficiente?

Qui trovate le risposte.

Il percorso verso l’analisi avanzata dei dati l’hanno iniziato in molti (più di un’azienda su due, secondo un campione interpellato nel 2022 dall’Osservatorio del Politecnico di Milano), ma siamo ancora in fase sperimentale. Le imprese italiane stanno prendendo coscienza del valore potenziale del patrimonio di dati a loro disposizione e iniziano a domandarsi come sfruttarlo. La vera sfida è ingegnerizzare e diffondere approcci data-driven.

Le lacune da colmare non sono poche.

  • Nel management, per esempio, non è ancora diffusa la considerazione dei dati di business come asset strategico (e non come costo), probabilmente anche per una scarsa fiducia su qualità e affidabilità dei dati aziendali.
  • C’è ancora poca consapevolezza sull’importanza del governo, inteso come l’insieme dei processi e delle regole procedurali e organizzative che garantiscono disponibilità, integrità, qualità, sicurezza, fruibilità e accessibilità dei dati.
  • Manca spesso una chiara individuazione delle priorità d’uso, ossia quali problemi possono essere risolti grazie all’uso intelligente dei dati.
  • Ancora: ci sono barriere all’adozione delle tecnologie che trasformano il dato in informazione intelligente (AI, NLP, ML, etc.) e richiedono investimenti dai ritorni non sempre certi e/o facilmente quantificabili.
  • Infine, servono nuove professionalità non facili da trovare: i Data Engineer, che acquisiscono i dati e li organizzano per renderli fruibili; i Data Scientist, che mettono in relazione i dati secondo approcci matematico-statistici; i Data Analyst, che analizzano i dati per trasformarli in informazioni di valore, utili alla risoluzione dei problemi, al miglioramento delle performance, al miglioramento delle capacità previsionali, etc.

Risultato: restano inutilizzati molti dei dati raccolti, sia strutturati (come quelli transazionali) sia non strutturati (come quelli originati dai social network).

Un esempio per tutti: i LOG di sistema, ormai tracciati da tutti gli applicativi moderni di mercato, cioè le impronte digitali che gli utenti lasciano nei sistemi informativi aziendali quando svolgono delle operazioni. Se correttamente raccolti ed elaborati con tool di process mining, i LOG possono restituire ai responsabili di processo una rappresentazione trasparente e completa di come i processi siano realmente agiti dall’organizzazione, senza necessità di svolgere faticose e dispendiose interviste o analisi documentali che, negli approcci tradizionali, si fanno per mappare i processi aziendali, trovare i colli di bottiglia, intervenire per l’ottimizzazione dei processi.

Tutto questo può essere fatto utilizzando tecnologie di decodifica intelligente dei dati.

Alcuni settori di business sono, ovviamente, più avanti: i leader dei settori Big Tech, Servizi Finanziari, Energy & Utilities e Healthcare si sono già da tempo attrezzati con funzioni aziendali, risorse, strumenti, competenze e processi per governare i dati e sfruttarli in modo intelligente a supporto del business. Altri settori sono rimasti indietro e hanno quindi un ritardo importante da colmare.

Verso un efficace Data Science e Advanced Analytics

I fattori differenzianti saranno la capacità di selezionare i dati, interpretarli e riuscire ad estrarne valore. Punto di partenza dovranno essere i problemi, identificando il mix di dati, algoritmi, modelli matematico-statistici e tecnologie utili per risolverli.

In fase di avvio dei programmi di Data Science e analisi avanzata dei dati sarà fondamentale conciliare le esigenze di business con lo sforzo richiesto per sviluppare e applicare i modelli e i sistemi sottostanti, definendo le priorità in funzione dei seguenti driver:

  • beneficio atteso dalla risoluzione della specifica esigenza di business;
  • qualità e completezza delle basi dati disponibili;
  • complessità dei modelli statistico-matematico eventualmente necessari;
  • tempistiche di sviluppo, test e messa in produzione.

Altro aspetto determinante per lo sviluppo di programmi e modelli efficaci di Data Science sarà la flessibilità dell’organizzazione all’utilizzo di differenti metodologie matematiche e strumenti/applicazioni informatiche in funzione dei problemi da affrontare, evitando scelte a priori: metodologie e strumenti dovranno adattarsi al problema, non viceversa. Esigenze e problemi dovranno essere messi al primo posto, lasciando adeguato spazio e risorse alla sperimentazione di modelli e scelte tecnologiche per individuare la migliore soluzione possibile.

Sarà, infine, importante coinvolgere tutti gli attori: responsabili di business per individuare problemi, opportunità e relative priorità; Data Engineer per la raccolta organizzata dei dati rilevanti; Data Scientist per lo sviluppo di algoritmi e modelli quantitativi, Data Analyst per estrarre valore dai dati; IT Specialist per l’adozione di adeguate tecnologie.

Le imprese stanno iniziando ad apprezzare i benefici della Data Science per i processi di business:

  • rilevazione near real-time di rischi/opportunità e ottimizzazione delle capacità di risposta;
  • miglioramento delle capacità previsionali sull’evoluzione delle variabili rilevanti per il business;
  • maggior precisione nella pianificazione degli obiettivi aziendali;
  • ottimizzazione di processi e decisioni sulla base di evidenze oggettive (fact-based e data-driven).

Più in generale, i programmi di Data Science e Advanced Analytics promettono la generazione di un vantaggio competitivo. A patto di passare dalla sperimentazione all’approccio strutturato.

In che modo Protiviti supporta i propri Clienti

Grazie ad un team dedicato che integra competenze di Data Engineering, Data Science e Data Analytics, Protiviti offre soluzioni avanzate in grado di supportare le aziende nelle attività di gestione e utilizzo intelligente dei dati, attraverso lo sviluppo di modelli matematico-statistici e strumenti di analisi finalizzati a generare valore per l’impresa.

I Servizi offerti includono: Pattern Recognition & Machine Learning, Scenario Analysis, Forecasting & Predictive Modeling, Data Visualization, Data Gathering & Organization, Data Flow & Validation.

Alcuni casi d’uso e progetti svolti per i nostri Clienti sono di seguito riportati.

CASO 1 | TOOL KAM

  • Bisogno riscontrato: ottimizzare il pricing delle offerte ai clienti Corporate, prospect o in rinnovo, in ottica di miglior rapporto competitività-profittabilità.
  • Soluzione: sviluppo di un modello di simulazione del pricing, integrato con analisi di impatto su circolante e rischio credito, acquisendo tramite connettori i dati - contrattuali e di consumo storico - dai sistemi informativi aziendali.
  • Tool sviluppato: tool Microsoft-based per la gestione da parte dei Key Account Manager del portafoglio clienti, comprensiva di dashboard degli esiti delle simulazioni e relativi KPI, e con possibilità per i Commerciali di predispone il contratto per la firma.

CASO 2 | MODELLO DI FORECAST DEL CHURN

  • Bisogno riscontrato: migliorare le modalità di calcolo delle previsioni di abbandono dei clienti (churn) al fine di ridurre i costi di acquisto della materia prima.
  • Soluzione: sviluppo di una metodologia e di un modello di forecast del churn considerando il clustering dei dati di abbandono a consuntivo, i forecast e le variazioni significative del prezzo del mercato di riferimento, la tipologia di cliente e il canale di vendita in fase di contrattazione.

CASO 3 | TOOL DI RISK CONTROL DI PRIMO LIVELLO

  • Bisogno riscontrato: quantificare l’errore prospettico di stima dei consumi e costi della clientela Corporate e Residenziale e i relativi fattori scatenanti, implementando adeguate metriche di rischio.
  • Soluzione: sviluppo di modelli per (i) calcolare lo scostamento volumetrico tra le previsioni e i consumi effettivi disponibili nei sistemi aziendali, (ii) ricostruire una distribuzione empirica di costo associata allo scostamento volumetrico e (iii) fornire una quantificazione di errore di stima forecast considerando un opportuno intervallo di confidenza.
  • Tool sviluppato: tool Python-based per l’importazione e la storicizzazione automatica dei dati di consumo e prezzo dai sistemi aziendali, esecuzione delle elaborazioni e rappresentazione del range probabilizzato di errore di stima dei consumi e costi forecast.
Image
TOOL DI RISK CONTROL DI PRIMO LIVELLO

CONTATTI

Emma Marcandalli è Managing Director presso il nostro ufficio di Milano. Nel 1997 Emma ha iniziato la carriera in Andersen (dal 2002 confluita in Deloitte), dove si è occupata per i primi anni di revisione contabile di bilanci civilistici e consolidati. ...
Guido is Managing Director, Global Power & Utilities sector leader and head of the Italian Risk & Sustainability practice in non financial institutions. Before joining Protiviti in 2004, Guido worked four years in the consulting practice of Deloitte focusing on ...
Loading...