Perché una “data driven leadership” è indispensabile per arrivare a una vera “data driven organization” : una nuova chiave per affrontare con successo business complessi.

Oggi come ieri c’è sempre un pensiero strategico, una business idea,  che pilota le tattiche attraverso cui si alimentano processi ed azioni compiute da un’organizzazione per ottenere i risultati che si è prefissata.  Diversamente da ieri una buona strategia, un’ idea vincente,  non sono sufficienti per ottenere il risultato atteso: occorre anche una grande abilità nelle conduzione delle attività “eccellenza operativa” ,  sia per l’impiego efficiente di tutte le risorse, sia per l’efficacia che queste devono avere, sia per la continua mutabilità del contesto di esecuzione.  Le tecnologie oggi disponibili possono fornire un contributo decisivo nel gestire “organizzazioni coordinate attraverso informazioni condivise”;  ma le soluzioni informatiche non danno risultati se non sono presenti : un pensiero organizzativo, dei comportamenti conseguenti, una appropriata rilettura dei processi, uno spazio importante  dedicato alle persone, alla professionalità, alla competenza.

La complessità è una variabile strategica ?

Gestire diversi livelli di complessità avvicina il mercato ?  Un ambiente complesso si accontenta di risposte semplici ?  Il tema della complessità merita di essere approfondito.    Una nuova comunicazione afferma che oggi, per avere successo, occorre saper fare della complessità uno strumento competitivo:  “chi non è in grado di affrontare offerte complesse di prodotto servizio, non genera più valore sufficiente  a pagare i fattori della produzione del mondo occidentale e soccombe alle economie di prezzo”.  Quella che qualche anno fa appariva una cosa da evitare, oggi diventa nuovo valore, con l’attenzione a non confondere una sana complessità dalle inutili complicazioni.   In una  ricerca della SDA Bocconi **, gli elementi che caratterizzano la complessità possono essere classificati secondo le caratteristiche sotto descritte:

**  SDA Bocconi : dimensioni di complessita’ aziendale e valore dei sistemi informativi –  Meregalli Saviotti – 2013

Diverse combinazioni di quelle caratteristiche hanno dato il successo a molte imprese, aumentandone, però, notevolmente la complessità.  

Gli esempi tipici sono:  l’internazionalizzazione, le nuove caratteristiche della supply-chain (assortimenti),  le caratteristiche del modello commerciale (promozioni), le dinamiche di business: il cambiamento, il prodotto che diventa finalmente servizio.

Perché non è più sufficiente avere una buona strategia?   La risposta va trovata probabilmente nell’aumento della complessità indotto dai nuovi business:  per essere soddisfatta c’è bisogno di  una elevata eccellenza operativa (ability to execute) , per tradurre in azioni concrete e coerenti l’implementazione delle strategie, senza aumento di costi e senza errori . Anche  perché  “la ricerca del valore che il cliente riconosce è sempre più complicata e mutevole“.

Sono sufficienti i nuovi sistemi informativi, le analytics,  per ottenere i risultati ?

E’ possibile aumentare la capacità operativa, gestire  la complessità, consolidare velocemente i risultati, senza il supporto di un eccellente sistema informativo?   Non si tratta di una cosa nuova, ma di un cambio di panorama in cui, come la velocità di un’auto di formula uno,  ieri  frutto di un’ ottima macchina e dell’abilità di un pilota,  oggi è frutto di un team con una elevatissima efficacia operativa, che parallelamente conduce una serie di azioni supportate e coordinate da un eccellente sistema di informazioni con  il comune obbiettivo di vincere la gara.  Non si tratta solo di processi, si tratta di informazioni che tirano i processi. Vastissimo uso di Analytics per un business di 90 minuti che si replica 19 volte in un anno.

Chi si occupa di progettazione organizzativa, da tempo coniuga i concetti di  responsabilità con quelli di competenza, per una visione unica, in un processo in cui tutto  si deve combinare.  Da tempo c’è più attenzione a come si possono ricombinare i fattori della produzione:  ieri solo macchina contro lavoro, oggi:  finanza, modalità operative, geolocalizzazione,  formule organizzative, progettazione di processi dalla ideazione del prodotto fino al pagamento della fattura: un ciclo attivo veramente molto lungo.

Come si fa a tenere assieme i nuovi fattori della produzione, senza una visione complessiva, continuamente allineata, del loro funzionamento e la possibilità di fare zoom in continuo tra la sintesi e il dettaglio alla ricerca dei punti deboli?   Sono sufficienti i nuovi sistemi informativi, la business intelligence, i big data, sono sufficienti gli strumenti per ottenere i risultati?

In realtà, si affaccia l’ipotesi di una nuova formula organizzativa più agile e non solo  top-down, che potremo chiamare “data driven organization”,  quindi persone organizzate per responsabilità, competenze e processi coordinate con il supporto di un sistema di informazioni.  Informazioni costantemente allineate, che rappresentano adeguatamente il contesto esecutivo, raggiungono le persone prima della esecuzione delle loro azioni, consentono l’interazione, il feed-back.  Informazioni fornite dal processo in forma automatica o manuale,  sistemi informativi complessi ed efficaci, progettati secondo i criteri del modello organizzativo.   Non più ricerca di informazione per sviluppare le azioni, ma informazioni che raggiungono le persone in forma coerente alle azioni che devono essere intraprese.  Non è la fabbrica automatica perché le azioni sono nella discrezione di chi in quel momento le compie e ne ha responsabilità, solo utilizza un valido supporto informativo.

Di seguito due esempi di eccellenza operativa su processi come quello del supporto tecnico di sistemi storage, oppure in contesti meno operativi, in cui le necessità informative devono comunque essere on-line,  nel momento della esecuzione di un’attività commerciale, per esempio una promozione.

Una cosa che c’è: i servizi di supporto tecnico delle infrastrutture informatiche.

Notoriamente il mercato delle infrastrutture informatiche è un mercato fortemente competitivo.  La concorrenza è molto forte, il mercato ha una dimensione mondiale, gli standard consentono l’interoperabilità degli oggetti, i metodi di valutazione sono abbastanza oggettivi, esiste da sempre un concetto di prodotto-servizio:  non si acquista un prodotto se dietro non c’è una organizzazione di servizio, e non è detto che prodotto e servizio siano erogati dalla medesima entità.  Tra le infrastrutture informatiche spicca la complessità dello storage, anche perché è l’unica tra le infrastrutture che non può essere solo sostituita:  alla sua sostituzione deve sempre seguire la ricostruzione dei dati che conteneva.  Siccome la continuità operativa dei processi supportati da quei dati non può essere interrotta, tale ricostruzione deve avvenire mentre un “sostituto” si occupa di rendere comunque disponibili i dati anche in presenza di guasti.  Mi sembra siano passati 20 anni dalla teoria del “raid” (redundant array of inespensive disk), che ha di fatto reso possibile quanto descritto, ma l’intento è qui di mostrare una evoluzione organizzativa basata su informazioni, piuttosto che parlare di meraviglie tecnologiche che comunque hanno consentito dette evoluzioni.

Fino a 10 anni fa, la riparazione del guasto di un disco, comunque protetto da un sistema raid, prevedeva la seguente sequenza:  il cliente verificava, sul suo monitoraggio locale, la rottura di un disco (oppure la derivava da un abbattimento delle performances), chiamava il numero verde del supporto secondo gli orari negoziati (livello di supporto),  una seconda persona riceveva il “trouble ticket”, analizzava il guasto per determinare la parte necessaria,  mandava la richiesta ad un collega del magazzino ricambi, che individuava la parte, la spediva al tecnico locale,  che doveva arrivare con la parte entro i tempi di intervento negoziati. Quasi sempre il tempo negoziato era quello della presa in carico della chiamata, non quello della risoluzione del guasto.   Spesso capitava che la parte non era esattamente la stessa, per problemi di allineamento delle informazioni tra la composizione dell’hardware del cliente e la sua descrizione nella scheda tecnica del supporto. Spesso, per poter garantire i tempi di intervento, i tecnici tenevano un magazzino ricambi “locale” con le parti dei clienti più soggette a rottura.  Tutto questo con una grande complicazione di esecuzione ed enormi costi di supporto, che venivano inevitabilmente scaricate sui clienti.   Cosa è accaduto dopo?   Il processo è stato ripensato dall’inizio, fornendo dischi di un’ intelligenza in grado di riconoscere la loro identità e i parametri di funzionamento. Quando questi parametri non sono più quelli di un disco funzionante viene generato un allarme di “predictive failure”.  Poi è stata costruita una infrastruttura informativa mondiale, per recepire questi allarmi e verificarli assieme ai dati “allineati” dei data-base del supporto: le consistenze del cliente.  Infine sono state redistribuite le competenze, centralizzando quelle più importanti e distribuendo sul territorio, in varie forme, la presenza di tecnici per le sostituzioni, quando questa operazione non può essere fatta direttamente dal cliente.  Per cui nel caso di un disco guasto accade questa sequenza: il sistema di monitoraggio presso il cliente comunica al livello superiore il “predictive failure”,  questo evento viene comunque analizzato da un tecnico che decide della completezza di informazione (per esempio falso positivo), e chiama il cliente secondo gli orari definiti e, contestualmente, organizza la consegna della parte ben identificata.  A seconda dell’organizzazione del cliente, si provvede a mandare solo la parte oppure a disporre l’invio anche del tecnico.  La parte viaggia con operatori logistici qualificati, indipendente dal tecnico e nel più breve tempo possibile.  Dopo la sostituzione la parte danneggiata viene recuperata per la riparazione o lo smaltimento. Nella gran parte dei casi, tutto termina nel giro di poche ore, senza neanche l’impiego del tecnico, perché l’ingegneria ha provveduto a produrre oggetti manutenibili dai clienti stessi.   Il tutto è guidato da un eccellente sistema informativo, che monitora il funzionamento degli oggetti e ha un accurato data base con le informazioni allineate dei clienti:  Anagrafica – Contratto – Consistenza,  livelli di aggiornamento eventi-guasto. Le informazioni, gli analytics,  sono il fulcro di tutte le attività.  Il risultato finale è che costa meno e funziona meglio. Gli investimenti sono stati molto elevati, chi non li ha fatti è uscito  dal mercato dello storage “enterprise”.

Un progetto da realizzare: migliorare le performances di una rete di vendita nel mercato del largo consumo.

Mentre l’esempio della manutenzione è, oramai, facilmente riscontrabile su tutti i brand di prodotti storage,  questo esempio è un progetto, un’idea,  su come far funzionare diversamente una rete di vendita nell’ambito di mercati maturi come quelli del largo consumo.  Ancora una volta non è una cosa nuova, è solo una maniera diversa di affrontare un problema ben conosciuto e relativo alla gestione delle leve commerciali per migliorare le performances di vendita in quantità e valore.  Tipicamente le leve commerciali sono:  listini, pricing, assortimenti, promozioni, esposizione. Le azioni, i momenti in cui tali leve vengono utilizzate sono: contratti, promozioni, ordini, consegne, merchandising, pagamenti.   In apparenza tutto abbastanza semplice, fatto salvo che le modalità con cui si sviluppano le operazioni sono tante e le più disparate, il numero delle transazioni è  molto elevato e la trasparenza informativa sul processo “dal produttore al consumatore”  si ferma per il produttore all’ingresso di un CEDI, con la consegna della merce al magazzino di distribuzione del cliente.  Finché i margini delle marche sono stati sufficienti a pagare i costi generali, a finanziare gli investimenti  e a generare utili, tutto è andato bene.  Da quando questo non è stato più possibile sono cominciati i problemi dei produttori che, oltre a dover rivedere tutta la catena di fornitura e la riallocazione dei fattori di produzione,  hanno dovuto affrontare costosissime operazioni promozionali, al fine di mantenere i volumi e non perdere troppo in valore.   Da questa situazione nasce un ripensamento complessivo, ancora in corso che, sia per l’inerziale depositato in queste società (quello che abbiamo fatto lo scorso anno), sia per le logiche buyer-account,  sia di strutturazione del presente,  rendono difficile una revisione complessiva di persone, metodi, strumenti, informazioni che, ben coordinate, consentirebbero di governare meglio questi processi.    Come potrebbe essere una nuova formula “data driven”  per uscire da questa situazione?  Tutto si basa sul concetto, non nuovo,  di misurare l’esito delle azioni commerciali, non fermandosi al sell-in, ma andando fino al consumo  e di verificare come tutte le operazioni di spending promozionale, si trasformano in nuovo sell-out (consumo), in una situazione in cui i dati non vengono forniti dalla distribuzione, ma devono essere ottenuti attraverso le società di rilevazione piuttosto che da team specifici delle aziende, che vanno a vedere i posizionamenti dei prodotti a scaffale, le promo, i prezzi.    Tutto questo, oggi, genera viste separate dei diversi fatti che ritornano una situazione difficilmente leggibile, in ritardo e non immediatamente disponibile a tutti. Non  incidono sull’operatività della forza vendita, se non in tempi successivi:  non nel momento in cui devono decidere una promo, non nel momento in cui devono valutare un contributo.   Il risultato di tutto questo si misura con prodotti in promo continua (es.90%) al sell-in, che vengono trasferite al sell-out, solo in minima parte (es.30%).  I prodotti vengono promozionati pur non avendone necessità,  con assortimenti diversi da quelli negoziati, con investimenti su potenziali che non lo meritano.  In altre parole si manifesta un problema di complessità crescente e di difficoltà  ad affrontarla.  Uscire da questa situazione non è facile e va ripensato profondamente l’agire, con una pianificazione molto attenta delle azioni possibili, la misurazione costante dei risultati attesi, l’implementazione di contromisure dove le cose non vanno.   Diventano allora indispensabili un sistema informativo unico ed eccellente che descrive correttamente il contesto ed è continuamente allineato. Una interpretazione manageriale che fissa degli obiettivi, detta delle linee, le fa osservare, raccoglie i feed back e corregge le indicazioni che saranno immediatamente disponibili per le azioni successive.  Una organizzazione coesa, che condivide il metodo, è in grado di sostenere il cambiamento e accetta gli oneri che questo comporta. Un progetto di cambiamento condotto da competenze specifiche che aiutano il formarsi di questa nuova situazione. 

Nulla di nuovo visto da lontano:  non sono in discussione principi fondamentali della disciplina,  sono in discussione i tempi e i metodi,  detto meglio, la necessità di una eccellenza operativa che si esplica in ogni operazione condotta. Si continuano a fare le promozioni, ma solo quelle che rendono.

Enrico Parisini – Presidente ASSI 

 

 

Share your thoughts