logistica della filiera alimentare
La logistica della filiera alimentare
8 maggio 2018
blockchain-e-filiera-alimentare
Blockchain per la logistica della filiera alimentare
5 luglio 2018

Come usare i Big Data per accelerare la supply-chain

big data supply chain

INTRODUZIONE

Negli ultimi anni i Big Data (l’insieme delle tecnologie e delle metodologie di analisi di dati massivi, che indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire i legami tra fenomeni diversi e prevedere quelli futuri) hanno rappresentato sempre più la nuova frontiera dell’innovazione favorita dall’IT, guadagnando un posto centrale nei mondi del business e della scienza e nella società in generale.
La capacità di acquisire, archiviare, aggregare e analizzare dati — per poi estrarre intelligenza (informazioni significative) — sta rapidamente diventando una necessità per tutte le aziende, come dimostrano i casi di Walmart, eBay, Progressive Insurance e Target . Queste aziende, grazie all’uso delle Big Data Analytics — tecnologie e software applicati allo studio di e alla ricerca di connessioni e relazioni tra Big Data — sono in grado di estrarre nuove informazioni e creare nuove forme di valore: le applicazioni analitiche possono infatti apportare un grande vantaggio competitivo, e appaiono in tutte le fasi della supply-chain. Tuttavia, eccetto alcune aziende di grandi dimensioni, i più stanno ancora tentando di capire come procedere. Qui ci concentriamo su tre elementi chiave per accelerare la propria supply-chain: un assetto prescrittivo che mostri come le aziende possono implementare le Big Data Analytics; alcune fasi di implementazione esemplificate attraverso una mappa di maturità; i problemi di fondo che le aziende dovrebbero considerare nell’esternalizzazione delle Big Data Analytics.

CHE C’È DI NUOVO?

I Big Data senza le analitiche sono solo un’enorme quantità di dati, le analitiche senza i Big Data sono solo uno strumento statistico. È la combinazione di Big Data e analitiche, potenziata dall’attuale capacità di calcolo, a creare la possibilità di trasformare l’informazione in intelligenza. Come sostiene Peter Norvig, il direttore della ricerca di Google, “non abbiamo algoritmi migliori, ma semplicemente più dati”. In realtà ciò non è del tutto accurato: la fruibilità dei Big Data e i progressi dell’intelligenza artificiale hanno creato nuove opportunità sia per i dati sia per lo sviluppo di algoritmi. Tuttavia, rispetto al più recente passato, emergono alcune differenze:

  • Capacità di ricerca senza precedenti: la velocizzazione delle transazioni ha favorito lo sviluppo dell’acquisizione digitale di dati in real-time, e oggi sono facilmente disponibili serie di dati vaste e complesse, correlate a ogni tipo di fenomeni;
  • Cambiamento nella natura delle ricerche: in passato i dati si raccoglievano per testare un’ipotesi prodotta dall’uomo, mentre oggi si raccolgono al fine di testare ipotesi non ancora pensate, molte delle quali verranno poi generate via computer (le macchine stanno diventando più intelligenti tramite algoritmi di auto-apprendimento, e quindi gli algoritmi sono in grado di individuare ogni tipo di relazione tra le variabili senza intervento umano);
  • Cambiamento nella natura della sperimentazione: Internet ha introdotto la possibilità di condurre esperimenti controllati di vasta portata su molti fenomeni economici e sociali, grazie a cui si può comprendere un numero di variabili senza precedenti.

Tuttavia questi progressi sono estremamente specifici dal punto di vista funzionale. Sebbene forniscano intuizioni profonde, queste applicazioni analitiche sono altamente frammentarie: questa natura frammentaria e parziale lascia poco spazio per un’implementazione globale e sistematica, creando sfide particolari per chi vuole migliorare interi sistemi organizzativi invece che una loro funzione particolare.

APPLICAZIONI PER LA SUPPLY-CHAIN

Le Analytics offrono profonde intuizioni, sono utilizzabili lungo tutta la supply-chain, ma sono di solito funzionalmente specifiche: se la crescita maggiore si osserva nel marketing, la logistica le impiega per la pianificazione dei percorsi e dei veicoli, mentre a livello di operations sono state usate per la pianificazione dell’inventario e il coordinamento dell’orario dei lavoratori. Infine, anche la parte dedita agli approvvigionamenti si serve di applicazioni per la segmentazione dei fornitori e la misurazione del rischio.

Marketing

Le applicazioni analitiche per il marketing sono solitamente customer-oriented e sul lato delle vendite della supply-chain. La natura del marketing ha portato allo sviluppo di Big Data Analytics che colgono la domanda dei consumatori per prevederne il comportamento e facilitarne la micro-segmentazione. In misura crescente, i dati raccolti sono registrati e comunicati in real-time in modo che le aziende possano rielaborare agilmente le proprie strategie. Altre importanti applicazioni di Big Data Analytics per il marketing sono l’ottimizzazione del prezzo e la costruzione di algoritmi per la “affinity analysis”.

Logistica

Le analitiche per la logistica sono tra le prime a essere state sviluppate: le applicazioni possono fornire informazioni granulari come la segmentazione delle vie di trasporto e l’inclusione di fattori di transito per differenti tipi di prodotti. Un esempio eccellente è la gestione del magazzino, in cui la tecnologia RFID è impiegata nella tracciabilità della merce in movimento, registrandone localizzazione e quantità. È particolarmente importante l’IoT nelle catene del freddo (cold-chain) ad esempio, dove è usata per monitorare la temperatura ambientale e la durata del viaggio: questi sono fattori essenziali nel trasporto di prodotti deperibili, in cui gli algoritmi delle analitiche ottimizzano la quantità degli ordini e i livelli di servizio con i tempi di trasporto, attivando allarmi quando viene rilevato un problema.

Operations

Nelle business operations si usano le Analytics per una varietà di decisioni — dalla gestione dell’inventario all’ottimizzazione dei livelli di scorte, dall’ottimizzazione della manutenzione alla collocazione dello stabilimento. Le applicazioni attuali consentono di comunicare le statistiche con notevole frequenza in modo che i manager possano apportare correzioni più mirate in real-time. Le analitiche per la gestione dei lavoratori sono diventate un elemento importante: si possono infatti ridurre i costi mantenendo i livelli dei servizi, attraverso automazione e tracciamento delle presenze e miglioramento della programmazione lavorativa.

Approvvigionamenti

Le Analytics nel settore degli approvvigionamenti sono tra quelle con il più alto tasso di crescita, senza dimenticare che in alcune aziende questo settore rappresenta la maggiore categoria di spesa.
Molte aziende usano le analitiche per ottimizzare le opzioni dei canali di approvvigionamento e integrare i fornitori nelle business operations, per determinare il giusto mix di rifornimenti coordinati e singoli approvvigionamenti, e per supportare le trattative con i fornitori tramite un’analisi dettagliata delle preferenze dei consumatori e delle loro scelte di acquisto.

Connettere le applicazioni attraverso le funzioni

Le aziende leader usano le Big Data Analytics per accelerare le proprie supply-chain secondo connessioni funzionali che fanno parte di una strategia coordinata onnicomprensiva, e quindi tendono a scartare applicazioni per ottimizzare singole funzioni o decisioni isolate. Un esempio di come le analitiche colleghino la supply-chain è fornito da Walmart: si è riuscito a scoprire che, prima di un uragano, i consumatori fanno scorte di cibi che non richiedono cottura o raffreddamento, come ad esempio le Kellogg’s Pop Tarts. Questo livello dettagliato di customer-tracking fornisce a Walmart prospettive interessanti riguardo alle preferenze dei consumatori e alle loro scelte d’acquisto. Questo ci porta a concludere che le aziende leader comprendono che la supply-chain è un sistema e, come tale, le sue funzioni necessitano di un approccio sistemico fatto di connessioni e coordinazione per essere pienamente operative. L’ottimizzazione dei costi di una sola funzione porta tipicamente all’aumento dei costi in un’altra e risulta dunque importante avere un’analitica che non intervenga solo su una funzione ultra-specializzata della supply-chain, ma che piuttosto funzioni in maniera globale e transettoriale.

OSTACOLI NELL’IMPLEMENTAZIONE

Si possono identificare 4 ostacoli che impediscono alle aziende di sfruttare la rivoluzione Big Data:

  • Ago nel pagliaio: molte aziende sentono il bisogno di affrettare l’implementazione di analitiche per non restare indietro sul mercato. Di conseguenza, spesso usano analitiche casualmente in cerca di rapporti di causalità e altre relazioni, nella speranza che qualcosa prima o poi salti fuori, provocando sprechi di tempo e denaro;
  • Isole di Eccellenza: spesso le aziende selezionano applicazioni analitiche progettate per un processo specifico. Sebbene un algoritmo possa ottimizzare quel dato processo e risultare molto efficiente, ci possono essere pochi rapporti con l’ottimizzazione nell’intera supply-chain se il processo non le è organicamente connesso;
  • Minuzia nelle misurazioni: molte aziende si ritrovano ad avere a disposizione troppi indicatori di prestazione. Questo è il marchio distintivo di una eccessiva minuzia nelle misurazioni, che porta al provare a misurare tutto. Pochi hanno la diligenza di gestire attivamente tutti i parametri impostati, mentre molti non hanno un’idea precisa dei parametri su cui focalizzarsi;
  • Paralisi dell’analisi: molte aziende sono sopraffatte dal cambiamento repentino delle capacità della tecnologia: sanno cosa dovrebbe essere fatto, ma sono in una sorta di stato di paralisi. Può accadere di pensare di avere moli massive di dati, ma di non sapere esattamente come utilizzarli produttivamente.

ASSETTO PRESCRITTIVO

Le Big Data Analytics hanno un potenziale trasformativo per la gestione delle supply-chain. Le aziende che sono riuscite a imbrigliare questo potenziale hanno solitamente tre elementi in comune: primo, i loro sforzi sono orientati al supporto dell’intera strategia aziendale piuttosto che a tentativi esplorativi casuali; secondo, le analitiche vengono sfruttate per connettere funzioni lungo tutta la supply-chain in maniera coordinata piuttosto che per ottimizzare una singola funzione; terzo, le performance vengono misurate tramite indicatori di prestazione selezionati attentamente, che vengono usati per il miglioramento continuo. Di seguito si mostra un assetto prescrittivo che mostri come le aziende possono implementare produttivamente le Big Data Analytics nelle proprie supply-chain.

Segmentazione

Il primo passo dell’assetto prescrittivo è di utilizzare le analitiche per creare segmenti ottimali di supply-chain con attributi ben delineati, così da definire con esattezza il modo in cui l’azienda vuole competere in ogni segmento. Questo aiuta le aziende a evitare gli ostacoli dell’ago nel pagliaio e delle isole di eccellenza. Le analitiche permettono di ottenere una scalabilità dei dati tramite l’aggregazione di dati granulari in una variabilità infinita di possibilità, rendendo possibile ottimizzare le categorie di segmentazione in nuovi modi che oltrepassino il set binario. La definizione di segmenti unici e delle loro caratteristiche garantisce un’identificazione chiara delle priorità competitive per ogni segmento, che devono essere specifiche e possono includere livelli-obiettivo per il servizio consumatori, concorrenza sui costi, qualità, tempo o capacità di reazione. Ciascuna di queste priorità richiede differenti requisiti operativi, che producono strutture differenti di supply-chain, fornitori, trasporto e strategie operative, con soglie di performance per ogni segmento: l’obiettivo è di sviluppare segmenti che ottimizzino i bisogni del consumatore e criteri di supply-chain che contribuiscano a ogni segmento.

Allineamento

Il punto successivo nell’assetto è di allineare le funzioni organizzative in modo che i loro sforzi possano supportare gli attributi del segmento e le priorità competitive. Allineare significa integrare processi lungo la supply-chain. Ne consegue che ogni funzione di supply-chain applica i propri sforzi analitici per assistere la priorità competitiva indicata, invece di impegnarsi in tentativi esplorativi casuali. Una parte dell’allineamento consiste nell’uso delle Analytics per sincronizzare domanda e offerta: i Big Data possono costituire una fonte enorme di informazioni poiché rendono possibile il “demand sensing” (integrare le previsioni di vendita a breve termine con i dati dettagliati della domanda, per ridurre l’errore previsionale) e aiutano a orientare altre decisioni della supply-chain.

Misurazione

La terza fase dell’assetto prescrittivo consiste nella misurazione delle performance. Solitamente si tende a sviluppare KPI (key performance indicator, indicatori chiave di rendimento) allineati strategicamente per misurare gli attributi dei segmenti. Va ricordato che i KPI devono essere mirati, misurabili e periodicamente ricontrollati; inoltre, è necessario identificare i parametri giusti per i fenomeni da ottimizzare. Molte aziende leader usano le analitiche per cercare nuovi parametri basati su strategia e competenze di base, e che misurino l’efficacia della value proposition. Ormai è noto grazie alla filosofia del kaizen — miglioramento continuo — che il cambiamento migliore e più costante deriva da miglioramenti graduali e continui. Gli algoritmi che usano i Big Data possono fornire qui un contributo significativo, ad esempio monitorando automaticamente determinati parametri e creando alert quando si verificano deviazioni.

IMPLEMENTAZIONE DELLE CAPACITÀ TECNOLOGICHE

Non esiste una soluzione Big Data univoca. Per contro, esiste un set di strumenti analitici con gradi variabili di complessità, costo e capacità. Non tutte le aziende necessitano delle capacità analitiche più efficaci per avere successo e, inoltre, l’implementazione di queste capacità si ottiene attraverso un processo evolutivo graduale che segue il processo del miglioramento continuo e prevede quattro fasi di maturità:

  • Digitalizzazione e strutturazione dei dati: questo primo processo assicura che i dati generati siano puliti, strutturati e organizzati in modo da poter essere usati per ulteriori analisi. Questo implica un processo chiamato data scrubbing (depurazione dei dati), che rimuove gli errori dai dati e ne assicura la qualità;
  • Disponibilità dei dati: è poi necessario rendere disponibili i dati corretti in formati fruibili per tutti coloro che ne hanno bisogno, in qualsiasi momento ne abbiano bisogno;
  • Analitiche di base: la terza fase consiste nell’applicazione di analitiche di base ai dati. Ciò riguarda l’implementazione di una serie di metodologie, come il semplice paragone tra dati, le correlazioni e le regressioni. Molte aziende non necessitano dunque di analitiche del massimo livello per ottenere maggiori profitti;
  • Analitiche avanzate: al livello più avanzato della mappa di maturità, troviamo l’applicazione di analitiche avanzate, quali le analitiche predittive, gli algoritmi automatizzati a l’analisi di dati in real-time, che possono creare intuizioni di business radicalmente nuove. Queste analitiche avanzate spianano la strada a nuovi livelli di sperimentazione per sviluppare approcci ottimali alla targettizzazione dei consumatori e alle operazioni, e per aprire nuove opportunità di collaborazione sui Big Data con terze parti.

Un errore comune è quello di saltare direttamente all’ultima fase di questa mappa di maturità, trascurandone l’ordine progressivo. Le aziende leader tendono infatti a cominciare da progetti pilota piccoli, mirati e attentamente selezionati, comportamento questo che viene chiamato processo di sperimentazione intenzionale (purposeful experimentation): è più facile creare valore da questo tipo di progetti ridotti invece che passare direttamente all’implementazione di analitiche complesse. Inoltre, la struttura IT di un’azienda che si muove seguendo le fasi di maturità deve essere costruita tenendo sempre a mente che l’integrazione di analitiche lungo la supply-chain, sebbene garantisca enormi benefici, può creare una serie di potenziali vulnerabilità di cybersicurezza.

Esternalizzazione

L’utilizzo proficuo delle Big Data Analytics non dipende solo dalla disponibilità dei dati e degli strumenti analitici, ma anche dalla capacità aziendale di usarli. Questo costituisce un problema rilevante, poiché alla maggior parte delle aziende mancano le capacità di compiere tutto il lavoro analitico richiesto. Man mano che il potenziale tecnologico aumenta, il gap tra la tecnologia particolare e l’abilità di metterla all’opera produttivamente tenderà ad aumentare e sempre più aziende esternalizzeranno la parte analitica. Di fatto questo è già un trend in rapida crescita, e il bisogno di questi servizi di esternalizzazione appare ovvio se si considera l’elevato livello di competenze necessario. Due fattori chiave dell’esternalizzazione sono la portata e la criticità del coinvolgimento: la portata è il grado di responsabilità esternalizzata, mentre la criticità è l’importanza delle attività esternalizzate. I benefici potenziali dell’esternalizzazione sono ingenti perché questa permette di prendere in prestito professionalità specializzate che al momento non possiede. Però, l’esternalizzazione può creare una serie di rischi e avviare processi di dipendenza: casi comuni sono dati dal trapelare di informazioni proprietarie o da problemi di sicurezza dei dati. Specificare la responsabilità per violazioni o fughe di dati e aggiungere clausole specifiche per la sicurezza dei dati nei contratti sta diventando pratica sempre più comune.
Quindi, le aziende dovrebbero per prima cosa comprendere le proprie capacità, i propri processi e bisogni. Poi si dovrebbe procedere con la comparazione dei fornitori, ad esempio tra quelli specializzati nella loro nicchia peculiare che offrono applicazioni analitiche specifiche, e quelli che lavorano con differenti settori industriali che offrono applicazioni analitiche transettoriali. Ancora, la selezione dei fornitori esterni dovrebbe includere la loro capacità di interfacciarsi senza interruzioni con i sistemi aziendali al momento in uso. Infine, la capacità di aumentare il raggio e andare oltre il bisogno immediato dell’azienda rappresenta una massima priorità: alcuni partner possono fornire capacità a breve-medio termine, mentre altri possono aiutare a costruire competenze organizzative a lungo termine e altamente scalabili.

CONCLUSIONI

Alcuni punti fondamentali che si possono prendere come esempio dalle aziende che hanno implementato le Big Data Analytics nella propria supply-chain con successo sono i seguenti:

  • usare applicazioni che siano coordinate lungo tutte le funzioni della supply-chain, allineando domanda e offerta, e quindi non utilizzarle per ottimizzare singole funzioni o singole aree decisionali in isolamento;
  • gli sforzi devono essere guidati da una strategia che portino ad applicazioni tatticamente mirate piuttosto che ad attività di esplorazione casuale;
  • misurare le performance usando parametri sviluppati meticolosamente, e intraprendere un percorso di miglioramento continuo;
  • seguire un’evoluzione a tappe nei processi di implementazione, cominciando da progetti pilota scelti attentamente invece di passare direttamente all’adozione di analitiche avanzate su larga scala.

Le Big Data Analytics non sono solo un altro marchingegno tecnologico, ma rappresentano il legame intimo che si può produrre tra software, calcolo e capacità tecnologiche, in grado di inaugurare un’era di business e di informazione radicalmente differente dal passato.