food-service-wenda
Parlano di noi: la gestione della Food Integrity nella ristorazione collettiva
26 agosto 2019
The Cold Chain
16 settembre 2019

Big Data Analytics

Introduzione

L’avvento dei Big Data nel mondo delle imprese a cui stiamo assistendo di recente è grande motivo di interesse, sotto vari punti di vista. Cambiano le priorità di investimento, evolvono tecnologie e modelli interpretativi, aumenta la velocità degli scambi e, di conseguenza, le aziende tendono a creare team di professionisti impegnati a gestire e valorizzare grandi quantità di dati. La frontiera dell’uso dei dati per prendere decisioni (le cosiddette data driven decisions) si è drasticamente allargata: molte aziende high-performing oggi stanno costruendo le loro strategie competitive sulla base delle informazioni derivanti da un’analisi approfondita di vaste quantità di dati, capaci di generare ottimi risultati commerciali. 

Partiremo dal chiarire cosa siano le Big Data Analytics, mostreremo alcuni numeri per evidenziare la portata del fenomeno, accenneremo brevemente a degli ipotetici casi d’uso delle Big Data Analytics. Parleremo infine delle soluzioni offerte da Wenda, una startup italiana supportata da investitori europei che offre l’unico Food Integrity Management hub cross-chain e cross-device, in grado di trasformare il controllo delle supply chain da centro di costo a vantaggio competitivo, migliorando vendite, qualità, e logistica. 

Cosa sono le Big Data Analytics?

I Big Data sono l’insieme delle tecnologie e delle metodologie di analisi di dati massivi, che indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire i legami tra fenomeni diversi e prevedere quelli futuri. Essi rappresentano sempre più la nuova frontiera dell’innovazione favorita dall’IT, guadagnando un posto centrale nei mondi del business e della scienza e nella società in generale. Le analitiche sono algoritmi, tecnologie e software implementati per lo studio e la ricerca di connessioni e correlazioni tra dati. I Big Data senza le analitiche sono solo un’enorme quantità amorfa di dati, le analitiche senza i Big Data sono solo uno strumento statistico. È la combinazione di Big Data e analitiche che crea uno strumento completamente differente e dall’enorme potenziale, le Big Data Analytics. Si tratta di tecnologie e software applicati allo studio e alla ricerca di connessioni e relazioni tra Big Data, e in grado di estrarre nuove informazioni e creare nuove forme di valore: le applicazioni analitiche possono infatti apportare un grande vantaggio competitivo, e appaiono in differenti settori commerciali, in tutte le fasi delle supply-chain. Rispetto al più recente passato, emergono alcune differenze:

  • Capacità di ricerca senza precedenti, poiché la velocizzazione delle transazioni ha favorito lo sviluppo dell’acquisizione digitale di dati in real-time, e oggi sono facilmente disponibili serie di dati vaste e complesse, correlate a ogni tipo di fenomeni;
  • Cambiamento nella natura delle ricerche: in passato i dati si raccoglievano per testare un’ipotesi prodotta dall’uomo, mentre oggi si raccolgono al fine di testare ipotesi non ancora pensate, molte delle quali verranno poi generate via computer (le macchine stanno diventando più intelligenti tramite algoritmi di auto-apprendimento applicati a reti neurali artificiali, e quindi gli algoritmi sono in grado di individuare svariate tipologie di relazioni tra le variabili senza intervento umano);
  • Cambiamento nella natura della sperimentazione: Internet ha introdotto la possibilità di condurre esperimenti controllati di vasta portata su molti fenomeni economici e sociali, grazie a cui si può comprendere una quantità di variabili senza precedenti.

Questo aumento esponenziale generalizzato contribuisce a rafforzare una delle funzioni principali delle Big Data Analytics, che è quella di fornire la rappresentazione più accurata e dettagliata possibile della realtà attraverso i dati. Per raggiungere questo obiettivo è tuttavia necessario sviluppare metodologie e logiche di rappresentazione all’interno di uno scenario di tipo Data Driven, costituito da 4 grandi tipologie di Data Analysis:

  • Descriptive Analytics: si parte dall’analisi descrittiva, costituita da tutti i tool che permettono di rappresentare e descrivere anche in modo grafico la realtà di determinate situazioni o processi. Nel caso delle imprese, si parla della rappresentazione di processi aziendali. Le analitiche descrittive permettono la visualizzazione grafica dei livelli di performance;
  • Predictive Analytics: si passa poi all’analisi predittiva, basata su soluzioni che permettono di effettuare l’analisi dei dati allo scopo di immaginare scenari futuri di sviluppo. Le analitiche predittive si basano su tecniche e modelli matematici, tra cui i modelli predittivi e il forecasting;
  • Prescriptive Analytics: con le analisi prescrittive si entra nell’ambito di strumenti che associano l’analisi dei dati alla capacità di assumere e gestire processi decisionali. Le Prescriptive Analytics sono tool che mettono a disposizione delle indicazioni strategiche o delle soluzioni operative basate sia sull’analisi descrittiva sia sulle analisi predittive;
  • Automated Analytics: a fronte dei risultati delle analisi descrittive e predittive, le Automated Analytics permettono di attivare delle azioni definite sulla base di regole o in conseguenza di eventi prestabiliti (se accade x, allora si risponde con y). Le regole di cui sopra possono essere a loro volta il frutto di un processo di analisi, come ad esempio lo studio dei comportamenti di una determinata macchina a fronte di determinate condizioni oggetto di analisi.

Le Big Data Analytics rappresentano dunque il legame intimo che si può produrre tra software, calcolo e capacità tecnologiche avanzate, in grado di inaugurare un ciclo economico e di informazione radicalmente differente dal passato. Andiamo perciò a fornire qualche dato quantitativo per apprezzarne meglio la forza innovatrice e per capire il modo in cui questa può essere imbrigliata per costruire servizi e soluzioni con un impatto positivo sul business.

Numeri e applicazioni delle Big Data Analytics

L’Osservatorio Big Data Analytics & Business Intelligence della School of Management del Politecnico di Milano ha prodotto un corposo report sul tema che stiamo trattando, intitolato Big Data: Fast & Smart. Qui ne delineiamo alcuni elementi interessanti, utili per capire la portata quantitativa del fenomeno Big Data Analytics. 

La ricerca mostra un settore in ottima salute che, con una crescita del 26% per il 2018, arriva a 1.393 milioni di Euro: un buon balzo in avanti rispetto ai 1103 milioni di Euro del 2017, quando era cresciuto del 22% evidenziando già un miglioramento rispetto al 15% di crescita del 2016. Del totale di 1.393 milioni di Euro, l’88% (1.223 milioni di Euro) è generato dalle grandi imprese, mentre solo il 12% (170 milioni di Euro) dalle PMI. 

Anche la velocità media di analisi dei dati sembra in grande crescita: le analisi quasi in tempo reale sono più che raddoppiate, passando dal 14% del 2017 al 33% del 2018, mentre le analisi in tempo reale sono quasi triplicate, con un progresso dal 3% del 2017 all’8% del 2018. Questo considerevole aumento della velocità delle Big Data Analytics ha permesso di investire su monitoraggio e alerting, decision making automatizzato e creazione di nuovi prodotti e servizi (ad es. automobili a guida autonoma).

Nell’ambito delle grandi imprese, su un campione di 119 aziende italiane con un numero di lavoratori maggiore di 249, si ottiene che il settore manifatturiero è quello in cui si investe di più in Big Data Analytics, con una quota del 43%. Seguono servizi con il 19%, GDO/retail con il 14%, telco e media con il 12, utility con il 4%, banche e assicurazioni entrambe con il 4% e infine PA e sanità con il 2%. 

Nell’ambito delle PMI, su un campione di 501 aziende italiane con un numero di lavoratori che va dai 10 ai 249, si ottiene che il settore manifatturiero è quello in cui si investe di più in Big Data Analytics, con una quota del 57%. Seguono GDO/retail con il 12%, il turismo con il 9%, le attività professionali con il 7% e infine ICT-media-comunicazione, banche e assicurazioni e altri servizi, ciascuno con il 5%. Il 2018 è quindi stato un anno che ha portato nuovi sviluppi e investimenti, con aziende sempre più orientate verso l’estrazione di valore dai dati, principalmente per sviluppi nei settori manifatturiero, GDO/retail, servizi.

Il mercato delle Big Data Analytics – Progressione 2015-2018 (Fonte: Report “Big Data: Fast & Smart” dell’Osservatorio Big Data Analytics & Business Intelligence della School of Management del Politecnico di Milano)

Le Big Data Analytics si prestano a molteplici usi per le aziende che ne sappiano utilizzare le differenti potenzialità, offrendo profonde intuizioni per accelerare le innovazioni di prodotto, ottimizzare i processi interni, identificare accuratamente i driver delle performance finanziarie e accelerare tutta la supply-chain. A proposito di quest’ultima, se grandi tassi di crescita si possono osservare nell’uso di Big Data Analytics come strumento di marketing, la logistica le impiega per la pianificazione dei percorsi e dei veicoli. A livello di operazioni possono essere impiegate per la pianificazione dell’inventario e il coordinamento dell’orario dei lavoratori. Infine, anche la parte aziendale dedita agli approvvigionamenti si serve di applicazioni per la segmentazione dei fornitori e la misurazione del rischio.

Alcuni punti fondamentali che si possono prendere come esempio dalle aziende che hanno implementato le Big Data Analytics nella propria supply-chain con successo sono i seguenti:

  • usare analitiche che siano coordinate lungo tutte le funzioni della supply-chain, allineando domanda e offerta, e quindi non utilizzarle per ottimizzare singole funzioni o singole aree decisionali in isolamento;
  • gli sforzi devono essere guidati da una strategia che porti ad applicazioni tatticamente mirate piuttosto che ad attività di esplorazione casuale;
  • misurare le performance usando parametri sviluppati meticolosamente, e intraprendere un percorso di miglioramento continuo;
  • seguire un’evoluzione a tappe nei processi di implementazione, cominciando da progetti pilota scelti attentamente invece di passare direttamente all’adozione di analitiche avanzate su larga scala.

 

Le Big Data Analytics consentono di ridurre tempo di implementazione, costi di produzione e time-to-market, e di aumentare soddisfazione del consumatore e margini di profitto. Esse possono inoltre aiutare a estrarre grandi quantità di valore da bacini di dati vasti, mai analizzati e probabilmente troppo complessi da gestire per i metodi e gli strumenti canonici di analisi. 

Nella produzione alimentare, i dispositivi IoT e la sensoristica rendono possibile la raccolta di grandi quantità di dati da analizzare in cloud attraverso le Big Data Analytics per ottenere maggiori conoscenze dei fattori chiave della produzioni agricola. Analisi microclimatiche relative a umidità, tassi locali di piovosità, variazioni di temperatura possono essere usate per ottimizzare una lunga serie di processi. Ad esempio, in Sud America, la FAO ha messo in piedi un progetto sull’irrigazione efficiente usando dispositivi IoT, cloud storage, e Big Data Analytics. Dopo aver analizzato i dati, l’organizzazione ha espresso alcune linee guida per aiutare i coltivatori a prendere le migliori decisioni possibili (vedi anche: UBS – The food revolution. The future of food and the challenges we face, 2019, passim).

 

Wenda Food Integrity Management Hub

Noi di Wenda, una startup italiana supportata da investitori europei, vogliamo contribuire con le nostre innovazioni tecnologiche a risolvere alcuni dei problemi che si presentano nel settore del Food&Beverage. A questo scopo, offriamo il Wenda Food Integrity Management Hub, una piattaforma digitale Saas ad abbonamento annuale dedicata a tutti gli attori del Food&Beverage che movimentano o gestiscono prodotti deperibili o sensibili, per gestirne le informazioni di integrità. 

Si tratta dell’unico hub di gestione dei dati di integrità alimentare cross-chain e cross-device: raccoglie e analizza dati non strutturati da data-logger e sistemi disponibili sul mercato e usati in tutte la fasi della supply chain, e mira a trasformare il controllo della Food supply chain da centro di costo a vantaggio competitivo. Fornisce informazioni utili sulla tracciabilità, la catena del freddo e la shelf-life ai diversi attori coinvolti e ne promuove la collaborazione.

Il Wenda Food Integrity Management Hub garantisce: panoramica delle analitiche di integrità e dei punti rischiosi della supply chain, livelli differenziali di accesso ai dati di viaggio, wallet in cloud per l’upload e la condivisione dei documenti di viaggio e delle certificazioni di qualità del prodotto, integrazione e interoperabilità con diversi sistemi di tracciabilità e data logger. 

La parte di Big Data Analytics ha una serie di vantaggi, tra cui:

 

  • Prendere decisioni motivate dai dati per garantire sicurezza alimentare individuando i punti critici nella supply chain. Si possono impostare soglie di allarme configurabili per ogni spedizione o deposito, e connettere alla piattaforma i sistemi aziendali per avere tutte le informazioni in una singola schermata;
  • Verificare l’attendibilità dei fornitori e classificarli secondo le loro performance. Analizzando i dati raccolti, si può stabilire se il prodotto ha viaggiato in buone condizioni, in modo da scegliere solo i trasportatori migliori per i prodotti sensibili;
  • Ricevere notifiche via email quando ci sono problemi grazie al management delle notifiche di allarme, che permette di impostare delle escalation in base alla gravità del problema. Si possono anche diversificare i destinatari degli allarmi e assegnare compiti mirati ai propri collaboratori.

 

Wenda è stata accelerata da UniCredit, oltre che da Maersk, Digital Magics e Intesa Sanpaolo. Inoltre, Wenda è supportata da un investitore tedesco esperto in data science, e sta sviluppando degli algoritmi predittivi per il calcolo delle probabilità di deterioramento del prodotto quando viene spedito o stoccato in magazzino. Sono in corso di sviluppo anche algoritmi prescrittivi che – sulla base dei dati raccolti finora – possano indicare la migliore scelta aziendale al verificarsi di determinate condizioni o di alcuni eventi che potrebbero turbare lo scorrimento fluido del prodotto nella supply chain.

Per qualsiasi informazione, per saperne di più su chi siamo, o per prenotare una demo con il Wenda Food Integrity Management Hub, invitiamo a visitare il nostro sito web.