Software per la Pianificazione e Previsione della Supply Chain, febbraio 2025
Il software per la pianificazione della supply chain è progettato per ottimizzare le decisioni (cosa produrre, immagazzinare o spostare, e quando) in condizioni di incertezza – non solo per registrare le transazioni. Come dice una definizione, la supply chain è “la padronanza quantitativa ma pratica delle opzioni quando si affrontano variabilità e vincoli… con un focus sul coltivare e scegliere le opzioni, anziché sulla gestione diretta delle operazioni sottostanti.” 1 In altre parole, i migliori strumenti di pianificazione si concentrano sull’ottimizzazione (ad es. decidere i livelli ottimali di inventario o produzione) piuttosto che sulla semplice gestione transazionale (monitorare ordini e scorte). Questo studio confronta i principali fornitori globali di software per la pianificazione e previsione della supply chain, enfatizzando evidenze tecniche tangibili rispetto al marketing. Valutiamo ogni fornitore in base a criteri chiave:
- Previsione Probabilistica – Vanno oltre le previsioni puntuali per fornire distribuzioni complete o modelli avanzati? Se viene vantata la previsione “AI/ML”, esiste evidenza (ad esempio, una forte prestazione in competizioni globali di previsione come il M5) a sostegno?
- Grado di Automazione – Il sistema può eseguire previsioni e pianificazioni in modalità autonoma (completamente robotizzato) senza continue modifiche manuali? Quanto è autonoma la capacità decisionale?
- Scalabilità e Prestazioni – La tecnologia gestisce in modo efficiente dati su larga scala? (Attenzione alle architetture in-memory che non scalano bene con l’aumentare dei dati e con il congelamento dei costi della memoria.)
- Integrazione Tecnologica e Acquisizioni – La soluzione è costruita su uno stack tecnologico coerente o su un mosaico di moduli acquisiti? Lunghi storici di fusioni e acquisizioni possono portare a una tecnologia frammentata e incoerente.
- Credibilità Tecnica – Le affermazioni tecnologiche del fornitore sono supportate da principi scientifici o da evidenze ingegneristiche? Ignoriamo le parole d’ordine (“AI/ML,” “demand sensing”) in favore di spiegazioni concrete o validazione da parte dei pari.
- Coerenza e Contraddizioni – I messaggi del fornitore sono in linea? (ad es. affermare previsioni probabilistiche mentre si vantano metriche di accuratezza deterministica come il MAPE sarebbe una bandiera rossa.)
- Pratiche Obsolete – Indichiamo metodi superati (come formule semplicistiche per lo stock di sicurezza) che sono in contrasto con l’ottimizzazione probabilistica moderna.
- Output Orientato alle Decisioni – Il software si limita a produrre previsioni, oppure fornisce decisioni ottimizzate (piani d’ordine, obiettivi di inventario) basate su tali previsioni? L’obiettivo reale è guidare le decisioni, non soltanto fornire numeri.
Approccio: Per ogni fornitore, ci basiamo sulla documentazione tecnica pubblicata, analisi affidabili e (quando disponibili) benchmark aperti o competizioni per valutare le capacità. L’hype dei fornitori, i rapporti analitici a pagamento e casi di studio patinati vengono ignorati, a meno che non siano verificati da solide evidenze. Il tono è intenzionalmente scettico – le affermazioni devono essere supportate da dati o da sostanza ingegneristica. Incoerenze o mancanza di trasparenza sono considerate debolezze gravi.
Di seguito, classifichiamo in primo luogo i migliori fornitori di software per la pianificazione della supply chain in base alla leadership tecnologica, con una breve motivazione per ciascuno. Dopo il riepilogo della classifica, segue un confronto dettagliato, organizzato secondo i criteri tecnici sopra indicati. Tutte le affermazioni sono supportate da citazioni a fonti credibili (nel formato【source†line】).
I Migliori Fornitori Classificati per Eccellenza Tecnologica
-
Lokad – Ottimizzazione Probabilistica all’Avanguardia Lokad guida l’innovazione tecnologica, essendo pioniera nella previsione probabilistica e in una pianificazione realmente centrata sulle decisioni. Già nel 2012, Lokad ha promosso le previsioni probabilistiche (quasi un decennio avanti rispetto agli altri) e ha costruito l’intera soluzione attorno ad esse 2. A differenza dei fornitori che trattano la previsione e la pianificazione come fasi separate, il sistema di Lokad (costruito su un linguaggio di dominio specifico chiamato Envision) produce direttamente decisioni ottimizzate (ordini, livelli di stock) a partire da modelli probabilistici. La credibilità tecnica di Lokad è eccezionale – documenta apertamente i suoi metodi, e il suo team ha raggiunto la massima precisione a livello di SKU (#1) nella prestigiosa competizione di previsione M5 (su 909 squadre) 3. Questa vittoria nel mondo reale nella previsione granulare sottolinea il potere predittivo all’avanguardia di Lokad. La piattaforma è cloud-native e completamente automatizzata (previsioni e ottimizzazioni vengono eseguite in modalità autonoma secondo una pianificazione), e evita le limitazioni dei design in-memory sfruttando il cloud computing scalabile. In sintesi, Lokad stabilisce il punto di riferimento con il suo approccio probabilistico, a priorità automatica e supportato da evidenze all’ottimizzazione della supply chain.
-
Kinaxis – Pianificazione Veloce in-Memory con AI Emergente Kinaxis è un leader consolidato noto per il suo motore di “pianificazione concorrente” estremamente rapido. La sua piattaforma RapidResponse utilizza un’architettura in-memory per consentire simulazioni in tempo reale di scenari relativi a offerta, domanda e inventario. Questo design offre ai pianificatori la capacità istantanea di analisi del “what-if”, un vantaggio importante per la reattività. Tuttavia, la forte dipendenza dal calcolo in-memory può comportare elevati costi hardware e limiti di scalabilità con l’aumentare dei dati (le grandi implementazioni richiedono una quantità massiccia di RAM) 4. Tradizionalmente, Kinaxis si è concentrata sulla pianificazione deterministica (basata su regole definite dall’utente e aggiustamenti manuali). Riconoscendo il cambiamento del settore, Kinaxis ha recentemente adottato tecniche probabilistiche integrando acquisizioni/partner: ad esempio, ha aggiunto un motore di ottimizzazione probabilistica multi-echelon dell’inventario (MEIO) (dal partner Wahupa) e ha acquisito una società di AI per la previsione della domanda (Rubikloud). Questi componenti aggiuntivi portano capacità avanzate di previsione e modellazione dell’incertezza a Kinaxis, sebbene in quanto componenti aggiuntivi sollevino questioni sulla coerenza dello stack tecnologico. La comunicazione di Kinaxis riguardo “AI” e machine learning è prudente rispetto ad alcuni concorrenti – enfatizza la combinazione tra intelligenza umana e artificiale. In pratica, Kinaxis eccelle nell’automazione del ricalcolo del piano (ogni volta che i dati cambiano, il sistema può riequilibrare autonomamente i piani di offerta e domanda), ma storicamente ha comunque fatto affidamento sui pianificatori per impostare i parametri e non ha completamente automatizzato le decisioni finali. Con i suoi nuovi moduli probabilistici, Kinaxis sta procedendo verso una maggiore automazione decisionale in condizioni di incertezza, pur provenendo da un’eredità deterministica. In sintesi, Kinaxis offre una potente piattaforma di pianificazione in tempo reale e sta recuperando il ritardo nella previsione guidata dall’AI, ma deve dimostrare che le sue nuove funzionalità probabilistiche sono profondamente integrate piuttosto che superficiali.
-
o9 Solutions – Grandi Ambizioni e Big Data o9 Solutions è un nuovo arrivato (fondato nel 2009) spesso presentato come un “cervello digitale” per la supply chain. Dal punto di vista tecnologico, o9 è estremamente ambizioso – ha costruito una piattaforma ampia con un modello dati basato su grafi (Enterprise Knowledge Graph, “EKG”) e si rivolge a dataset enormi e complessi (rendendolo popolare tra le grandi imprese in cerca di uno strumento di pianificazione end-to-end). Tuttavia, l’approccio di o9 comporta dei compromessi. Secondo quanto riportato, il sistema utilizza un design in-memory, che, pur consentendo analisi rapide, “garantisce elevati costi hardware” per un uso su larga scala 4. Ciò solleva preoccupazioni sulla scalabilità, poiché aggiungere più RAM al problema diventa costoso e alla fine raggiunge dei limiti (soprattutto dato che i prezzi della memoria non stanno più diminuendo rapidamente). o9 fa ampio marketing attorno all’AI/ML, ma bisogna distinguere la sostanza dall’hype: molte delle sue affermazioni (per esempio, che il suo knowledge graph migliori in modo unico la previsione) sono dubbi senza supporto scientifico 5. In effetti, analisi degli elementi tecnologici di o9 disponibili pubblicamente su GitHub suggeriscono che impieghi principalmente tecniche standard (nulla di fondamentalmente nuovo da giustificare il grandioso marchio “AI”) 6. o9 supporta in una certa misura la pianificazione di scenari probabilistici – può modellare molteplici scenari di domanda ed eseguire simulazioni – ma non è chiaro se fornisca vere distribuzioni di previsioni probabilistiche o solo analisi di scenario. La piattaforma può automatizzare alcune attività di pianificazione, tuttavia o9 spesso si posiziona come supporto decisionale, con gli umani che alla fine guidano il “cervello digitale.” Complessivamente, o9 è una piattaforma tecnologicamente robusta con capacità ampie, ma la sua dipendenza dal calcolo in-memory e l’ambiguità attorno alle sue affermazioni sull’AI attenuano la sua percepita leadership tecnica. È un leader più per la sua visione integrata e la gestione dei big data che per una precisione di previsione unicamente dimostrata.
-
Relex Solutions – Automazione Orientata al Retail (con Limiti) Relex Solutions (fondato nel 2005) è specializzato nella previsione della domanda nel retail, nel riapprovvigionamento e nella pianificazione degli spazi. Si è guadagnato la reputazione di abilitare un riapprovvigionamento in negozio altamente automatizzato – diverse grandi catene di supermercati utilizzano Relex per prevedere automaticamente la domanda a livello di punto vendita e generare ordini con un intervento umano minimo. Questa automazione end-to-end in un ambiente retail impegnativo è un punto di forza notevole. Relex vanta inoltre tecniche moderne di previsione basate su machine learning ottimizzate per il retail (considerando promozioni, eventi locali, ecc.). Detto ciò, un’analisi approfondita rivela alcune limitazioni architettoniche e metodologiche. Il sistema di Relex utilizza un design in-memory, con data cube in stile OLAP 7 per fornire analisi e reportistica molto rapide. Sebbene ciò generi dashboard reattivi, aumenta i costi hardware e non risolve intrinsecamente problemi complessi di ottimizzazione. In effetti, l’approccio in tempo reale e granulare di Relex può confliggere con l’ottimizzazione a livello di rete – potrebbe avere difficoltà a coordinare in modo ottimale le decisioni all’interno di una vasta rete di supply quando si affrontano fenomeni come la cannibalizzazione dei prodotti o sostituzioni 8. Ci sono anche segnali che i modelli di previsione di Relex non siano tanto “next-gen” quanto promosso – le evidenze suggeriscono che gran parte del loro approccio si basi su metodi pre-2000 (ad es. regressione, lisciamento delle serie temporali) 9, sebbene applicati su larga scala. Spesso si vantano di una disponibilità in-stock superiore al 99% per i retailer, ma sondaggi di settore (ad es. da associazioni ECR) mostrano che la disponibilità tipica sugli scaffali è inferiore, mettendo in dubbio tali affermazioni generali 10. Relex possiede uno stack tecnologico per lo più coerente (sviluppato internamente per il retail) e non è cresciuto tramite grandi acquisizioni, il che è positivo per la coerenza. In sintesi, Relex è un leader nell’automazione per il retail e può gestire operazioni notevolmente automatizzate, ma la sua profondità tecnica nella scienza della previsione è discutibile, e un’architettura in-memory significa che condivide le preoccupazioni di scalabilità con gli altri.
-
ToolsGroup – Innovatore Precursore Ora che Promuove “AI” ToolsGroup (fondato nel 1993) offre il software SO99+, storicamente noto per la previsione guidata dal livello di servizio e l’ottimizzazione dell’inventario. Anni prima che “AI” diventasse una parola d’ordine, ToolsGroup contribuì a popolarizzare i concetti probabilistici nella supply chain – per esempio, modellando la variabilità della domanda per determinare le scorte di sicurezza necessarie a raggiungere un determinato livello di servizio. In pratica, il loro strumento può produrre una distribuzione di probabilità della domanda (soprattutto per gli articoli a lenta rotazione) e calcolare obiettivi di inventario per raggiungere un tasso di riempimento prefissato. Tuttavia, negli ultimi anni il messaggio di ToolsGroup si è spostato per aderire all’hype AI/ML, e qui si vedono le crepe di credibilità. Pubblicizzano fortemente la pianificazione “alimentata da AI”, ma indizi pubblici suggeriscono che i loro algoritmi di base siano ancora fondamentalmente modelli statistici legacy (pre-2000) 11. Notevolmente, dal 2018 circa hanno iniziato a marchiare il loro output come “previsioni probabilistiche” mentre vantavano contemporaneamente miglioramenti del MAPE 12 – una incoerenza palese, poiché il MAPE (una metrica di errore per previsioni deterministiche) “non si applica alle previsioni probabilistiche.” 13 Ciò suggerisce o un fraintendimento o un accorgimento di marketing (ad es. forse generano previsioni probabilistiche ma le valutano comunque confrontando la mediana con i valori reali utilizzando il MAPE – il che perde il senso dei metodi probabilistici). ToolsGroup parla anche di “demand sensing” per aggiustamenti a breve termine delle previsioni, eppure tali affermazioni sono non supportate dalla letteratura scientifica 13 e spesso si riducono a medie mobili confezionate diversamente. Sul lato positivo, la soluzione di ToolsGroup è abbastanza completa per la pianificazione della supply chain (coprendo la previsione della domanda, l’ottimizzazione dell’inventario, il S&OP, ecc.) e può essere eseguita in modalità lights-out (generando automaticamente proposte di riapprovvigionamento durante la notte). Il suo focus sull’ottimizzazione (raggiungere gli obiettivi di servizio con scorte minime) è in linea con la previsione orientata alle decisioni. Ma il recente atteggiamento AI dell’azienda, senza chiare evidenze tecniche, oltre ad un’architettura che potrebbe non essere moderna e cloud-native (probabilmente più orientata a server singoli), la penalizza in termini di leadership tecnologica. In breve, ToolsGroup è un giocatore comprovato nella modellazione probabilistica dell’inventario, ma necessita di maggiore trasparenza per sostenere le sue nuove affermazioni sull’AI e assicurarsi che i suoi metodi non si siano stagnati.
-
Blue Yonder – Eredità Potente, Tecnologia a Patchwork Blue Yonder (fondata nel 1985 come JDA Software, ribattezzata dopo aver acquisito una piccola azienda AI chiamata Blue Yonder) è un gigante nella pianificazione della supply chain. Offre soluzioni che spaziano dalla pianificazione della domanda, pianificazione dell’approvvigionamento, retail, e altro ancora. Nel corso dei decenni, Blue Yonder (BY) ha accumulato un ampio portafoglio tramite numerose acquisizioni – da Manugistics (ottimizzazione della supply chain) a componenti di i2 Technologies, e più recentemente la startup Blue Yonder AI. Il risultato è una “collezione eterogenea di prodotti, per lo più datati,” anche se sotto un unico marchio 14. Dal punto di vista tecnologico, i moduli legacy di Blue Yonder (come Demand Forecasting o Fulfillment) spesso utilizzano tecniche più vecchie (ad es. previsioni euristiche, pianificazione basata su regole con scorte di sicurezza). L’azienda sfoggia ora “AI/ML” nel suo marketing, ma le affermazioni tendono ad essere vague e con poca sostanza 15. Un indizio rivelatore: Blue Yonder ha solo pochi progetti open-source sul suo GitHub (ad es. tsfresh, PyDSE, Vikos), che suggeriscono gli approcci di previsione sottostanti – si tratta principalmente di metodi tradizionali come l’estrazione di feature + modelli ARIMA/regressione lineare 16, piuttosto che di deep learning all’avanguardia o modelli probabilistici. In altre parole, l’“AI” di BY è probabilmente più una trovata di marketing che una rivoluzione. La coesione della piattaforma è motivo di preoccupazione – la pianificazione, il rifornimento e l’ottimizzazione delle scorte possono esistere come motori separati che non funzionano in modo integrato (l’integrazione richiede un notevole impegno implementativo). Blue Yonder possiede comunque alcune capacità di ottimizzazione molto forti in aree specifiche (ad es. i loro algoritmi legacy i2 per l’ottimizzazione della rete della supply chain, che se modernizzati possono essere potenti). E molte grandi imprese utilizzano Blue Yonder per automatizzare le attività di pianificazione (ad esempio, generando previsioni che alimentano un processo MRP, impostando livelli di scorte di sicurezza, ecc., con i pianificatori che intervengono solo per eccezioni). Tuttavia, rispetto ai leader tecnologici più recenti, Blue Yonder appare tecnologicamente stagnante: si affida in larga parte a previsioni deterministiche (spesso misurate con vecchi parametri come MAPE o bias), utilizza pratiche obsolete come le formule per le scorte di sicurezza come elemento centrale della pianificazione, e applica solo superficialmente la terminologia AI. Data la sua mole di risorse, Blue Yonder potrebbe evolversi, ma al momento incarna il compromesso di un grande fornitore: funzionalità ampia ma un tech stack frammentato e invecchiato 14. Noi lo classifichiamo al di sotto dei concorrenti più innovativi dal punto di vista tecnologico.
(Altri fornitori degni di nota: SAP IBP e Oracle SCM Cloud offrono anch’essi suite di pianificazione della supply chain, ma queste sono in gran parte estensioni dei loro sistemi ERP transazionali. Esse ereditano un notevole debito tecnico e complessità dai sistemi legacy e dalle acquisizioni. Ad esempio, l’offerta di pianificazione di SAP è un mash-up di componenti come SAP APO, SAP HANA, oltre ad strumenti acquisiti (SAF per la previsione, SmartOps per l’inventario) – sostanzialmente “una collezione di prodotti” che richiede un notevole sforzo di integrazione 17. Queste soluzioni legate all’ERP, pur essendo potenti sotto certi aspetti, in generale non sono leader nella scienza della previsione o nell’automazione, per cui sono escluse dai ranghi più alti.)
Avendo presentato i principali fornitori, ora ci addentriamo in un’analisi criterio per criterio, evidenziando come ogni fornitore si posizioni in termini di previsione probabilistica, automazione, scalabilità, ecc., con un’enfasi su evidenze ed esempi. Questa visione comparativa mette in luce i punti di forza e le debolezze di ogni soluzione in maniera approfondita.
Previsione Probabilistica: Oltre i Modelli Deterministici
L’ottimizzazione moderna della supply chain beneficia enormemente dalla previsione probabilistica – stimare un intervallo o una distribuzione di possibili risultati (con le relative probabilità), anziché un singolo numero “più probabile”. Le previsioni probabilistiche catturano meglio la variabilità della domanda, consentendo decisioni più robuste (ad es. conoscere la probabilità di un esaurimento scorte se si riforniscono X unità). Abbiamo esaminato quali fornitori adottano veramente metodi probabilistici, rispetto a quelli che si affidano a previsioni deterministiche. Risultati chiave:
-
Lokad si distingue per aver integrato profondamente la previsione probabilistica. È stato tra i primi a promuovere modelli probabilistici (dal 2012) 2 e ha continuamente potenziato tale capacità. L’approccio di Lokad utilizza distribuzioni di domanda probabilistiche come fondamento per tutte le ottimizzazioni – ad esempio, calcolando il profitto atteso di diverse quantità di stock integrando sulla distribuzione della domanda. La credibilità della tecnologia di previsione di Lokad è confermata da competizioni globali: un team di Lokad ha raggiunto la massima accuratezza a livello di SKU nella M5 Forecasting Competition 3, una sfida benchmark di grande prestigio. È importante notare che la M5 verte interamente sulla previsione probabilistica (le classifiche si basavano su metriche d’errore distributive ponderate), e la performance di Lokad indica che i suoi metodi sono veramente all’avanguardia nel generare distribuzioni di probabilità accurate a livello granulare. In pratica, Lokad produce non solo un numero, ma un’intera distribuzione di probabilità (o scenari) per la domanda di ciascun articolo, che alimenta direttamente gli script di ottimizzazione delle decisioni.
-
ToolsGroup, a suo credito, ha offerto funzionalità probabilistiche per anni nel contesto dell’ottimizzazione del livello di servizio. Il loro software può creare una distribuzione esplicita della domanda (spesso tramite un modello di domanda intermittente o altro fitting statistico) e successivamente calcolare gli obiettivi di inventario per raggiungere una determinata probabilità di servizio. Tuttavia, esiste una differenza tra avere un modello probabilistico “sotto il cofano” e abbracciarlo pienamente nello spirito. Il marketing di ToolsGroup dal 2018 in poi suggerisce un tentativo di rebranding come leader della previsione probabilistica, eppure questo è messo in dubbio dal fatto che parlino contemporaneamente di miglioramenti del MAPE insieme alle previsioni probabilistiche 13. Questa è una contraddizione – se si sta realmente prevedendo una distribuzione, non si misurerebbe principalmente il successo con il MAPE (che presuppone un singolo numero “corretto”). Il fatto che continuino a fare affidamento su metriche deterministiche indica che potrebbero ancora generare previsioni puntuali e usare le distribuzioni solo per simulare i requisiti di scorta. Quindi, sebbene ToolsGroup possieda capacità probabilistiche, la sofisticazione di tali metodi potrebbe non essere d’avanguardia, e non è chiaro quanto siano effettivamente “tutto dentro” la previsione probabilistica rispetto al trattarla come un semplice extra.
-
Kinaxis in passato non forniva previsioni probabilistiche nella sua offerta principale (si affidava a previsioni puntuali inserite dagli utenti o generate tramite semplici statistiche). Riconoscendo questa lacuna, Kinaxis ha collaborato con Wahupa per integrare un motore probabilistico MEIO (Multi-Echelon Inventory Optimization) 18. Inoltre, Kinaxis ha acquisito una società AI (Rubikloud) specializzata nella previsione della domanda tramite machine learning (probabilmente per sua natura, ad es. producendo intervalli di previsione). A partire dal 2023, Kinaxis ha iniziato a commercializzare “Planning.AI” o capacità simili, riconoscendo esplicitamente la necessità di “abbracciare l’incertezza” e utilizzare la scienza della probabilità nel processo decisionale 19. Questo è un sviluppo positivo, ma essendo relativamente nuovo, la maturità della previsione probabilistica di Kinaxis è ancora in evoluzione. Non abbiamo visto Kinaxis o i suoi associati partecipare a competizioni pubbliche di previsione o pubblicare metodologie dettagliate, per cui la prova tecnica della loro competenza probabilistica si limita a quanto dichiarato.
-
o9 Solutions enfatizza anch’essa, in teoria, la modellazione dell’incertezza – il suo knowledge graph può memorizzare molteplici fattori causali, e afferma di generare previsioni migliori collegando i dati. Tuttavia, non troviamo evidenze pubbliche che o9 fornisca previsioni probabilistiche nella pratica (nessun benchmark di accuratezza pubblicato o algoritmi open). Il riferimento a reti bayesiane o al metodo Monte Carlo nei loro materiali è scarso. Gli elementi scoperti nei repository di codice di o9 sembrano concentrarsi su tecniche di previsione tipiche piuttosto che su algoritmi probabilistici innovativi 6. Fino a quando o9 non dimostri il contrario, dobbiamo presumere che fornisca principalmente previsioni deterministiche potenziate (forse con analisi di scenari), e che qualsiasi etichetta “probabilistica” sia più una trovata di marketing.
-
Relex Solutions opera nel settore retail, dove la variabilità (soprattutto per promozioni o prodotti freschi) è elevata. Probabilmente utilizzano alcuni approcci probabilistici internamente (ad esempio, per stimare la distribuzione della domanda per i prodotti in promozione, o per calcolare le necessità di scorte di sicurezza per negozio con un livello di servizio target). Tuttavia, i materiali rivolti al pubblico di Relex non enfatizzano esplicitamente la “previsione probabilistica”; parlano più di come il machine learning migliori l’accuratezza delle previsioni (solitamente implicando previsioni puntuali migliori). La peer review di Relex indica che la loro tecnologia di previsione sembra pre-2000 9, il che probabilmente significa che si affidano principalmente a metodi deterministici come l’esponenziale, magari con stagionalità e trend – tecniche che generano previsioni puntuali e, forse, deviazioni standard per le scorte di sicurezza. Di conseguenza, Relex potrebbe ancora basarsi sul vecchio paradigma: prevedere e poi aggiungere un margine di sicurezza, anziché fornire una curva di probabilità completa all’utente.
-
Blue Yonder nella sua tradizionale pianificazione della domanda utilizza una varietà di modelli statistici (ARIMA, esponenziale, forse qualche ML per fattori causali) per produrre previsioni, tipicamente aggregate e con un processo di consenso – fondamentalmente deterministici. Blue Yonder ha iniziato a menzionare termini probabilistici in alcuni contesti (poiché ormai tutti lo fanno), ma dato che i suoi contributi open-source mostrano un affidamento su ARIMA e regressione 16, è sicuro affermare che la previsione probabilistica non è un punto di forza. Inoltre, continuano a utilizzare metriche come MAPE, bias, ecc., che sono deterministiche. Non abbiamo visto Blue Yonder partecipare a benchmark di previsione noti.
-
Altri fornitori: John Galt Solutions commercializza un algoritmo “Procast” che sostiene una maggiore accuratezza, ma una recensione ha notato che tale affermazione è discutibile poiché Procast era assente dai vertici delle grandi competizioni di previsione come la M5 20. Infatti, gli strumenti di previsione open-source facilmente accessibili (ad es. Prophet o i pacchetti R di Hyndman) probabilmente performano altrettanto bene o meglio 21. Questo mette in luce un tema comune: la vera innovazione emerge dove esiste una valutazione aperta. L’assenza della maggior parte dei fornitori (eccetto Lokad) dalle competizioni pubbliche suggerisce che molti non sono veramente avanti rispetto al mondo accademico o open-source nella previsione – se lo fossero, lo dimostrerebbero in quei forum.
In sintesi, la previsione probabilistica è un elemento distintivo: Lokad guida chiaramente con una competenza dimostrata e decisioni probabilistiche pienamente integrate. ToolsGroup e Kinaxis riconoscono la sua importanza, ma l’hanno integrata solo di recente (e devono allineare le loro metriche e processi in modo convincente). Altri restano largamente in un mondo deterministico, anche se cospargono termini come “stocastico” nei loro opuscoli. Questa distinzione è importante, perché senza previsioni probabilistiche genuine, un sistema di pianificazione ricorre a scorte di sicurezza grezze e non riesce a bilanciare in modo ottimale i rischi e i costi.
Grado di Automazione: Pianificazione Senza Intervento vs. Con l’Uomo nel Ciclo
L’automazione nella previsione e nella pianificazione si riferisce alla capacità del sistema di eseguire l’intero processo – acquisizione dei dati, generazione delle previsioni, ottimizzazione del piano ed anche l’esecuzione delle decisioni – senza intervento manuale, a eccezione del monitoraggio e, occasionalmente, dell’ottimizzazione dei parametri. Un’elevata automazione è cruciale per operazioni su vasta scala (dove regolare manualmente migliaia di previsioni è impraticabile) e per rispondere rapidamente ai cambiamenti (i robot reagiscono più velocemente degli esseri umani). Abbiamo valutato quanto ogni soluzione sia automatizzata e se supporti esecuzioni di pianificazione “unattended” (e se i clienti la usano effettivamente in questo modo). Le osservazioni includono:
-
Lokad è progettato pensando all’automazione. Il suo ambiente di scripting Envision consente che l’intera logica di previsione e rifornimento venga codificata e programmata. Molte implementazioni di Lokad operano in modalità completamente robotizzata, dove ogni giorno o settimana il sistema importa automaticamente nuovi dati, ricalcola le previsioni, ottimizza le decisioni (ad es. genera quantità d’ordine o piani di allocazione), e li invia all’ERP o al sistema di esecuzione – tutto senza interventi manuali. La filosofia è che, se i modelli sono configurati correttamente, le sovrascritture manuali dovrebbero essere minime, e i pianificatori possono concentrarsi sulle eccezioni o sui miglioramenti dei modelli anziché sulle regolazioni di routine. Le storie di successo di Lokad evidenziano spesso la drastica riduzione del carico di lavoro dei pianificatori grazie a questa automazione. In sostanza, Lokad tratta i pianificatori più come data scientist o supervisori del processo, anziché come persone che regolano manualmente le leve della pianificazione quotidianamente.
-
Relex Solutions consente anch’essa un alto grado di automazione, specialmente nel rifornimento. Ad esempio, per i rivenditori di generi alimentari, Relex può generare automaticamente ordini per i negozi ogni giorno, tenendo conto delle previsioni, delle scorte a magazzino e dei tempi di consegna. Alcuni rivenditori che utilizzano Relex, a quanto pare, si fidano così tanto del sistema che la stragrande maggioranza degli ordini viene eseguita automaticamente, con i pianificatori che revisionano solo le segnalazioni anomale. Il sistema di Relex supporta flussi di lavoro per le eccezioni (ad es. può segnalare se una previsione risulta inusualmente distante dalla norma, consentendo a un umano di intervenire), ma altrimenti è progettato per eseguire automaticamente la pianificazione della domanda e gli ordini. Questo è un punto di forza fondamentale nel settore retail, dove la scala (milioni di combinazioni SKU-negozio) rende impossibile una pianificazione manuale. Tuttavia, va notato che raggiungere un tale livello di automazione richiede spesso modelli stabili e maturi e un focus ristretto (ad es. sui generi alimentari di base). In una pianificazione manifatturiera multi-echelon più complessa, Relex è meno presente. Tuttavia, nel suo ambito, Relex dimostra che la previsione e il rifornimento senza assistenza sono realizzabili, sebbene entro i limiti imposti dalla sua architettura in memoria.
-
Kinaxis offre automazione nel ricalcolo – la sua capacità di eseguire operazioni in parallelo significa che ogni volta che i dati cambiano, può propagare le modifiche attraverso il modello della supply chain (distinta base, inventario, capacità) per aggiornare automaticamente tutti i piani dipendenti. Questa è una forma di automazione (che elimina la necessità di eseguire manualmente cicli di pianificazione separati per ogni livello). Tuttavia, Kinaxis tradizionalmente si aspetta che i pianificatori siano in qualche modo coinvolti: essi impostano scenari, esaminano i risultati e decidono quale scenario adottare. Kinaxis può automatizzare decisioni di routine tramite il suo sistema di allerta (per esempio, approvare automaticamente un piano se l’inventario supera una soglia), ma viene generalmente utilizzato come strumento di supporto decisionale piuttosto che come un pilota automatico “in ombra”. Detto questo, con l’integrazione dell’IA e previsioni più avanzate, Kinaxis sta spingendo verso una decisione automatizzata. Ad esempio, il suo nuovo MEIO può riequilibrare automaticamente i buffer di stock tra le varie leve ad ogni ciclo di pianificazione, che l’utente potrebbe accettare a meno che non si verifichino anomalie. L’azienda sta inoltre investendo in quelle che definiscono “supply chains auto-guarenti”, implicando una maggiore autonomia. Tuttavia, dato il suo portafoglio clienti (spesso aerospaziale, automobilistico, ecc., dove i pianificatori sono cauti), la pianificazione completamente automatica non è la norma nelle implementazioni di Kinaxis.
-
o9 Solutions è similmente solitamente impiegato come piattaforma di pianificazione in cui gli utenti (pianificatori, responsabili della domanda, ecc.) interagiscono intensamente – adeguando le previsioni, collaborando sui piani S&OP, eseguendo scenari. Ha certamente la capacità tecnica di automatizzare i calcoli (ad esempio è possibile impostare aggiornamenti ricorrenti delle previsioni), ma la filosofia di o9 tende ad arricchire i pianificatori umani con intuizioni basate sull’IA piuttosto che sostituirli. Il termine di marketing “digital twin of the organization” suggerisce che rispecchia la tua supply chain in software; ma uno specchio tipicamente riflette ciò che fai – non decide in modo autonomo. Non abbiamo trovato prove di nessuna azienda che utilizzi o9 in modo completamente autonomo; piuttosto, è uno strumento che fornisce un modello dati unico e analisi per facilitare la pianificazione cross-funzionale. L’automazione è focalizzata sull’integrazione (automatizzare i flussi di dati tra i moduli) più che sull’automazione delle decisioni.
-
ToolsGroup in passato proponeva un approccio di pianificazione a “basso intervento”. Il loro strumento SO99+ può essere configurato per generare automaticamente previsioni statistiche per ogni SKU, per poi calcolare obiettivi di inventario e addirittura suggerire ordini di rifornimento. Molte aziende di medie dimensioni lo hanno utilizzato per generare automaticamente ordini di acquisto o proposte di produzione, con i pianificatori che esaminano solamente le eccezioni (ad es. nei casi in cui il sistema non sia sicuro a causa di circostanze insolite). Il livello di automazione raggiunto dipende dalla fiducia nelle raccomandazioni del sistema. ToolsGroup spesso sottolinea che il loro approccio probabilistico porta a raccomandazioni di inventario più affidabili, il che a sua volta rende le aziende più disposte ad automatizzare gli ordini in misura maggiore. Tuttavia, se i modelli di ToolsGroup non sono adeguatamente ottimizzati, gli utenti potrebbero sovrascrivere molte decisioni. In termini di capacità tecnica, ToolsGroup può sicuramente operare in modalità batch non supervisionata per le previsioni e la pianificazione iniziale. Ma potrebbe non gestire la ripianificazione in tempo reale così bene come qualcosa come Kinaxis (è più una pianificazione notturna orientata al batch).
-
Blue Yonder (JDA) dispone di componenti come ESP (Enterprise Supply Planning) e Fulfillment che possono rilasciare automaticamente ordini di fornitura o raccomandazioni per il trasferimento di scorte basandosi sulle previsioni e sulle politiche di inventario. Molti utenti di Blue Yonder si affidano a output generati automaticamente: per esempio, il sistema potrebbe creare automaticamente ordini di distribuzione per rifornire i magazzini regionali ai livelli di stock target. Il modulo Demand di Blue Yonder può produrre automaticamente previsioni di base ogni settimana o mese. Tuttavia, storicamente le implementazioni di JDA/Blue Yonder coinvolgono molti flussi di lavoro umani: i pianificatori della domanda adattano le previsioni, i pianificatori della supply verificano gli ordini raccomandati dal sistema, ecc. Il software supporta l’automazione ma non incoraggia necessariamente una mentalità “a mani libere” – è più una postazione di lavoro per pianificatori. Inoltre, data la natura eterogenea del pacchetto BY, ottenere un’automazione end-to-end può richiedere uno sforzo significativo di integrazione (garantire che il piano di domanda fluisca verso il modulo di supply, che a sua volta fluisca verso l’esecuzione senza intervento manuale può essere complicato). Quindi, sebbene tecnicamente fattibile, nella pratica i siti di Blue Yonder spesso presentano un’ampia supervisione umana dei piani.
In sintesi, la capacità di automazione è presente in tutti i principali strumenti a vari livelli, ma la filosofia e l’uso pratico differiscono. Lokad e Relex sono notevoli per aver spinto i limiti della pianificazione veramente autonoma nei rispettivi settori (con Lokad che abilita pilota automatico della supply chain completamente scriptato per industrie diverse, e Relex che lo fa nel settore retail). I tradizionali grandi fornitori trattano l’automazione con maggiore cautela, lasciando spesso il controllo decisionale finale al pianificatore. Questo a volte è dovuto a problemi di fiducia – se le previsioni di un sistema non sono molto affidabili, gli utenti non lo lasceranno operare in autopilota. Ciò sottolinea che l’automazione è buona solo quanto l’intelligenza che la supporta: una ragione chiave per cui sono necessari strumenti probabilistici e orientati alla decisione è rendere l’automazione un’opzione praticabile (il sistema deve prendere buone decisioni da solo). Quando si valutano i fornitori, le aziende dovrebbero chiedersi: Questo sistema può operare da solo per un mese mantenendo o migliorando le nostre prestazioni? Le tecnologie migliori stanno avvicinandosi a una risposta “sì” a questa domanda, mentre altre richiedono ancora sostanzialmente supervisione manuale.
Scalabilità e Prestazioni: l’Architettura Conta
La pianificazione della supply chain spesso deve gestire big data (un gran numero di SKU, negozi, ordini, segnali IoT, ecc.) e calcoli complessi (ottimizzazione su molteplici variabili). L’architettura sottostante di ogni soluzione – che sia in memoria o distribuita, e come gestisca l’aumento dei volumi di dati – incide direttamente sulla sua scalabilità e sulle prestazioni. Scelte architetturali inadeguate possono portare a prestazioni lente o costi hardware esorbitanti (o entrambi), specialmente con la crescita dell’azienda. Punti chiave sulla scalabilità per i fornitori:
-
In-Memory vs. Distribuito: Un tema centrale è la differenza tra le soluzioni che caricano la maggior parte dei dati nella RAM per un calcolo veloce e quelle che utilizzano un calcolo distribuito e on-demand (stile cloud). Kinaxis, o9, Relex e SAP IBP dispongono tutti di una componente robusta in memoria. Il motore di Kinaxis è stato costruito sull’idea che tutti i dati rilevanti per la pianificazione risiedano in memoria per un ricalcolo istantaneo – il che funziona bene fino a un certo punto, ma scalare oltre pochi terabyte di dati in memoria diventa estremamente costoso e tecnicamente impegnativo. O9 e Relex “garantiscono alti costi hardware” a causa del design in memoria 4 7 – in pratica, l’utente deve pagare per server o cluster molto grandi con quantità massicce di RAM. Questo approccio aveva dei meriti 10-20 anni fa, quando la memoria era economica e le dimensioni dei dati più contenute, ma i prezzi della memoria si sono stabilizzati e la complessità dei dati è cresciuta, rendendo questa strategia meno orientata al futuro. Al contrario, Lokad è completamente basato sul cloud e non richiede di tenere tutti i dati in RAM. Sfrutta il calcolo on-demand (per esempio, elaborando i numeri in parallelo su molte macchine quando necessario, per poi rilasciarli). Ciò significa che può scalare a problemi molto grandi aggiungendo nodi di calcolo anziché essere limitato dalla capacità RAM di una singola macchina. Il design nativo cloud di Lokad fa anche un uso intensivo del disco e della rete quando opportuno, in linea con le tendenze moderne dei big data (dove soluzioni di storage e calcolo distribuito, come i paradigmi map-reduce, gestiscono la scalabilità).
-
Prestazioni su Larga Scala: I moduli più vecchi di Blue Yonder (come APO di SAP, o il patrimonio legacy di JDA) talvolta faticavano con istanze di problemi di grandi dimensioni, richiedendo l’aggregazione o la segmentazione dei dati per poter funzionare. Le versioni cloud più recenti (BY Luminate) probabilmente hanno migliorato questo aspetto grazie a una migliore gestione della memoria e forse a una scalabilità elastica, ma le prove sono scarse. SAP IBP utilizza HANA (DB colonnare in memoria); può gestire grandi volumi di dati ma a un costo infrastrutturale molto elevato e spesso richiede che i dati siano aggregati a certi livelli affinché i cicli di pianificazione si concludano in tempo. La pianificazione di Oracle utilizza un backend DB relazionale che può scaricare parte del carico su disco ma potrebbe essere più lenta per ogni calcolo (tuttavia, Oracle sfrutta l’ottimizzazione del suo database). ToolsGroup solitamente gestiva dataset di medie dimensioni (migliaia a decine di migliaia di SKU) su server singoli; le prestazioni potevano degradarsi con un numero estremamente elevato di SKU a meno che il calcolo non fosse limitato con attenzione (ad esempio, concentrandosi sugli articoli di interesse). Recentemente sono passati a offerte cloud che presumibilmente possono scalare, ma non è chiaro se gli algoritmi principali siano stati ristrutturati per il calcolo distribuito o semplicemente ospitati su grandi VM.
-
Approcci Difettosi: È importante sottolineare il difetto del “design in memoria”. Diversi fornitori hanno adottato l’approccio di modellare l’intera supply chain in un unico enorme modello residente in memoria (simile a un cubo OLAP o a un gigantesco foglio di calcolo in memoria). Questo garantisce grande velocità per casi piccoli e medi, ma non scala in modo lineare – non è facile distribuirlo, e l’aggiunta di ulteriori dati può causare un’esplosione combinatoria nei requisiti di memoria. Lo studio sul fornitore Lokad lo evidenzia esplicitamente per o9 e Relex: il loro design “fornisce report in tempo reale impressionanti” ma intrinsecamente aumenta i costi hardware e non si adatta bene ai problemi di ottimizzazione globale 7. Allo stesso modo, la documentazione di Kinaxis riconosce indirettamente le limitazioni: per esempio, la documentazione più vecchia di Kinaxis notava che i sistemi a 32-bit con circa 4GB di RAM erano un fattore limitante, e sebbene ora il 64-bit consenta di fare di più, non è infinito 22. Il problema fondamentale è che i dati crescono più velocemente delle capacità della RAM. Se un rivenditore vuole pianificare a livello di negozio-SKU-giorno per 2.000 negozi e 50.000 SKU, si tratta di 100 milioni di serie temporali – un cubo in memoria di tale dimensione (con periodi storici e futuri) potrebbe contenere decine di miliardi di celle, il che è impraticabile. Un approccio distribuito che elabora negozio per negozio o che partiziona in modo intelligente è più scalabile.
-
Concorrenza vs. Batch: Il punto di forza di Kinaxis è la concorrenza (tutto viene ricalcolato simultaneamente in memoria). Questo è ottimo per un uso interattivo, ma significa che è necessario avere l’intero modello pronto in memoria. I sistemi orientati al batch (come un ciclo notturno di Lokad, o anche l’approccio di ToolsGroup) possono scalare suddividendo il compito (ad es. prevedendo ogni SKU separatamente, operazione che è embarrassingly parallel). Ad esempio, Lokad’s Envision può scomporre i problemi in sotto-problemi che vengono eseguiti in parallelo sul cloud – si scambia l’interattività in tempo reale per scalabilità e potenza grezza. A seconda delle esigenze aziendali, una soluzione o l’altra è preferibile. Ma se l’obiettivo è ottenere il miglior piano possibile, un processo batch che elabora enormi spazi di scenario durante la notte potrebbe superare un calcolo in tempo reale semplificato.
Conclusione: Soluzioni come la piattaforma cloud di Lokad sono progettate per scalare orizzontalmente e gestire volumi di big data senza incontrare limiti, mentre le soluzioni incentrate sulla memoria (Kinaxis, o9, Relex, SAP) rischiano collo di bottiglia nella scalabilità e costi a spirale man mano che la complessità dei dati cresce. Le aziende che valutano queste soluzioni dovrebbero considerare attentamente le dimensioni dei loro dati di supply chain e la traiettoria di crescita. È significativo notare che alcune startup di pianificazione “AI” più recenti evitano consapevolmente i monoliti in-memory, utilizzando invece microservizi o framework per big data. Inoltre, una nota di cautela: il tuning delle prestazioni spesso ricade sul team di implementazione – se un fornitore richiede una pesante aggregazione o potatura dei dati per far rientrare il modello in memoria, questo è un segnale rosso per la scalabilità. La tecnologia veramente scalabile gestirà dati granulari senza costringerti a semplificarli.
Integrazione Tecnologica e Acquisizioni: Piattaforme Unificate vs. Franken-suite
La storia di un fornitore – se ha sviluppato la propria soluzione in modo organico o si è espanso tramite acquisizioni – influenza notevolmente la consistenza e l’integrazione della tecnologia. Quando una suite di pianificazione è composta da molti pezzi acquisiti, ciò porta spesso a moduli differenti che utilizzano database diversi, interfacce utente differenti o persino linguaggi di programmazione differenti, rendendo l’intero prodotto meno omogeneo. Abbiamo esaminato il background di ciascun fornitore:
-
Blue Yonder (JDA) è uno degli esempi più chiari di crescita tramite acquisizione. Nel corso degli anni, JDA ha acquisito Manugistics (per gli algoritmi di pianificazione della supply chain), i2 (anche se quell’accordo non è andato a buon fine nel 2008), Intactix (per la pianificazione degli spazi nel retail), RedPrairie (per la gestione dei magazzini), e la startup Blue Yonder (per le previsioni basate su AI/ML), tra gli altri. Ciò significa che l’attuale suite di soluzioni di Blue Yonder è un patchwork: per esempio, il demand planning potrebbe essere il vecchio motore di Manugistics, il fulfillment potrebbe essere qualcos’altro, l’ottimizzazione dei prezzi proviene da un’altra acquisizione, ecc. Lo studio di Lokad ha notato che “il software enterprise non è miscibile attraverso fusioni e acquisizioni… sotto l’egida di BY si nasconde una collezione casuale di prodotti” 14. Cercano di unificarli sotto la piattaforma “Luminate” con un’interfaccia utente comune e forse un livello dati comune in Azure, ma in fondo è difficile integrarli in un unico sistema fluido. I clienti spesso implementano solo alcune parti, e far sì che comunichino tra loro può richiedere un’integrazione personalizzata. Inconsistenze sorgono inevitabilmente (ad es. un modulo potrebbe supportare la logica probabilistica mentre un altro no; uno utilizza un risolutore di ottimizzazione, un altro utilizza uno diverso). La frammentazione dello stack tecnologico significa anche che pratiche contraddittorie possono coesistere nella stessa suite (per esempio, una parte di BY potrebbe vantare un ML avanzato, mentre un’altra parte utilizza ancora formule per le scorte di sicurezza di 20 anni fa).
-
SAP ha adottato in maniera simile una combinazione di sviluppo interno e acquisizioni. In particolare, SAP ha acquisito SAF (un fornitore di previsioni) nel 2009, SmartOps (un fornitore di ottimizzazione dell’inventario) nel 2013 17, e in precedenza aveva sviluppato internamente APO. Tutti questi sono stati integrati nell’offerta cloud di Integrated Business Planning (IBP) di SAP. Il risultato: SAP IBP presenta diversi moduli (Forecasting, Inventory, Supply) che, pur essendo sotto un unico ombrello, a volte sembrano prodotti separati. Le previsioni potrebbero utilizzare algoritmi di SAF, mentre l’ottimizzazione dell’inventario utilizza la logica di SmartOps. La peer review definisce la suite di SAP come “una collezione di prodotti” e avverte che la complessità è elevata, richiedendo spesso “i migliori integratori – più alcuni anni – per ottenere successo” 23. In altre parole, l’integrazione viene lasciata al team di implementazione e può essere un percorso lungo ottenere l’unificazione di tutti i pezzi in modo fluido.
-
Kinaxis, fino a poco tempo fa, era per lo più una costruzione organica – il loro prodotto principale RapidResponse è stato sviluppato internamente nel corso di decenni. Ciò gli ha conferito un aspetto molto unificato (un unico modello di dati, un’unica interfaccia utente). Tuttavia, negli ultimi 3-4 anni, Kinaxis ha effettuato alcune acquisizioni/partnership strategiche per colmare le lacune: ad es. una collaborazione con Wahupa per l’ottimizzazione probabilistica dell’inventario 18, l’acquisizione di Rubikloud per le previsioni AI, e l’acquisizione di Prana (un fornitore di analisi della supply chain) nel 2021. Kinaxis integra questi elementi tramite la sua piattaforma estendibile (si vantano di un’integrazione “senza codice” tramite la loro interfaccia utente per queste nuove capacità), ma realisticamente questi sono motori separati che vengono collegati. Ad esempio, il MEIO di Wahupa potrebbe funzionare come un servizio collegato a RapidResponse piuttosto che come codice nativo al suo interno. Nel tempo, probabilmente Kinaxis li fonderà in modo più stretto, ma c’è sempre il rischio che diventi un componente aggiuntivo debolmente accoppiato (per esempio, si alimentano dati sulla variabilità delle previsioni al motore di Wahupa e si ottengono livelli di scorte di sicurezza – un po’ come un’aggiunta separata). Rispetto ai fornitori con decine di acquisizioni, Kinaxis è ancora relativamente coeso, ma vale la pena verificare che non segua la strada di una franken-suite.
-
o9 Solutions è per lo più sviluppato internamente dai suoi fondatori (che erano ex membri di i2). Si tratta di una piattaforma unica con moduli sviluppati sulla stessa base. o9 ha effettuato pochissime acquisizioni (una acquisizione minore è stata una società di networking per la supply chain, e una recente è stata una startup AI/ML chiamata Processium, ma niente di rilevante per quanto riguarda gli algoritmi di pianificazione per quanto ne sappiamo). Pertanto, il loro stack tecnologico è più unificato rispetto ai concorrenti più vecchi – tutto risiede nell’o9 Enterprise Knowledge Graph e utilizza lo stesso framework UI. Questo è un vantaggio per la coerenza (nessuna duplicazione di schemi di database, ecc.). Lo svantaggio è che se una parte della loro tecnologia è debole, non hanno una soluzione facile tramite acquisizione – devono svilupparla. Finora, sono riusciti a gestirsi con lo sviluppo interno, sebbene con le limitazioni di cui abbiamo discusso (come tecniche di previsione possibilmente pedestrian sotto il cofano).
-
ToolsGroup è cresciuto in gran parte in modo organico attorno al suo prodotto SO99+. Non hanno effettuato grandi acquisizioni di altri fornitori di pianificazione a nostra conoscenza. Pertanto, i loro moduli per le previsioni della domanda e per l’ottimizzazione e il rifornimento dell’inventario sono stati progettati insieme. Ciò produce un’applicazione coerente, sebbene alquanto monolitica. La sfida per ToolsGroup è stata la modernizzazione – la loro architettura e l’interfaccia utente erano datate degli anni 2010, ma successivamente hanno compiuto sforzi per passare al cloud e aggiornare l’interfaccia. Tuttavia, essere coeso è una delle ragioni per cui ToolsGroup è relativamente semplice: fa una cosa (ottimizzazione del livello di servizio) end-to-end senza necessità di integrare altri strumenti.
-
Relex Solutions ha anche costruito la sua piattaforma da zero specificamente per il retail. Hanno acquisito un paio di aziende in settori affini (una soluzione di gestione della forza lavoro e, recentemente, una soluzione per la pianificazione degli spazi nei negozi), ma il loro motore principale per le previsioni e il rifornimento è sviluppato internamente. Tale nucleo è unificato (ed è per questo che possono fare cose come mostrare a un utente qualsiasi metrica in tempo reale, dato che tutti i dati sono nello stesso database in memoria). Le acquisizioni in nuove aree potrebbero introdurre alcune interfacce di integrazione, ma Relex è ancora molto lontano dalla valanga di acquisizioni dei fornitori più vecchi.
Il problema chiave delle suite frammentate non è solo il sovraccarico tecnico, ma anche il disallineamento funzionale: se un modulo è stato progettato per un approccio (per esempio, pianificazione deterministica con scorte di sicurezza) e un altro modulo presume input probabilistici, possono verificarsi conflitti. Ad esempio, un modulo per l’ottimizzazione dell’inventario di una acquisizione potrebbe calcolare scorte di sicurezza che un modulo di pianificazione della domanda di un’altra acquisizione non sa gestire nella sua interfaccia utente, portando a confusione o a duplicazioni degli inserimenti dei dati. Infatti, abbiamo visto casi in cui i fornitori promuovono previsioni probabilistiche nel marketing, mentre il loro modulo per la pianificazione delle vendite e delle operazioni continua a monitorare il MAPE e utilizza previsioni di consenso a numero singolo – una contraddizione interna che probabilmente deriva da differenti linee di prodotto.
Al contrario, un fornitore con una piattaforma coerente può implementare cambiamenti (come passare a metodi probabilistici) in modo più semplice su tutta la linea. È significativo che Lokad, che è completamente unificato (hanno costruito tutto attorno al loro linguaggio Envision e al backend cloud), possa focalizzare chiaramente il suo messaggio sull’ottimizzazione probabilistica senza incongruenze interne. Analogamente, Anaplan (una piattaforma di pianificazione generale) è molto unificata dal punto di vista tecnico (un unico motore Hyperblock), anche se manca di algoritmi specializzati per la supply chain; la coerenza di Anaplan è ottima, ma la sua specializzazione è limitata 24.
Quindi, da una prospettiva tecnologica, gli acquirenti dovrebbero fare attenzione alle suite nate da molte fusioni – chiedetevi se il componente per le previsioni e quello per la pianificazione condividono veramente lo stesso motore o modello di dati. In caso contrario, il risultato potrebbe essere un dolore d’integrazione e potenzialmente output contraddittori.
Credibilità Tecnica: Oltrepassare il clamore sull’AI/ML
In un’epoca in cui ogni fornitore afferma una “supply chain guidata dall’AI” e previsioni basate su “machine learning”, è essenziale esaminare in che modo sostengono tali affermazioni. Cerchiamo prove tecniche tangibili di tecniche avanzate – come ricerche peer-reviewed, algoritmi proprietari documentati, contributi open-source o prestazioni in benchmark neutrali. Verifichiamo anche l’uso improprio dei buzzword – chiamare qualcosa AI quando in realtà è solo una regola if-else, per esempio. Ecco come se la cavano i fornitori:
-
Lokad dimostra un’elevata credibilità tecnica. Non si limita ad affermare di usare l’AI; pubblica contenuti che spiegano i suoi algoritmi (ad es. una lezione che illustra come funzionava il loro modello di previsione vincitore dell’M5 25). Il CEO e il team dell’azienda partecipano a discussioni tecniche (attraverso blog, lezioni) su perché vengono scelti determinati approcci (come l’ensemble di previsioni di quantili o l’uso del pinball loss per l’addestramento). Ammettono anche apertamente i limiti di competizioni come l’M5 e come i veri problemi della supply chain differiscono 26 27 – questa sfumatura indica una mentalità ingegneristica seria piuttosto che un semplice abbellimento di marketing. Inoltre, l’innovazione fondamentale di Lokad, il linguaggio di programmazione Envision, è un artefatto tecnico unico – non si tratta semplicemente di un generico ML, ma di un linguaggio specifico per il dominio, creato per l’ottimizzazione della supply chain 28. Questo è un pezzo concreto di tecnologia che anche gli esterni possono valutare (alcune parti sono documentate pubblicamente). Lokad non si basa su citazioni di analisti pagati; invece, invita a una peer review dei suoi metodi. Questa trasparenza e attenzione alla scienza anziché agli slogan stabiliscono uno standard d’oro per la credibilità.
-
Blue Yonder, d’altra parte, tende ad usare un linguaggio vago riguardo all’AI, come ad esempio “incorporare AI/ML nella nostra piattaforma Luminate” senza specificare quali tecniche o modelli vengono usati. Lo studio su fornitori di Lokad evidenzia esplicitamente che le affermazioni sull’AI di Blue Yonder hanno “poca o nulla sostanza”, e i pochi artefatti disponibili suggeriscono un affidamento su metodi di previsione old-school (ARMA, regressione) 15. Ad esempio, BY potrebbe dire “usiamo l’AI per percepire i cambiamenti della domanda”, ma se in realtà utilizza una regressione lineare sulle vendite recenti (una tecnica di decenni fa), questo allunga troppo il termine AI. La presenza di progetti open-source come tsfresh (estrazione di caratteristiche da serie temporali) è in realtà un punto a favore della trasparenza di BY, ma quei progetti sono essi stessi strumenti generici ben noti, non scoperte proprietarie. La mancanza di risultati pubblicati o competizioni dai team di data science di BY implica ulteriormente che le loro affermazioni sono più guidate dal marketing. In sintesi, Blue Yonder non ha fornito prove tecniche convincenti a sostegno del suo pesante marchio AI – un campanello d’allarme per la credibilità.
-
o9 Solutions solleva similmente dei sospetti. Promuovono il concetto di un Enterprise Knowledge Graph (EKG) come elemento distintivo, implicando che sia una forma di AI che cattura le relazioni nei dati. Sebbene i database a grafo siano utili, non c’è nulla di intrinsecamente “geniale nelle previsioni” nell’archiviare i dati come un grafo – sono gli algoritmi sovrastanti a fare la differenza. Lo studio di Lokad nota che le affermazioni di o9 riguardo alle previsioni basate sul grafo sono non supportate dalla letteratura scientifica 29. Inoltre, il GitHub di o9 (se si indaga) non ha rivelato algoritmi rivoluzionari, e la loro discussione sull’AI spesso si riduce a capacità generiche (come “analisi avanzata” o “previsioni ML”) che molti altri possiedono. Usano termini alla moda (“digital brain”, “AI/ML”, “knowledge graph”) ma senza validazione esterna. Finché o9 non pubblica, ad esempio, un white paper su come i loro modelli ML superano quelli degli altri, o finché non viene documentato un caso cliente con dati rigorosi, è più sicuro assumere che l’AI di o9 sia per lo più clamore – forse modelli ML standard (reti neurali, gradient boosting, ecc.) confezionati con un buon marketing. Notiamo anche che, nella community della supply chain, concetti di AI veramente rivoluzionari (come il deep reinforcement learning per l’ottimizzazione della supply chain, o modelli probabilistici innovativi) sono generalmente discusso in forum accademici o aperti – non abbiamo visto o9 presentare in tali contesti, il che suggerisce una mancanza di tecnologia unica.
-
Kinaxis è stata relativamente misurata nel suo marketing – non abusano del termine “AI” in ogni frase, il che in un certo senso è positivo (meno esagerazioni). Tuttavia, man mano che integrano partner di AI, hanno iniziato a enfatizzarlo di più. Un segnale positivo: il post sul blog co-autore con il CEO di Wahupa 30 31 che discute i metodi probabilistici contro quelli statistici dimostra che Kinaxis è disposta ad approfondire la scienza (menzionando teoria della probabilità, processo decisionale sotto incertezza, ecc.). Ciò indica che stanno cercando di fondare le loro offerte su una metodologia solida. Ma Kinaxis deve ancora dimostrarsi in termini di risultati ottenuti con tali metodi. Ad esempio, non hanno pubblicato “le nostre nuove previsioni ML hanno migliorato l’accuratezza del X% rispetto al nostro vecchio approccio” con dettagli – probabilmente perché sono ancora in fase di integrazione. Quindi, la credibilità di Kinaxis è in transizione: storicamente non si sono presentati come leader tecnologici delle previsioni (quindi non hanno travisato), e ora che affermano di utilizzare analisi avanzate, dobbiamo attendere prove. La partnership con Wahupa almeno dimostra il riconoscimento che era necessaria un’esperienza esterna – il che è credibile (non hanno finto di aver padroneggiato il probabilistico; hanno coinvolto uno specialista).
-
Purtroppo, ToolsGroup ha minato la sua credibilità saltando sul carro delle buzzword sull’AI senza sostenerle adeguatamente. Il commento dello studio secondo cui le loro affermazioni sull’AI sono “dubious” e che i materiali pubblici fanno ancora riferimento a modelli pre-2000 è significativo 11. Ciò suggerisce che ToolsGroup potrebbe fare ben poco più che un rebranding delle funzionalità esistenti come “AI”. Ad esempio, ToolsGroup potrebbe pubblicizzare “AI per il demand sensing” – e, a seguito di un’indagine, potrebbe rivelarsi solo una regola che dà più peso alle vendite recenti (che non è AI, è solo una modifica algoritmica). Senza dettagli pubblicati, è difficile concedere loro il beneficio del dubbio. La loro credibilità era più forte all’inizio degli anni 2000, quando erano veramente all’avanguardia nei modelli probabilistici dell’inventario; ora ne risente di una possibile stagnazione.
-
SAS (che non abbiamo classificato al top ma che fa parte del panorama) è un caso in cui la credibilità tecnica è in generale elevata (SAS ha una lunga storia nella statistica), ma il rovescio della medaglia è che la loro tecnologia di base è più vecchia. I metodi di previsione di SAS sono ben documentati (hanno letteralmente scritto il manuale su molti metodi statistici), ma ciò significa anche che potrebbero non incorporare le tecniche di machine learning più recenti a meno che non si esegua un lavoro personalizzato in SAS. Lo studio di Lokad riconosce SAS come un pioniere, sebbene ormai superato da strumenti open-source come i Python notebooks 32. SAS di solito non esagera – si affidano alla loro reputazione – ma come soluzione per la supply chain, sono meno comunemente usati “off-the-shelf” (più spesso, un’azienda usa SAS per costruire una soluzione personalizzata).
-
Osservazione generale: Un modo rapido per testare la sincerità tecnica di un fornitore è verificare se talvolta riconoscono le limitazioni o i casi d’uso appropriati della loro tecnologia. I fornitori orientati al marketing sosterranno che la loro AI risolve tutto. Quelli con tecnologia reale diranno “ecco cosa fa e ecco dove potrebbe non funzionare altrettanto bene.” Ad esempio, Lokad discute frequentemente di come certi modelli non funzionino per determinati tipi di domanda (come perché alcuni approcci falliscono per la domanda intermittente, ecc.), dimostrando onestà intellettuale 27 33. Troviamo pochi fornitori oltre a Lokad disposti ad avere quella conversazione pubblica sfumata. La maggior parte degli altri si limita a generalità idilliache, il che dovrebbe far stare attento un cliente esperto.
In conclusione, prove tangibili della forza tecnica – come posizionamenti in competizioni, blog tecnici dettagliati o persino discussioni nella community degli utenti – sono scarse per molti fornitori di grande nome. Lokad è in testa nel fornire prove (vittoria nell’M5, spiegazioni aperte). Altri, come Blue Yonder e o9, forniscono clamore con accenni di tecnologia datata, il che mette in dubbio la loro dichiarata “rivoluzione AI” 16. Un potenziale acquirente dovrebbe richiedere che i fornitori spieghino in termini concreti come funzionano i loro algoritmi e perché sono migliori – e stare attenti se la risposta è solo un miscuglio di buzzword. Il vero valore dell’AI/ML nella supply chain dovrebbe essere dimostrabile (ad es. “utilizziamo gradient boosted trees per catturare fattori di domanda non lineari come il meteo e abbiamo dimostrato un miglioramento del 5% rispetto al baseline su 1000 SKU” – una dichiarazione di questo tipo è più convincente di “la nostra AI trova schemi nascosti nei tuoi dati”).
Coerenza & Contraddizioni negli Approcci dei Fornitori
Un segnale rivelatore di un’innovazione superficiale è quando il messaggio o la metodologia di un fornitore contiene incongruenze interne. Abbiamo cercato tali contraddizioni – per esempio, predicare l’incertezza ma misurare il successo con metriche deterministiche, oppure affermare di eliminare le vecchie pratiche pur continuando ad utilizzarle internamente. Alcune scoperte notevoli:
-
Metriche Probabilistiche vs Deterministiche: Come accennato, ToolsGroup è colpevole di ciò – pubblicizzando la capacità di previsione probabilistica, eppure mostrando risultati in termini di riduzione del MAPE (Mean Absolute Percentage Error) 13. Il MAPE è una metrica d’errore per previsioni puntuali; se davvero si fanno previsioni probabilistiche, si parlerebbe di calibrazione, probabilità log-likelihood, pinball loss (per quantili) o almeno del livello di servizio raggiunto. Aggrapparsi al MAPE, quindi, significa che ToolsGroup contraddice essenzialmente la sua storia probabilistica. Questa incongruenza suggerisce che o il loro output “probabilistico” è solo una previsione deterministica trasformata oppure è semplicemente un abbellimento marketing non profondamente supportato dal loro R&D.
-
Demand Sensing Hype: Molti fornitori usano il termine “demand sensing” per implicare che dispongono di una previsione a breve termine speciale in grado di catturare le ultime tendenze (come l’utilizzo di vendite molto recenti o segnali esterni). ToolsGroup, SAP, e GAINSystems hanno tutti usato questo termine. Lo studio evidenzia che queste affermazioni di “demand sensing” sono spesso “vaporware” non supportate dalla letteratura 34. Se un fornitore afferma “la nostra AI percepisce i cambiamenti della domanda con 3 mesi di anticipo,” ma non riesce a spiegare come (e nessuna ricerca peer-reviewed supporta che una cosa del genere sia affidabilmente possibile), è un campanello d’allarme. L’inconsistenza sorge quando lo stesso fornitore utilizza ancora un modello di serie temporale di base sottostante. In sostanza, prendono una previsione standard di smoothing esponenziale, poi aggiungono un aggiustamento dell’ultima settimana e la chiamano “sensing.” La contraddizione: rappresentare una modifica minima come una svolta.
-
Utilizzo di KPI Deterministici: Osserva se i case study o l’interfaccia di un fornitore ruotano ancora attorno a KPI deterministici come MAPE, bias, o tracking signal, anche se affermano di essere interamente basati su AI/ML. Ad esempio, se un fornitore esalta il machine learning ma la sua demo mostra pianificatori impegnati a migliorare il MAPE della previsione o a utilizzare la segmentazione ABC per impostare gli stock di sicurezza, ciò è incoerente. Una vera pianificazione probabilistica guidata da ML sposterebbe l’attenzione su elementi come il costo atteso, la probabilità di stockout o altre misure stocastiche – non il tradizionale MAPE o le classificazioni ABC (che presumono una categorizzazione della domanda prevedibile e statica). Abbiamo osservato questo tipo di personalità divisa in alcuni manuali utente di grandi fornitori: un capitolo parla del nuovo modulo AI, mentre un altro istruisce ancora l’utente su come regolare i parametri ARIMA o le regole per lo stock di sicurezza.
-
Filosofia dello Stock di Sicurezza: Una contraddizione filosofica significativa è rappresentata da fornitori che parlano di gestione dell’incertezza ma che comunque centrano il loro processo sul “stock di sicurezza.” Il concetto di stock di sicurezza ha radici in una previsione deterministica + una riserva. In un quadro completamente probabilistico, si calcolerebbe invece un livello di stock ottimale direttamente dalla distribuzione della domanda e dagli obiettivi di servizio (che effettivamente fonde “base” e “sicurezza” in un’unica decisione). Se un fornitore dice “ottimizziamo l’inventario con l’AI,” chiedi se richiede ancora all’utente di inserire il “livello di servizio desiderato” per calcolare lo stock di sicurezza usando le ipotesi della distribuzione normale. Se sì, non sono davvero progrediti – stanno semplicemente rivestendo il vecchio calcolo dello stock di sicurezza con un nuovo linguaggio. Ad esempio, l’ottimizzazione dell’inventario di Blue Yonder (storicamente) calcolava lo stock di sicurezza basandosi sulla varianza e sugli obiettivi di servizio – ciò non è fondamentalmente un’ottimizzazione probabilistica; è l’applicazione di una formula. Fornitori come Lokad respingono esplicitamente il termine “stock di sicurezza” come obsoleto, poiché in una vera ottimizzazione stocastica tratti tutto lo stock come al servizio della distribuzione di probabilità della domanda, e non una parte designata “sicurezza.” Quindi, se un fornitore commercializza una “pianificazione next-gen” ma la loro guida alla soluzione prevede la manutenzione dei parametri di stock di sicurezza, si tratta di un problema di coerenza.
-
Magia dell’AI vs. Controllo dell’Utente: Alcuni fornitori affermano simultaneamente “la nostra AI guiderà autonomamente il tuo supply chain” e “diamo agli utenti pieno controllo e visibilità nel processo di pianificazione.” C’è un equilibrio da trovare, ma affermazioni troppo ampie possono risultare in conflitto. Se l’AI è veramente autonoma, l’utente non dovrebbe doverla monitorare costantemente; se l’utente deve continuamente fare aggiustamenti, allora non è davvero autonoma. Il marketing spesso vuole promettere entrambi (“pilota automatico E override manuale!”) ma in realtà una soluzione tende a pendere da una parte o dall’altra. Pur non citando un fornitore specifico qui, abbiamo notato promesse generiche di piena automazione accompagnate da screenshot di decine di parametri di pianificazione che gli utenti devono configurare – un messaggio alquanto contraddittorio.
Nel nostro studio, un chiaro esempio di come affrontare le contraddizioni è il modo in cui Lokad si posiziona rispetto al mainstream. Lokad critica esplicitamente misure come il MAPE e concetti come lo stock di sicurezza nel suo materiale educativo, allineando la sua metodologia di conseguenza (utilizzando metriche probabilistiche e calcolando direttamente le decisioni) 13 33. Al contrario, fornitori come GAINSystems affermano di essere orientati all’ottimizzazione ma evidenziano ancora elementi come il demand sensing e algoritmi di matching che appartengono a epoche precedenti 34 – effettivamente cavalcando due cavalli. John Galt Solutions sostiene che un algoritmo di previsione proprietario supera tutti gli altri, eppure è assente nelle classifiche indipendenti e probabilmente non migliore dell’open source secondo il peer review 20, il che rappresenta una contraddizione tra affermazione ed evidenza.
In sintesi, quando si valuta un fornitore, è importante verificare la coerenza interna: stanno mettendo in pratica ciò che predicano? Se un fornitore parla a grandi linee di incertezza e ottimizzazione, il suo materiale non dovrebbe simultaneamente glorificare metriche deterministiche o metodi semplicistici. Le incoerenze spesso indicano che il “nuovo pensiero” è solo superficiale.
Pratiche Obsolete: Campanelli d’allarme della Pianificazione Superata
Il supply chain planning si è evoluto, e alcune pratiche un tempo standard sono ora considerate obsolete o subottimali date le capacità moderne. Identificare se un fornitore si affida ancora a tali pratiche può essere rivelatore. Ecco alcune pratiche obsolete (o almeno da “vecchia scuola”) e come si posizionano i fornitori:
-
Stock di Sicurezza come Stampella: Come discusso, trattare lo stock di sicurezza come un cuscinetto separato aggiunto a una previsione è un approccio datato. Non è che lo stock di sicurezza sia “cattivo” – serve sempre un margine per la variabilità – ma i metodi moderni incorporano direttamente la variabilità. Se il metodo principale di un fornitore è “prevedi usando lo smoothing, poi calcola lo stock di sicurezza = z-score * sigma * sqrt(lead-time)”, quella è una teoria degli anni ‘60 ancora in uso. Slimstock’s Slim4, ad esempio, utilizza con orgoglio tali formule mainstream (stock di sicurezza, EOQ) ed è trasparente al riguardo 35. Slimstock, anzi, merita credito per l’onestà: si concentra su “pratiche quotidiane ma critiche” anziché fingere di utilizzare l’AI 36. Ma da una prospettiva di leadership tecnologica, tali pratiche sono superate. Lokad e Wahupa (partner di Kinaxis) sosterebbero un passaggio al calcolo diretto di punti/quantità di riordino ottimali da modelli probabilistici, eliminando la separazione artificiale tra “cycle stock e stock di sicurezza.” Molti strumenti legacy (SAP, Oracle, vecchio JDA) si basano ancora ovunque sui parametri di stock di sicurezza. Questo è un campanello d’allarme che la matematica sottostante non è cambiata molto. Un sistema veramente basato sull’ottimizzazione permetterebbe di inserire il costo del magazzino rispetto al costo della carenza per poi risolvere la politica – senza mai definire esplicitamente nulla come “stock di sicurezza”, ma semplicemente fornendo un livello di stock ottimale per articolo.
-
MAPE e Metriche Deterministiche: Concentrarsi su MAPE, bias, ecc., come principale misura del successo può essere considerato obsoleto, poiché queste metriche non si correlano direttamente ai risultati aziendali (puoi avere un MAPE basso ma un livello di servizio scarso, per esempio) e ignorano l’incertezza. Gli approcci più recenti preferiscono metriche come il pinball loss (quantile loss) per le previsioni o metriche del costo atteso per i piani. Se il criterio di successo di un fornitore nei case study è “abbiamo migliorato l’accuratezza della previsione dal 70% all'80% MAPE,” allora sono un po’ ancorati al passato. L’enfasi di John Galt’s sulle affermazioni di accuratezza delle previsioni si colloca in questa direzione (ed è stata messa in discussione dai colleghi) 20. Un approccio moderno sarebbe “abbiamo ridotto gli stockout del X% o l’inventario del Y% per lo stesso livello di servizio” – basato sui risultati, non solo sul MAPE.
-
Segmentazione Euristica (ABC, XYZ): I processi di pianificazione più vecchi spesso segmentano gli articoli in base al volume (ABC) o alla variabilità (XYZ) e applicano parametri di pianificazione differenti a ciascun gruppo. Questa è una scorciatoia per far fronte a una potenza di calcolo limitata o a modelli semplicistici – trattare gli articoli A con un approccio (magari più manuale) e quelli C con un altro (magari con regole min-max). Sebbene la segmentazione possa ancora essere utile, diventa in parte obsoleta se hai la potenza di calcolo per ottimizzare ogni SKU individualmente e in modo continuo. Un sistema che enfatizza fortemente la classificazione manuale ABC o richiede di classificare la domanda come “irregolare vs smooth” ecc., potrebbe utilizzarla come stampella per la mancanza di algoritmi in grado di gestire automaticamente in modo robusto i diversi modelli di domanda. Molti sistemi legacy (ed anche alcuni più nuovi) lo fanno ancora. Idealmente, un sistema guidato dall’AI apprenderebbe automaticamente il modello per ogni SKU e non avrebbe bisogno dell’intervento umano per categorizzarlo.
-
Sovrascrittura Manuale delle Previsioni come Routine: La pianificazione della domanda tradizionale si aspetta che gli utenti sovrascrivano regolarmente le previsioni statistiche basandosi sul giudizio (intelligence di marketing, ecc.). Pur essendo prezioso il contributo umano, se l’accuratezza di un sistema è così bassa che i pianificatori devono rivedere molte previsioni ad ogni ciclo, quel sistema è essenzialmente un approccio legacy. I sistemi moderni mirano a minimizzare le sovrascritture incorporando più dati (in modo che il modello “sappia già” che il marketing sta lanciando una promozione, per esempio). Un fornitore che evidenzia quanto sia facile per gli utenti regolare manualmente le previsioni potrebbe indicare che il loro algoritmo non è affidabile out-of-the-box. La tendenza è verso sovrascritture basate sulle eccezioni soltanto.
-
Dipendenza da Fogli di Calcolo: Se scopri che la soluzione di un fornitore spesso induce gli utenti a esportare dati su Excel per l’analisi finale o utilizza Excel come interfaccia (alcuni strumenti di fascia media lo fanno), questo è un segnale di una soluzione immatura. Gli strumenti leader forniscono tutte le analisi necessarie e il supporto decisionale all’interno della piattaforma. (Anaplan è interessante qui: è fondamentalmente un foglio di calcolo cloud potenziato, quindi in un certo senso abbraccia il paradigma dei fogli di calcolo ma in un ambiente controllato e multiutente – è sia moderno che da vecchia scuola allo stesso tempo).
Secondo i dati raccolti: Slimstock utilizza intenzionalmente metodi più vecchi ma comprovati (stock di sicurezza, EOQ) 35 – è trasparente, il che è encomiabile, ma tali metodi sono discutibilmente obsoleti di fronte all’ottimizzazione probabilistica. GAINSystems (un fornitore meno noto ma di lunga data) sembra invece attenersi ai modelli previsionali classici e persino le funzionalità ML di cui si vantano (come “matching and clustering”) sono tecniche pre-2000 34, suggerendo che non ci sia molto di nuovo sotto il cofano. La recensione di Lokad su GAINSystems etichetta esplicitamente tali metodi come vaporware, indicando che li considera obsoleti o inefficaci in pratica 34.
Blue Yonder e SAP portano avanti molte soluzioni legacy – ad es., il predefinito di SAP in molte implementazioni è ancora quello di utilizzare ABC per impostare diversi livelli di stock di sicurezza o di utilizzare previsioni a media mobile semplice per valori bassi. Se il loro nuovo “IBP with machine learning” non rivoluziona quei fondamenti, allora si tratta fondamentalmente di vino vecchio in una bottiglia nuova.
La presenza di metriche contraddittorie (ad esempio, parlare di innovazione ma utilizzare il MAPE) è già stata trattata come incoerenza, ma è anche una prova dell’attaccamento a vecchie metriche.
In conclusione, se un’azienda cerca la soluzione più avanzata, dovrebbe essere cauta nei confronti di qualsiasi fornitore la cui soluzione ruota ancora attorno a parametri di stock di sicurezza, regole di segmentazione ABC e percentuali di accuratezza delle previsioni come KPI principali. Questi sono segni che la soluzione affonda le radici nelle pratiche del secolo scorso. Invece, cerca fornitori che enfatizzino livelli di servizio, costi e probabilità – il linguaggio della moderna scienza del supply chain.
Previsioni Orientate alle Decisioni: Dalle Previsioni alle Azioni
Infine, valutiamo se ogni fornitore si limita a produrre previsioni o se in realtà aiuta gli utenti a prendere decisioni ottimizzate basate su tali previsioni. L’obiettivo finale nel supply chain non è una bella previsione – si tratta di prendere le giuste azioni (ordinare, stoccare, programmare) per massimizzare il servizio e minimizzare i costi. Definiamo una soluzione “orientata alle decisioni” se essa fornisce direttamente raccomandazioni come quantità da ordinare, piani di produzione o obiettivi di inventario e se tali output sono ottimizzati tenendo conto della previsione e dei vincoli/costi rilevanti. Ecco come si confrontano i fornitori:
-
Lokad è estremamente orientato alle decisioni. Infatti, spesso sminuiscono l’importanza della previsione stessa, insistendo sul fatto che ciò che conta è la decisione (una filosofia implicita secondo cui “la previsione vale solo se porta a una buona decisione”). Utilizzando Lokad’s Envision, non ci si ferma a prevedere la domanda; il tipico flusso di lavoro di Lokad calcola, ad esempio, il profitto atteso o la penalità per varie decisioni candidate (come ordinare 100 unità contro 200 unità) in base alla previsione probabilistica, per poi scegliere la decisione che massimizza il risultato atteso. L’output per l’utente non è “la domanda sarà 120” ma piuttosto “ordina 130 unità” (ad esempio), insieme alla motivazione (es. questa quantità bilancia il rischio di stockout contro l’eccesso di scorte, dato la distribuzione della previsione e i tuoi parametri di costo). Questa è una vera analitica prescrittiva o orientata alle decisioni. Lokad, pertanto, assicura che la previsione si traduca direttamente in esecuzione. Tiene addirittura conto dei vincoli (come MOQ, shelf life, limiti di budget) nell’ottimizzazione. Quindi, Lokad soddisfa chiaramente i requisiti per trasformare le previsioni in azioni.
-
ToolsGroup ha anch’esso un orientamento decisionale, in particolare per decisioni di inventario e di rifornimento. Il suo strumento SO99+ non si limita a prevedere; raccomanda livelli di stock e punti di riordino che consentono di raggiungere gli obiettivi di livello di servizio. In pratica, un’implementazione di ToolsGroup fornirà per ogni SKU: “dovresti mantenere X unità di stock di sicurezza e riordinare quando l’inventario scende a Y, il che implica un ordine di Z unità ora.” Tale decisione (quantità di rifornimento) è derivata dalla previsione. Quindi, ToolsGroup è sempre stato incentrato su output prescrittivi, non solo predittivi. La limitazione riguarda il tipo di decisione: si tratta principalmente di politiche di inventario (dispongono di un’ottimizzazione per la pianificazione della produzione, ma il loro forte è la distribuzione). Inoltre, le raccomandazioni di ToolsGroup sono buone solo nella misura in cui viene modellata l’incertezza della previsione (cosa che abbiamo criticato). Ma merito dove è dovuto: ToolsGroup non si aspetta che l’utente prenda una previsione e poi decida manualmente un ordine; automatizza quel calcolo.
-
Blue Yonder e altre suite legacy spesso separano la previsione dai moduli di pianificazione. Per esempio, BY Demand fornisce una previsione, poi BY Supply (o Fulfillment) prende quella previsione e calcola i piani. In un’implementazione integrata, sì, il risultato finale è una raccomandazione decisionale (come un piano maestro di produzione o un piano di distribuzione). Blue Yonder offre moduli di ottimizzazione completa della pianificazione – ad es., il loro modulo Fulfillment raccomanderà come rifornire i DC da un magazzino centrale (è sostanzialmente un DRP engine che utilizza forecast e dati di giacenza per creare ordini pianificati). Il loro modulo Production planning può creare una sequenza o un programma di produzione ottimizzato. Quindi, BY come suite copre le decisioni, ma quanto quelle decisioni siano ottimali o integrate dipende dal fatto che tutti i componenti siano implementati e tarati. Storicamente, una critica era che l’output di un modulo non risultava sempre ottimale per il successivo (ad es., se il forecast non tiene conto dei vincoli che la pianificazione della supply planning incontrerà, si ottengono piani non fattibili). Un vero approccio orientato alla decisione considererebbe quei vincoli al momento della previsione o tramite un’ottimizzazione unificata. Il nuovo messaggio di Blue Yonder di “autonomous supply chain” implica che vogliono chiudere il ciclo (dal forecast alla decisione automaticamente), ma, data la varietà tecnologica, non è chiaro quanto ciò sia fluido.
-
Kinaxis è fortemente orientato alle decisioni/output nel senso che il suo scopo primario è generare piani attuabili (piani di supply, proiezioni di inventario, ecc.) in tempi brevi. L’utente in genere lavora su questi piani e può confermare o modificare le decisioni (come accelerare un ordine o riallocare il supply). Con la nuova aggiunta MEIO di Kinaxis, ora ottimizza esplicitamente un insieme di decisioni: i buffer di inventario (cioè, Kinaxis può ora raccomandare livelli di safety stock bilanciando liquidità e servizio 37). In precedenza, Kinaxis ti permetteva di simulare diversi livelli di safety stock e vedere gli esiti, ma non sempre indicava il migliore; con il MEIO probabilistico cerca di individuare matematicamente quello ottimale. Per altre aree (come la pianificazione della produzione e della distribuzione), Kinaxis utilizza euristiche o ottimizzazione “sotto il cofano” (dispone di alcuni solutori di ottimizzazione per scheduling e allocazione) – ma gran parte della forza di Kinaxis risiede nella simulazione piuttosto che in una ottimizzazione rigorosa. Cioè, può simulare il risultato di una decisione utente in maniera estremamente veloce, ma spesso lascia all’umano la scelta di quale scenario adottare. In sintesi, Kinaxis produce un set completo di azioni raccomandate (come ordini pianificati, riprogrammazioni) quasi in tempo reale – decisamente supporto decisionale – ma non sempre sceglie automaticamente il piano “ottimale” senza l’input umano, eccetto in funzionalità specifiche come MEIO o quando il piano è ovvio (ad es. propaga in maniera deterministica la domanda ai requisiti di supply).
-
o9 Solutions è altresì orientata a produrre piani (che sono insiemi di decisioni) per domanda, supply, inventario, ecc. o9 ha motori di ottimizzazione per specifici problemi – ad es., la pianificazione della supply con programmazione lineare per minimizzare i costi o massimizzare il profitto date le restrizioni. Fa parte del loro concetto di “digital brain” secondo cui il sistema determinerà un’allocazione ottimale delle risorse. Tuttavia, non tutti i clienti di o9 lo utilizzano in maniera ottimizzata; alcuni potrebbero limitarsi a usare la sua piattaforma per una pianificazione collaborativa (che potrebbe consistere sostanzialmente in decisioni manuali ma con una migliore visibilità dei dati). La domanda è: o9 supporta nativamente l’ottimizzazione decisionale probabilistica? Probabilmente non in modo marcato; potrebbe effettuare analisi di scenario (“se produciamo il 10% in più, quale sarà l’esito?”) ma non necessariamente calcolare un valore atteso tra gli scenari. Quindi, orientato alla decisione sì (fornisce piani supply chain raccomandati), ma ottimale in condizioni di incertezza non chiaramente.
-
Relex Solutions, essendo focalizzata sul retail, produce principalmente ordini per store o DC e obiettivi di inventario. Relex fa benissimo nel produrre direttamente tali decisioni (funziona sostanzialmente come un sistema di rifornimento automatizzato, basato su forecast e parametri). Può inoltre ottimizzare aspetti come allocazione dello spazio sugli scaffali vs inventario (con il suo nuovo approccio di pianificazione unificata e pianificazione dello spazio), che rappresenta un compromesso decisionale unico nel retail (ad es. se lo spazio è limitato, come bilanciare inventario e assortimento). Le decisioni di Relex sono per lo più guidate da regole impostate dall’utente (come obiettivi di livello di servizio o giorni di supply), ma il sistema si occupa di elaborare i numeri per produrre gli ordini effettivi che rispettano tali regole. È indubbiamente orientato alla decisione (non si limita a dire “la previsione di questa settimana è 100 unità” – indica al retailer di ordinare 50 unità in più subito perché lo stock attuale è 50, il forecast è 100 e il lead time è tale e quale, ecc.). Se mai, Relex potrebbe tendere ad essere troppo tattico (riordinerà bene, ma potrebbe non considerare le implicazioni di lungo termine sulla rete – ogni nodo è ottimizzato localmente per il proprio servizio).
Per riassumere, la previsione orientata alla decisione è ciò che differenzia un semplice strumento analitico da una vera soluzione di ottimizzazione supply chain. Tutti i fornitori delle fasce alte mirano, almeno, a fornire output decisionali, non solo forecast: ecco perché li abbiamo considerati nell’ambito (il brief dello studio addirittura specificava di escludere strumenti puramente transazionali o di sola previsione che non ottimizzano le decisioni). Il grado di ottimalità e integrazione dell’incertezza in tali decisioni, tuttavia, varia:
- Lokad e ToolsGroup collegano esplicitamente le previsioni alle decisioni utilizzando obiettivi di costo/servizio (Lokad tramite i suoi script personalizzati che ottimizzano il costo atteso, ToolsGroup tramite obiettivi di livello di servizio che portano a decisioni sullo stock).
- Kinaxis e o9 generano piani completi e permettono di esplorare le decisioni, con Kinaxis che recentemente ha aggiunto un’ottimizzazione più formale (ottimizzazione dell’inventario, ecc.).
- Blue Yonder dispone di moduli di ottimizzazione separati che possono produrre decisioni (se utilizzati integralmente, si ottiene un piano per tutto – ma allinearli richiede lavoro).
- Relex automatizza molto bene un insieme specifico di decisioni (rifornimento), meno altri (come la pianificazione della capacità a lungo termine).
Nell’evaluare le soluzioni, le aziende dovrebbero insistere su questo punto: “Dopo che il vostro sistema ha effettuato il forecast, quali decisioni raccomanderà e come garantisce che siano le migliori?” Se un fornitore non riesce a rispondere in modo chiaro, o se sembra che l’utente debba interpretare manualmente i forecast, quel fornitore probabilmente non è veramente orientato all’ottimizzazione. Questa domanda fa emergere, ad esempio, se una sofisticata previsione ML si tradurrà effettivamente in una riduzione dell’inventario o se sarà solo un bel numero in un grafico.
Conclusione
In questo studio comparativo, abbiamo classificato e analizzato i principali fornitori di software per la pianificazione e il forecast supply chain attraverso una lente tecnica, dando priorità alle capacità reali rispetto alle promesse di marketing. La valutazione ha evidenziato che la leadership tecnologica in questo campo richiede: forecast avanzati (preferibilmente probabilistici) supportati da evidenze, un’architettura scalabile e moderna, un alto grado di automazione, uno stack tecnologico unificato e ben ingegnerizzato e, soprattutto, un focus sul processo decisionale prescrittivo anziché sulla semplice analisi predittiva.
Lokad è emerso come uno dei leader principali grazie al suo lavoro pionieristico nelle previsioni probabilistiche e al suo focus radicale sull’ottimizzazione decisionale – attributi validati da benchmark esterni (come la vittoria alla competizione M5) e da una comunicazione tecnica trasparente 3 2. Esso esemplifica come lo scetticismo verso approcci mainstream (ad es. mettere in discussione il valore di metriche come MAPE o concetti come il safety stock) possa portare a una soluzione più robusta e allineata a principi economici solidi 13 33.
Altri fornitori come Kinaxis e o9 Solutions stanno investendo pesantemente in AI/ML e hanno costruito piattaforme sorprendentemente ampie, ma devono ancora convincere il mercato che il loro “AI” sia più che superficiale e che le loro architetture possano scalare senza costi esorbitanti 4. Operator storici come Blue Yonder (JDA) e SAP vantano una grande esperienza nel dominio supply chain e una funzionalità estesa, eppure il loro bagaglio storico (sistemi frammentati dovuti a numerose acquisizioni e algoritmi datati) traspare, portando a contraddizioni e a un progresso più lento nell’innovazione tecnologica 14 17. Specialisti di nicchia come ToolsGroup e Relex offrono soluzioni potenti nei loro settori (ottimizzazione dell’inventario e rifornimento retail, rispettivamente), ma ognuno presenta delle limitazioni – ToolsGroup deve supportare le sue affermazioni sull’AI con tecnologie più moderne 11, e l’approccio in-memory di Relex potrebbe vacillare al di fuori del suo ambito ideale 7.
Un chiaro schema emerso dall’analisi è che i fornitori che forniscono apertamente dettagli tecnici e risultati ispirano maggiore fiducia rispetto a quelli che si affidano a parole d’ordine. In un contesto saturo di hype, è cruciale per chi prende decisioni richiedere prove concrete e coerenza. Ad esempio, se un fornitore afferma di utilizzare il machine learning, chiedi di vedere l’accuratezza o l’impatto sui costi prima e dopo. Se si vanta l’uso di previsioni probabilistiche, richiedi la prova di come vengano misurate e utilizzate nella pianificazione (e diffida se la risposta è offuscata da metriche deterministiche).
Inoltre, con l’aumentare della complessità della supply chain, scalabilità e automazione non sono solo un plus – sono essenziali. Le soluzioni rimaste ancorate a pratiche manuali tipiche dell’era Excel o quelle che non riescono a gestire i big data senza hardware eroico non serviranno bene le imprese a lungo termine. Lo scetticismo dello studio nei confronti delle architetture in-memory one-size-fits-all è confermato dai dati – approcci più distribuiti e cloud-native stanno dimostrando vantaggi sia in termini di costo che di capacità.
Infine, il benchmark definitivo per qualsiasi software di ottimizzazione della supply chain sono i risultati che esso genera: costi d’inventario inferiori, livelli di servizio più elevati, risposta più rapida e flussi di lavoro dei pianificatori più efficienti. Raggiungere questi obiettivi richiede più di una matematica ingegnosa – richiede integrare tale matematica in un processo decisionale coeso e automatizzato che si allinei con la realtà aziendale. I migliori fornitori sono quelli che chiudono il ciclo tra forecast -> optimization -> decision -> outcome in maniera trasparente e scientificamente valida. Chi si aggrappa a cicli interrotti (forecast in isolamento o regole decisionali scollegate dall’incertezza) resta indietro.
In conclusione, le aziende che valutano soluzioni per la pianificazione supply chain dovrebbero esaminare ogni concorrente con uno sguardo duro e tecnico. Tagliate corto rispetto alle brochure patinate e ponete le domande difficili che abbiamo sollevato: Il fornitore fornisce forecast probabilistici o solo numeri singoli? Il loro sistema può operare autonomamente ed è stato provato su larga scala? La tecnologia è unificata o un miscuglio di vecchie componenti? Spiegano il loro “AI” in termini comprensibili e concreti? Insistendo su questo livello di rigore, si possono identificare i veri leader tecnologici nell’ottimizzazione della supply chain – quelli capaci di fornire decisioni superiori, non solo dashboard accattivanti. Le classifiche e l’analisi qui presentate fungono da punto di partenza, identificando Lokad, Kinaxis, o9, Relex, ToolsGroup e Blue Yonder (tra gli altri) come attori chiave, ciascuno con i propri punti di forza e riserve. L’onere spetta ai fornitori di dimostrare le proprie affermazioni e agli utenti di rimanere saldamente scettici e guidati dalle evidenze quando scelgono il cervello che guiderà la loro supply chain.
Note a piè di pagina
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎
-
Kinaxis e Wahupa si alleano per aiutare le aziende a navigare nella complessità dell’inventario … ↩︎ ↩︎
-
Pianificazione in condizioni di incertezza: approcci statistici vs probabilistici e cosa offrono al tuo business | Kinaxis Blog ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Storia del calcolo in memoria e della pianificazione della supply chain - Kinaxis ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Numero 1 a livello SKU nella competizione M5 di previsioni - Lezione 5.0 ↩︎
-
Numero 1 a livello SKU nella competizione M5 di previsioni - Lezione 5.0 ↩︎
-
Numero 1 a livello SKU nella competizione M5 di previsioni - Lezione 5.0 ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Pianificazione in presenza di incertezza: approcci statistici vs. probabilistici e cosa ciascuno offre alla tua azienda | Kinaxis Blog ↩︎
-
Pianificazione in presenza di incertezza: approcci statistici vs. probabilistici e cosa ciascuno offre alla tua azienda | Kinaxis Blog ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Sulla conoscenza, il tempo e il lavoro per le supply chain - Lezione 1.7 ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎ ↩︎
-
Studio di mercato, Fornitori di ottimizzazione della supply chain ↩︎
-
Kinaxis & Wahupa si associano per aiutare le aziende a navigare l’inventario … ↩︎