Da quando è nata Lokad, il nostro obiettivo è stato migliorare incessantemente la nostra tecnologia di previsione per offrire forme superiori di ottimizzazione supply chain. Quasi un decennio fa, già evidenziavo come essere una società di machine learning fosse bizzarro: i progressi sono costanti ma anche non lineari ed erratici. Inoltre, molti approcci ritenuti buon senso in altri ambiti risultano del tutto fuorvianti per quanto riguarda il machine learning. Tuttavia, ciò non implica che questo progresso sia lasciato al caso: c’è un metodo in tutto ciò.

Il miglioramento della nostra tecnologia di previsione inizia dal perfezionamento dei dati. Senza una corretta preparazione dei dati, il processo si riduce a un esercizio di garbage-in garbage-out. Assicurarsi che promotions, stock-outs e lead times siano rappresentati correttamente in un determinato dataset richiede tempo ed esperienza. In pratica, poiché le complicazioni dei dati tendono a essere specifiche di ciascun dominio, è necessario un intero team di supply chain scientists in Lokad per consolidare una varietà di dataset che rappresentano settori verticali tanto diversi quanto aerospaziale, moda, commercio al dettaglio alimentare, ecc.

Poi, quando inventiamo1 un nuovo metodo statistico, di solito risulta che questo metodo mostri prestazioni superiori su un dataset specifico e prestazioni inferiori su un altro. Sfortunatamente, quando ciò accade, il nuovo metodo statistico tende a essere fragile: potrebbe essere in parte frutto di una certa fortuna o vittima di un overfitting problem. Pertanto, sebbene possa essere allettante creare un caso speciale per un determinato cliente di Lokad, perché un metodo statistico sembri adattarsi meglio a quel cliente, noi non operiamo in questo modo. Il nostro decennio di esperienza ci ha insegnato che tali risultati si rivelano invariabilmente fragili e che il presunto metodo superiore potrebbe non rimanere tale a lungo. Se l’azienda cliente subisce cambiamenti sostanziali – che potrebbero benissimo essere causati dalle stesse azioni di Lokad – la performance del nuovo metodo potrebbe crollare.

Pertanto, ci concentriamo invece sulla scoperta di metodi statistici che offrano risultati superiori in una vasta gamma di situazioni, attraversando numerosi settori verticali in qualche modo non correlati, idealmente garantendo un miglioramento uniforme ovunque anziché una combinazione di miglioramenti e regressioni, anche se questa combinazione è fortemente sbilanciata verso i miglioramenti. Questa metodologia è più impegnativa che limitarsi a fare feature engineering a morte su un determinato dataset, riciclando all’infinito lo stesso algoritmo di machine learning, come farebbero la maggior parte delle agenzie di data crunching al giorno d’oggi.

Questo approccio ci costringe a rivedere le fondamenta stesse della statistical forecasting. Ad esempio, la transizione verso cross entropy come metrica superiore per misurare forecasting accuracy è stata fondamentale per sfruttare al meglio il deep learning. Più recentemente, abbiamo effettuato l’upgrade verso le mixture density networks, un approccio potente ma poco utilizzato2 per catturare comportamenti complessi nelle supply chain. Queste mixture density networks forniscono una soluzione praticabile per stimare in modo affidabile la probabilità di eventi rari, un aspetto cruciale in settori come l’aerospaziale.

La nostra tecnologia di previsione rimane un lavoro in corso. Ci sono molte sfide che sono ancora affrontate in modo imperfetto. Ad esempio, le cannibalizzazioni e la risposta del mercato alle variazioni dei prezzi rimangono sfide estremamente complesse. Tuttavia, non ci arrendiamo e, anche dopo 10 anni di R&S, continuiamo a fare progressi.


  1. Ci poniamo sulle spalle dei giganti. Gli sforzi di R&S di Lokad sono tipicamente variazioni di intuizioni ottenute dalla vasta comunità di machine learning, che di solito non lavora su problemi di supply chain, ma piuttosto su problematiche mainstream come il riconoscimento di pattern, il riconoscimento vocale o l’elaborazione del linguaggio naturale. ↩︎

  2. L’articolo originale Mixture Density Networks (MDN) di Christopher M. Bishop risale al 1994. Tuttavia, ci sono voluti quasi due decenni affinché l’hardware si allineasse alle possibilità offerte da questo lavoro pionieristico. A differenza dell’articolo originale, che fu applicato alla cinematica inversa dei robot, noi utilizziamo le MDN per fornire previsioni della domanda probabilistiche. ↩︎