Technologie
Retour au blog ›
Selective Path Automatic Differentiation: Au-delà de la distribution uniforme sur le dropout de rétropropagation
L'approche de la différentiation automatique de chemin sélectif (SPAD) améliore la descente de gradient stochastique (SGD) en adoptant une perspective sous-ensemble de points de données. Cette technique, mise en œuvre au niveau du compilateur, échange la qualité du gradient contre la quantité du gradient, complétant les méthodes SGD traditionnelles par une vue plus nuancée.
Une critique subjective de la gestion des stocks profonde
Une équipe chez Amazon a publié Deep Inventory Management (DIM) fin 2022. Cet article présente une technique d'optimisation des stocks DIM qui combine l'apprentissage par renforcement et l'apprentissage profond. Comme Lokad a déjà emprunté un chemin similaire par le passé, son PDG et fondateur, Joannes Vermorel, donne son évaluation critique de la technique proposée.
Programmation différentiable pour optimiser les données relationnelles à grande échelle
La recherche doctorale de Paul Peseux sur la différenciation des requêtes relationnelles - un autre domaine peu étudié de la supply chain - a introduit l'opérateur TOTAL JOIN, Polystar et un mini-langage ADSL pour différencier les requêtes relationnelles, que Lokad a intégrés dans son DSL Envision dans le cadre de l'autodiff pour optimiser la prise de décision quotidienne en matière de stocks.
Analyse des fournisseurs avec Envision - Atelier #1
Lokad lance son premier atelier Envision, enseignant aux étudiants (et aux spécialistes de la supply chain) comment analyser les fournisseurs de détail en utilisant la perspective probabiliste et de gestion des risques de Lokad.
Gestion des stocks sous contrainte de quantités minimales de commande multi-références
La recherche doctorale de Gaetan Delétoille sur les quantités minimales de commande (MOQ) - un domaine étonnamment peu étudié dans la supply chain - a introduit la politique w, que Lokad a intégrée dans sa solution de prise de décision quotidienne en matière de stocks.
Algorithmes de classification distribués sur le cloud
Matthieu Durut, deuxième employé chez Lokad, a soutenu sa thèse en 2012 pour ses travaux de recherche réalisés chez Lokad. Cette thèse a ouvert la voie à la transition de Lokad vers des architectures de calcul distribué natives du cloud, aujourd'hui essentielles pour traiter des chaînes d'approvisionnement à grande échelle.
L’apprentissage à grande échelle : une contribution aux algorithmes de clustering asynchrones distribués
Benoit Patra, premier employé chez Lokad, a soutenu sa thèse en 2012 pour ses recherches effectuées chez Lokad. Cette thèse a apporté des éléments radicalement nouveaux à la théorie de la supply chain et a posé les bases du développement futur de l'approche de prévision probabiliste de Lokad.
Descente de gradient stochastique avec estimateur de gradient pour les caractéristiques catégorielles
Le vaste domaine de l'apprentissage automatique (ML) offre une large gamme de techniques et de méthodes qui couvrent de nombreuses situations. Cependant, la supply chain présente ses propres défis spécifiques en matière de données, et parfois des aspects qui pourraient être considérés comme basiques par les praticiens de la supply chain ne bénéficient pas toujours d'instruments d'apprentissage automatique satisfaisants - du moins selon nos critères.
Différencier les requêtes relationnelles
Les données de la chaîne d'approvisionnement se présentent presque exclusivement sous forme de données relationnelles telles que les commandes, les clients, les fournisseurs, les produits, etc. Ces données sont collectées via les systèmes d'entreprise - l'ERP, le CRM, le WMS - qui sont utilisés pour exploiter l'entreprise.
Reproductible Parallel Stochastic Gradient Descent
La descente de gradient stochastique (SGD) est l'une des techniques les plus réussies jamais conçues pour l'apprentissage automatique et l'optimisation mathématique. Lokad exploite intensivement le SGD depuis des années à des fins de supply chain, principalement grâce à la programmation différentiable. La plupart de nos clients ont au moins un SGD quelque part dans leur pipeline de données.
Envision VM (partie 4), Exécution Distribuée
Les articles précédents ont principalement examiné comment les travailleurs individuels exécutent les scripts Envision. Cependant, pour la résilience et les performances, Envision est en réalité exécuté sur un cluster de machines.
Envision VM (partie 3), Atomes et Stockage des Données
Pendant l'exécution, les thunks lisent les données d'entrée et écrivent les données de sortie, souvent en grande quantité. Comment préserver ces données depuis leur création jusqu'à leur utilisation (une partie de la réponse se trouve sur des disques NVMe répartis sur plusieurs machines), et comment minimiser la quantité de données qui passe par des canaux plus lents que la RAM (réseau et stockage persistant).