Technologie

Zurück zum Blog

Jan. 8, 2024

Selektive Pfad-Automatische Differenzierung: Jenseits gleichmäßiger Verteilung beim Backpropagation-Dropout

Die Methode der Selektiven Pfad-Automatischen Differenzierung (SPAD) verbessert den stochastischen Gradientenabstieg (SGD), indem sie eine Teildatenpunktperspektive einsetzt. Diese Technik, die auf Compiler-Ebene implementiert wurde, tauscht Gradientenqualität gegen Gradientenquantität und ergänzt herkömmliche SGD-Methoden um einen differenzierteren Blick.

Dez. 19, 2023

Eine meinungsstarke Bewertung von Deep Inventory Management

Ein Team bei Amazon hat Ende 2022 Deep Inventory Management (DIM) veröffentlicht. Dieses Paper präsentiert eine DIM-Inventuroptimierungstechnik, die sowohl Reinforcement Learning als auch Deep Learning beinhaltet. Da Lokad in der Vergangenheit einen ähnlichen Weg gegangen ist, liefert sein CEO und Gründer Joannes Vermorel seine kritische Einschätzung der vorgeschlagenen Technik.

Nov. 20, 2023

Differenzierbares Programmieren zur Optimierung großskaliger relationaler Daten

Paul Peseux' Promotion zur Differenzierung relationaler Abfragen – ein weiteres untererforschtes Gebiet der supply chain – führte den TOTAL JOIN-Operator, Polystar und eine Mini-Sprache ADSL ein, um relationale Abfragen zu differenzieren, die alle von Lokad in sein DSL Envision im Rahmen von autodiff zur Optimierung der täglichen Bestandsentscheidungen integriert wurden.

Aug. 21, 2023

Lieferantenanalyse durch Envision - Workshop #1

Lokad startet seinen ersten Envision Workshop, in dem Studenten (und supply chain specialists) lernen, wie man Einzelhandelslieferanten mithilfe von Lokads probabilistischer, risikomanagementorientierter Perspektive analysiert.

Juni 26, 2023

Bestandsmanagement unter der Einschränkung von Multi-Referenz-Mindestbestellmengen

Gaetan Delétoilles Doktorarbeit über MOQs - ein überraschend untererforschter Bereich des supply chain - führte zur Einführung der w-Policy, die von Lokad in seine Lösung zur täglichen Bestandsentscheidungsfindung integriert wurde.

Juni 19, 2023

Klassifikationsalgorithmen, die in der Cloud verteilt werden

Matthieu Durut, zweiter Mitarbeiter bei Lokad, verteidigte 2012 seine Promotion für seine bei Lokad geleistete Forschungsarbeit. Diese Promotion ebnete den Weg für den Übergang von Lokad hin zu cloud-nativen verteilten Computing-Architekturen, die heutzutage entscheidend sind, um mit großskaligen supply chains umzugehen.

Juni 12, 2023

Großskalenlernen: ein Beitrag zu verteilten asynchronen Clustering-Algorithmen

Benoit Patra, erster Mitarbeiter bei Lokad, verteidigte 2012 seine Doktorarbeit für die bei Lokad durchgeführte Forschung. Diese Doktorarbeit brachte radikal neuartige Elemente in die supply chain Theorie und ebnete den Weg für die zukünftige Entwicklung von Lokad's probabilistischem Prognoseansatz.

Feb. 6, 2023

Stochastischer Gradientenabstieg mit Gradienten-Schätzer für kategoriale Merkmale

Das breite Feld des maschinellen Lernens (ML) bietet eine Vielzahl von Techniken und Methoden, die zahlreiche Situationen abdecken. supply chain hingegen bringt seine eigenen spezifischen Herausforderungen im Umgang mit Daten mit sich, und manchmal profitieren Aspekte, die von supply chain-Praktikern als „grundlegend“ angesehen werden könnten, nicht von zufriedenstellenden ML-Instrumenten – zumindest nach unseren Maßstäben.

Sept. 21, 2022

Differenzierung relationaler Abfragen

supply chain-Daten präsentieren sich fast ausschließlich als relationale Daten, beispielsweise Bestellungen, Kunden, Lieferanten, Produkte, etc. Diese Daten werden durch die Business-Systeme – das ERP, das CRM, das WMS – gesammelt, die im Unternehmen zur Steuerung eingesetzt werden.

Sept. 6, 2022

Reproduzierbarer paralleler stochastischer Gradientenabstieg

Der stochastische Gradientenabstieg (SGD) ist eine der erfolgreichsten Techniken, die jemals sowohl für [machine learning](/de/technologie/) als auch für mathematische Optimierung entwickelt wurden. Lokad setzt den SGD seit Jahren intensiv für supply chain Zwecke ein, hauptsächlich durch [differentiable programming](/de/differenzierbares-programmieren/). Die meisten unserer Kunden haben irgendwo in ihrer [data pipeline](/de/daten-extraktions-pipeline/) mindestens einen SGD.

Dez. 6, 2021

Envision VM (Teil 4), Verteilte Ausführung

Die vorherigen Artikel untersuchten größtenteils, wie einzelne Worker Envision-Skripte ausführten. Allerdings wird Envision sowohl aus Gründen der Resilienz als auch der Performance tatsächlich über einen Cluster von Maschinen ausgeführt.

Nov. 29, 2021

Envision VM (Teil 3), Atome und Datenspeicherung

Während der Ausführung lesen Thunks Eingabedaten und schreiben Ausgabedaten, oft in großen Mengen. Wie kann man diese Daten vom Moment ihrer Erstellung bis zu ihrer Verwendung erhalten (ein Teil der Antwort liegt in NVMe-Laufwerken, die über mehrere Maschinen verteilt sind), und wie kann man die Menge der Daten minimieren, die durch Kanäle gehen, die langsamer als RAM sind (Netzwerk und dauerhafter Speicher).