00:00:00 Einführung des Interviews
00:00:47 Hintergrund und Arbeit von Nikos Kourentzes
00:03:25 Verständnis der Prognoseübereinstimmung
00:04:44 Grenzen der Genauigkeit bei Prognosen
00:06:14 Übereinstimmung bei Zeitreihenprognosen
00:08:02 Berücksichtigung der Modellierung des Supply Chain-Bestands
00:09:03 Übereinstimmung und Konsistenz der Prognose
00:10:29 Mathematische Metriken in der Produktion
00:12:08 Überlegungen zum Bestand eines Luxusuhrenherstellers
00:14:47 Auslösung der Produktion durch Aufwärtsschwankungen
00:16:03 Optimierung des Modells für die Nachfrage eines SKU
00:17:41 Forschung zu Schätzern für Schrumpfung und zeitlichen Hierarchien
00:19:05 Beste Modelle für alle Horizonte
00:21:32 Kontroverse um Prognoseübereinstimmung
00:24:05 Kalibrierung von Bestandspolitiken
00:26:27 Ausgewogenheit von Genauigkeit und Übereinstimmung
00:31:14 Tricks zur Glättung von Prognosen durch zeitliche Aggregation
00:32:54 Bedeutung von Gradienten in der Optimierung
00:35:28 Korrelationen in der Supply Chain
00:38:10 Über die Zeitreihenprognose hinaus
00:40:27 Ehrlichkeit der probabilistischen Prognose
00:42:32 Ähnlichkeiten zwischen Übereinstimmung und Bullwhip-Verhältnis
00:45:18 Bedeutung der Analyse sequenzieller Entscheidungen
00:47:27 Vorteile der Trennung von Stufen
00:49:34 Menschliche Interaktion mit Modellen
00:52:05 Beibehaltung des menschlichen Elements bei Prognosen
00:54:35 Vertrauen in Experten und Analysten
00:57:28 Realistische Situation bei der Verwaltung von Millionen von SKUs
01:00:01 Anpassungen auf hoher Ebene des Modells
01:02:13 Entscheidungen, gesteuert durch die Wahrscheinlichkeit seltener Ereignisse
01:04:44 Nikos’ Standpunkt zu Anpassungen
01:07:14 Zeitverschwendung bei geringfügigen Anpassungen
01:09:08 Gegen manuelle tägliche Anpassungen
01:11:43 Unternehmensweite Vorteile der Code-Anpassung
01:13:33 Rolle des Data Science-Teams
01:15:35 Probabilistische Prognosen verhindern manuelle Eingriffe
01:18:12 Die millionenschwere Frage zur KI
01:21:11 Bedeutung des Verständnisses von KI-Modellen
01:24:35 Wert und Kosten von KI-Modellen
01:26:02 Probleme bei der Bestandsverwaltung angehen

Über den Gast

Nikolaos Kourentzes ist Professor für prädiktive Analytik und KI am AI Lab der Universität Skövde in Schweden. Seine Forschungsinteressen liegen im Bereich der Zeitreihenprognose, mit aktuellen Arbeiten zur Modellierung von Unsicherheit, zeitlichen Hierarchien und hierarchischen Prognosemodellen. Seine Forschung konzentriert sich darauf, Prognosen in Entscheidungen und Maßnahmen umzusetzen, in Bereichen wie Bestandsmanagement, Liquiditätsmodellierung für monetäre Operationen und Gesundheitswesen. Er verfügt über umfangreiche Erfahrung in der Industrie und im öffentlichen Sektor und hat verschiedene Open-Source-Bibliotheken entwickelt, um die Verwendung fortschrittlicher Prognosemethoden in der Praxis zu unterstützen.

Zusammenfassung

In einem kürzlichen LokadTV-Interview diskutierten Nikos Kourentzes, Professor an der Universität Skövde, und Joannes Vermorel, CEO von Lokad, die Übereinstimmung von Prognosen bei der Entscheidungsfindung in der Supply Chain. Sie betonten die Bedeutung der Abstimmung von Prognosen mit Entscheidungen und erkannten an, dass Modelle möglicherweise nicht korrekt spezifiziert sind. Sie unterschieden zwischen Prognosegenauigkeit und Übereinstimmung und argumentierten, dass die genaueste Prognose für die Entscheidungsfindung möglicherweise nicht die beste ist, wenn sie nicht mit dem Ziel der Entscheidung übereinstimmt. Sie diskutierten auch die praktische Anwendung der Übereinstimmung von Prognosen bei der Bestandsentscheidung und deren Potenzial zur Minderung des Peitscheneffekts. Die Rolle von KI und menschlicher Beteiligung bei der Übereinstimmung von Prognosen wurde ebenfalls erörtert.

Erweiterte Zusammenfassung

In einem kürzlichen Interview, moderiert von Conor Doherty, Leiter der Kommunikation bei Lokad, diskutierten Nikos Kourentzes, Professor an der Universität Skövde, und Joannes Vermorel, CEO und Gründer von Lokad, das Konzept der Prognoseübereinstimmung im Kontext der Entscheidungsfindung in der Supply Chain.

Kourentzes, der ein Team leitet, das sich an der Universität Skövde auf KI-Forschung konzentriert, erklärte, dass seine Arbeit hauptsächlich um Modellrisiko und Modellspezifikation kreist. Er betonte die Bedeutung der Abstimmung von Prognosen mit den Entscheidungen, die sie unterstützen, ein Konzept, das er als Prognoseübereinstimmung bezeichnet. Dieser Ansatz zielt darauf ab, die Genauigkeit zu verbessern, indem er anerkennt, dass Modelle möglicherweise nicht korrekt spezifiziert sind.

Kourentzes unterschied weiterhin zwischen Prognosegenauigkeit und Prognoseübereinstimmung. Während die Genauigkeit ein Maß für die Größe der Prognosefehler ist, beschreibt die Übereinstimmung die Konsistenz der Prognosen im Laufe der Zeit. Er argumentierte, dass die genaueste Prognose nicht unbedingt die beste für die Entscheidungsfindung ist, wenn sie nicht mit der Zielsetzung der Entscheidung übereinstimmt.

Vermorel stimmte Kourentzes zu und wies darauf hin, dass mathematische Kennzahlen oft in der Praxis nicht ausreichen. Er gab Beispiele dafür, wie unterschiedliche Entscheidungen unterschiedliche asymmetrische Kosten haben können, wie zum Beispiel der Verkauf von verderblichen Gütern im Vergleich zu Luxusartikeln. Vermorel diskutierte auch den Ratscheneffekt im Supply Chain Management, bei dem Schwankungen in den Nachfrageprognosen zu nicht umkehrbaren Entscheidungen führen können.

Kourentzes teilte seine Umstellung von der ausschließlichen Fokussierung auf Genauigkeit auf die Berücksichtigung anderer Faktoren in der Prognose mit. Er betonte die Bedeutung des Verständnisses der zugrunde liegenden Funktionsweise der Modelle und der Annahmen, auf denen sie basieren. Er schlug vor, dass, sobald eine Sammlung genauer Prognosen gefunden wurde, die am besten übereinstimmende ausgewählt werden sollte.

Vermorel hingegen teilte mit, dass Lokad direkt auf finanzielle Ergebnisse optimiert, anstatt sich auf mathematische Kennzahlen zu konzentrieren. Er erklärte, dass Gradienten für die Optimierung entscheidend sind, da sie die Richtung angeben, in der die Parameter angepasst werden sollten, um Fehler zu minimieren. Er diskutierte auch die Bedeutung der probabilistischen Prognose, die alle möglichen Zukunftsszenarien berücksichtigt, nicht nur für die Nachfrage, sondern auch für unterschiedliche Durchlaufzeiten und Unsicherheiten.

Das Gespräch wandte sich dann der praktischen Anwendung der Prognoseübereinstimmung bei der Bestandsentscheidung und ihrem Potenzial zur Minderung des Bullwhip-Effekts zu. Kourentzes erklärte, dass Übereinstimmung und das Bullwhip-Verhältnis viele Ähnlichkeiten aufweisen und dass die Gestaltung von Prognosen unter Berücksichtigung der Übereinstimmung dazu beitragen kann, den Bullwhip-Effekt zu reduzieren.

Auch die Rolle des menschlichen Eingriffs bei der Prognoseübereinstimmung wurde diskutiert. Kourentzes ist der Meinung, dass menschlicher Eingriff nicht ausgeschlossen, sondern vielmehr angeleitet werden sollte, um Mehrwert dort zu schaffen, wo es möglich ist. Vermorel hingegen teilte mit, dass Lokad keine Anpassung der Prognose durch Menschen mehr zulässt, da dies zu besseren Ergebnissen geführt hat.

Das Gespräch endete mit einer Diskussion über die Rolle der KI bei der Prognoseübereinstimmung und der Entscheidungsfindung in der Supply Chain. Sowohl Kourentzes als auch Vermorel waren sich einig, dass KI zwar eine Rolle bei der Bewältigung von Prognoseherausforderungen spielt, jedoch nicht alle bestehenden Methoden ersetzen sollte und dass das Verständnis des Prozesses entscheidend ist.

In seinen abschließenden Bemerkungen forderte Kourentzes einen Wandel weg von traditionellen Prognosemethoden hin zu einem integrierteren Ansatz mit Entscheidungsfindung. Er betonte die Notwendigkeit, unsere Denkweise, Software und Lehrbücher zu aktualisieren und die Einbeziehung von Menschen aus verschiedenen Bereichen in das Prognosefeld zu begrüßen. Er schloss mit dem Hinweis auf die Bedeutung von Zusammenarbeit und vielfältigen Perspektiven bei der Bewältigung dieser Herausforderungen.

Vollständiges Transkript

Conor Doherty: Willkommen zurück. In der Regel drehen sich Diskussionen über Prognosen um das Thema Genauigkeit. Unser heutiger Gast, Nikos Kourentzes, hat eine andere Perspektive. Er ist Professor am Artificial Intelligence-Labor der Universität Skövde. Heute wird er mit Joannes Vermorel und mir über das Konzept der Prognoseübereinstimmung sprechen. Nun, Nikos, können Sie bitte vor der Kamera bestätigen, dass ich Skövde korrekt ausgesprochen habe?

Nikos Kourentzes: Das ist auch das Beste, was ich tun kann.

Conor Doherty: Nun gut, dann habe ich keine weiteren Fragen. Vielen Dank, dass Sie bei uns sind.

Nikos Kourentzes: Es ist mir ein Vergnügen.

Conor Doherty: Im Ernst, ich arbeite am Artificial Intelligence Lab der Universität Skövde. Das klingt sehr beeindruckend. Was genau machen Sie dort und wie ist Ihr Hintergrund im Allgemeinen?

Nikos Kourentzes: Also, lassen Sie mich zunächst ein wenig über das Labor erzählen und dann gehe ich ein wenig auf meinen Hintergrund ein. Wir sind ein vielfältiges Team von Wissenschaftlern, die sich für KI-Forschung interessieren. Der Schwerpunkt liegt hauptsächlich auf dem Bereich Data Science, aber der Anwendungsbereich ist ziemlich vielfältig. Wie Sie bereits erwähnt haben, werde ich wahrscheinlich über Prognosen und Zeitreihenmodellierung sprechen. Aber zum Beispiel interessieren sich andere Kollegen für Themen wie Informationsfusion, visuelle Analytik, selbstfahrende Autos, kognitive Aspekte der KI. Das ist das Tolle an dem Team, weil wir eine Vielzahl von Forschung haben und dann, wissen Sie, wenn Sie die Diskussionen haben, bekommen Sie viele verschiedene Ideen, die über die typische Literatur hinausgehen. Zumindest finde ich es einen sehr schönen Raum, um mich darin zu befinden.

Die Universität ist, wissen Sie, was ich meinen Kollegen normalerweise sage, dass ich selbst kein Schwede bin, wenn man schwedische Namen international verwendet, kann alles sein. Also, es wäre wahrscheinlich hilfreich zu sagen, dass die Universität in Bezug auf Data Science und KI eine ziemlich lange Tradition hat, auch wenn ihr Name nicht weit verbreitet ist. Aber wissen Sie, ich bin ziemlich glücklich, dem Team beigetreten zu sein. Was mich betrifft, ich arbeite seit ungefähr 20 Jahren in Prognosen, Zeitreihenmodellierung, entweder mit Statistik, Ökonometrie oder KI. Ich habe meinen Doktortitel an der Lancaster University in Künstlicher Intelligenz gemacht. Das war in der Business School. Und mein Hintergrund liegt eigentlich ursprünglich im Management. Aber irgendwann habe ich gesagt, okay, das ist ganz nett. Ich weiß, welche Fragen ich stellen soll, aber ich weiß nicht, wie ich sie lösen soll. Also habe ich dann einige Arbeiten im Bereich Operationsforschung gemacht, daher mein Interesse an der Supply Chain, und schließlich meinen Doktortitel in Künstlicher Intelligenz gemacht. Danach habe ich mich mehr für Ökonometrie interessiert. Also habe ich es geschafft, mein Verständnis für Zeitreihen auch etwas vielfältiger zu gestalten.

Conor Doherty: Vielen Dank, Nikos. Und wie Joannes und ich zum ersten Mal auf Ihr Profil gestoßen sind, zunächst wie ich darauf gestoßen bin, war ein Supply Chain Scientist, der tatsächlich einige Ihrer Arbeiten auf LinkedIn verfolgt, hat mir einen Artikel geschickt, in dem Sie über Prognoseübereinstimmung geschrieben haben und einen Link zu Ihrem Arbeitspapier zu diesem Thema enthalten haben. Der Schwerpunkt des heutigen Gesprächs wird also auf Prognosen liegen und wie sie auf die Supply Chain angewendet werden können. Aber bevor wir ins Detail gehen, könnten Sie uns einen kurzen Überblick darüber geben, was Prognoseübereinstimmung ist und wie sich das als Forschungsbereich für Sie entwickelt hat?

Nikos Kourentzes: Ein großer Teil meiner Arbeit dreht sich um Modellrisiko und Modellspezifikation. Oft identifizieren wir in der Zeitreihenprognose ein Modell und sagen, okay, jetzt gehen wir damit. Aber wir erkennen nicht wirklich, dass jedes Modell in gewisser Weise falsch sein wird. Ich meine, das ist das übliche Mantra in der Prognose, das hören wir immer, okay, alle Modelle sind falsch, einige sind nützlich. Aber ich denke, wir können weiter gehen als das, denn wir können anfangen zu quantifizieren, wie falsch die Modelle sind. Aber der andere Aspekt ist auch, dass wir in der Literatur oft nicht so weit gehen, und das ändert sich, das muss ich sagen, das ändert sich, das sage nicht nur ich, das sagen viele Kollegen, ist, dass wir die Prognose mit der unterstützten Entscheidung verbinden müssen.

So entstand die Kongruenz aus diesen beiden Ideen. Ich habe mit meinem Kollegen an der Lancaster University, Kandrika Pritularga, zusammengearbeitet, der auch Co-Autor des von Ihnen erwähnten Papiers ist. Und wir waren ziemlich interessiert zu sagen, okay, wenn wir beide mit der Ansicht kommen, dass Modelle in gewisser Weise fehlspezifiziert sind, dass wir also nur die Nachfrage approximieren, mit der wir konfrontiert sind, oder den Verkauf, je nachdem, wie Sie das sehen wollen, was ist dann der tatsächliche Kostenpunkt dafür? Und die Prognosekongruenz geht im Wesentlichen der Frage nach, ob wir etwas Besseres als Genauigkeit tun können. Denn Genauigkeit geht in vielerlei Hinsicht davon aus, dass Sie gute Arbeit bei der Approximation Ihrer Daten leisten.

Und wissen Sie, ja, wir versuchen das in aller Ernsthaftigkeit zu tun, aber wir verwenden vielleicht einfach nicht das richtige Modell. Zum Beispiel können Sie eine Software haben, die Ihnen eine Auswahl von X-Modellen gibt, aber die richtige Approximation wäre ein Modell, das in Ihrem Modellpool fehlt. Hier kommt also diese Motivation ins Spiel, die Prognose mit einer Entscheidung zu verbinden, sobald wir erkennen, dass unsere Modelle wahrscheinlich fehlspezifiziert sein werden. Das ist ein bisschen der Hintergrund.

Wenn ich das wissenschaftlicher ausdrücken möchte, sollte ich sagen, dass wir in der Regel mit meinen Kollegen unsere Forschungsthemen immer mit einer etwas albernen Idee beginnen. Also, wissen Sie, wir machen etwas anderes und sagen, oh, hier gibt es einen interessanten Ansatz, lassen Sie uns das etwas genauer untersuchen. Und oft endet man dann damit, etwas zu haben, das eine nützliche Idee sein kann. Warum ich das erwähne, ist, weil ich denke, dass die Prognosekongruenz, was sie auf den Tisch bringt, ein etwas anderes Denken ist. Und deshalb denke ich, dass es ursprünglich schön ist, weil es als Scherz in gewisser Weise begann, uns den ganzen Punkt aus einer anderen Perspektive zu sehen.

Conor Doherty: Joannes, ich komme gleich auf Sie zu diesem Thema zurück, aber könnten Sie sich etwas genauer erklären? Wenn Sie wieder von Prognosegenauigkeit sprechen, hat jeder mehr oder weniger eine Vorstellung davon, was das bedeutet. Aber wenn Sie von Kongruenz oder Prognosekongruenz sprechen, hilft es den Menschen, die Dinge aus einer anderen Perspektive zu sehen. Könnten Sie etwas genauer erklären, was Sie mit Kongruenz im Zusammenhang mit Zeitreihenprognosen meinen?

Nikos Kourentzes: Also, zunächst einmal ist der Name nicht ganz eindeutig und es gibt einen Grund dafür. Was wir mit dieser Prognosekongruenz beschreiben wollen, ist im Wesentlichen, wie ähnlich sich Prognosen im Laufe der Zeit sind. Das ist eine einfachere Art, es zu sagen, aber hier gibt es ein paar Probleme. Viele der Wörter, die man dafür verwenden könnte, zum Beispiel Stabilität, werden bereits in der statistischen Prognose verwendet, also wollen wir dort keine Verwirrung stiften.

Und das andere Problem ist, dass es, wie wir wahrscheinlich später in der Diskussion sehen werden, technische Schwierigkeiten gibt, zu messen, wie ähnlich sich Prognosen im Laufe der Zeit sind. Denn wenn man zum Beispiel an eine saisonale Zeitreihe und eine nicht saisonale Zeitreihe denkt, bedeuten sie etwas sehr Unterschiedliches, da die Saisonalität selbst eine Unterschiedlichkeit der Prognose im Laufe der Zeit vorschreibt. Das ist das Muster, das man dort verwalten muss. Das ist nicht die Art von Nicht-Ähnlichkeit, die uns interessiert. Und das ist es, was ein bisschen, wenn Sie so wollen, mathematische Gymnastik erfordert, um die Kongruenz zu definieren. Aber hier liegt der Unterschied zur Genauigkeit. Genauigkeit verstehen wir in der Regel, unabhängig davon, welche Metrik Sie verwenden werden, als Zusammenfassung der Größenordnung Ihrer Prognosefehler.

Nun, wir würden natürlich annehmen, dass, wenn wir die genaueste Prognose erhalten, dies bedeutet, dass wir die besten Informationen für die unterstützten Entscheidungen liefern. Dies setzt jedoch voraus, dass die unterstützten Entscheidungen die gleiche Art von Zielfunktion wie die genaueste Prognose haben, sagen wir, minimieren Sie Ihre quadratischen Fehler. Aber das ist nicht der Fall. Wenn Sie zum Beispiel über ein Modell für die Bestandsführung in der Lieferkette nachdenken, müssen wir möglicherweise Kosten aufgrund von Bestellbündelung berücksichtigen, wir müssen möglicherweise Über- und Unterdeckungskosten berücksichtigen, die Ihre Position von der genauesten Prognose abweichen lassen können. Wir müssen auch andere Aspekte wie zum Beispiel Beschränkungen von unseren Lieferanten oder andere Kapazitätsbeschränkungen von Produktionslinien oder von unserem Lagerhaus und so weiter berücksichtigen. Sobald Sie über die tatsächlichen Lagerhaltungskosten oder die Lieferkette im Allgemeinen nachdenken, sehen Sie plötzlich, dass die genaueste Prognose nicht unbedingt diejenige ist, die besser mit der Entscheidung übereinstimmt. Und das ist wirklich der interessantere Punkt zur Kongruenz.

Auf der einen Seite gibt es eine Reihe von Forschungen, und meine Co-Autoren und ich haben in diese Richtung ziemlich viel veröffentlicht, die zeigen, dass die meisten Genauigkeitsmetriken nicht gut mit guten Entscheidungen korrelieren. Das bedeutet nicht, dass sie nutzlos sind oder so etwas, es ist nur so, dass sie nicht die ganze Geschichte erzählen. Das drängt ein wenig zur Kongruenz. Die Kongruenz versucht andererseits zu sagen, wenn sich die Prognosen im Laufe der Zeit nicht allzu sehr ändern, dann gibt es wahrscheinlich eine gewisse Zuversicht von einer Seite in die Prognosen. Aber andererseits wäre es auch eine Prognose, mit der die Menschen mit einer gewissen Konsistenz planen können. Ich muss meine gesamte Planung nicht bei jedem Prognosezyklus aktualisieren, weil die Prognose ziemlich ähnlich sein wird. Auch wenn es nicht die genauesten Prognosen sind, scheitern sie auf eine vorhersehbare Weise, die die Entscheidungsfindung erleichtern könnte. Und das ist tatsächlich das, was wir auch in unserer Arbeit feststellen. Wir stellen fest, dass die Entscheidungen, die von kongruenteren Prognosen unterstützt werden, auch im Laufe der Zeit konsistenter sind. Es ist also weniger Aufwand, diese Entscheidungen zu treffen.

Conor Doherty: Nun, danke, Nikos. Und Joannes, ich gebe jetzt an dich weiter. Ich habe das Gefühl, dass dir das wahrscheinlich sehr nahe geht. Eine genauere Prognose führt nicht unbedingt zu einer besseren Bestandsentscheidung.

Joannes Vermorel: Ja, genau. Unsere allgemeine Perspektive heutzutage ist, dass praktisch alle mathematischen Metriken, im Sinne von “Sie wählen eine Formel und sagen, dies ist eine mathematische Formel, die Ihre Metrik charakterisiert, die Sie zu optimieren versuchen”, wenn diese Formel im Grunde genommen vom Himmel fällt oder einfach erfunden ist, selbst wenn sie gute Absichten hat, sagen wir Norm eins, Norm zwei, etwas, das einige mathematische Eigenschaften hat, ist es in der Regel sehr enttäuschend, wenn es aus verschiedenen Gründen in die Produktion gebracht wird.

Vor mehr als einem Jahrzehnt begann Lokad, die Idee zu verbreiten, dass Menschen keine sogenannten nackten Prognosen machen sollten. Grundsätzlich unterstütze ich Nikos in seiner Behauptung, dass eine Prognose ein Instrument für eine Entscheidung ist und Sie die Gültigkeit der Prognose nur durch die Gültigkeit der Entscheidungen beurteilen können.

Und das ist irgendwie seltsam, denn wenn Sie 10 verschiedene Entscheidungen haben, können Sie mit inkonsistenten Prognosen enden, um diese Entscheidungen zu unterstützen. Und das fühlt sich seltsam an, aber die Realität ist, dass es in Ordnung ist, auch wenn es gegenintuitiv ist. Und warum ist das in Ordnung? Nun, Sie haben eine Reihe von Entscheidungen, die sehr unterschiedliche asymmetrische Kosten in Bezug auf Überschreitung oder Unterschreitung haben können.

Und wenn Sie also eine Entscheidung haben, bei der eine Überschreitung eine Katastrophe ist. Nehmen wir zum Beispiel an, Sie verkaufen Erdbeeren. Alles, was Sie am Ende des Tages nicht verkaufen, werfen Sie praktisch weg. Alles, was Sie also überschreiten, ist katastrophal in dem Sinne, dass es einen sofortigen garantierten Verlust oder eine Abschreibung des Lagerbestands darstellt.

Im Gegensatz dazu, wenn Sie ein Luxusuhrenhersteller sind und Ihre Artikel aus Gold, Platin und anderen edlen Metallen und Steinen bestehen, verfallen die Bestände nicht, wenn Sie sie nicht verkaufen. Selbst wenn das, was Sie schmieden und in Artikel einbringen, aus der Mode kommt, können Sie die Materialien immer zurücknehmen und etwas formen, das mehr im Einklang mit dem aktuellen Wunsch des Marktes steht.

Grundsätzlich haben Sie also bei Schmuck niemals Lagerabschreibungen. Sie haben vielleicht einige Kosten, um Ihre Produkte umzugestalten, aber es ist ein sehr, sehr unterschiedliches Spiel.

Eines der grundlegenden Probleme, das in Supply-Chain-Lehrbüchern so gut wie nie erwähnt wird, ist der Ratscheneffekt. Nehmen wir an, Sie spielen ein Spiel zur Lagerauffüllung. Jeden Tag haben Sie eine Lagerhaltungseinheit (SKU), Sie haben eine Nachfrageprognose und wenn die Nachfrage einen bestimmten Schwellenwert überschreitet, geben Sie eine Nachbestellung auf.

Es stellt sich jedoch heraus, dass wenn Ihre Prognose ein wenig schwankt, bedeutet dies, dass Ihr Lagerbestand immer auf den höchsten Punkt Ihrer Schwankung eingestellt ist. Ich meine, wenn Sie zum Beispiel einen Monat betrachten, und Ihr typischer Nachbestellzyklus etwa einen Monat beträgt, dann schwankt Ihre Prognose während dieses Monats. Und nehmen wir an, Sie führen jeden Tag die Prognoselogik aus, sodass Sie an jedem Tag des Monats, also 30 oder 31 Tage, eine Bestellung aufgeben, wenn Ihre Prognose am höchsten ist.

Es handelt sich um einen Ratscheneffekt, denn sobald Ihre Prognose nach oben oder unten schwankt, kann es in Bezug auf die Genauigkeit durchaus gut sein, diese Schwankungen zu haben. Es erfasst die kurzfristige Variation schön, aber der Preis, den Sie zahlen müssen, ist, dass Sie sich einmal für diese Entscheidung entschieden haben.

Und wenn Sie diese Schwankungen haben, passiert normalerweise Folgendes: Sie erfassen die Aufwärtsschwankung. Die Abwärtsschwankung ist nicht so schlimm, Sie verschieben einfach etwas um einen weiteren Tag, aber die Aufwärtsschwankung löst die Produktionsserie, die Lagerauffüllung, die Lagerzuweisung und den Preisverfall aus.

Denn auch hier ist es dasselbe. Wenn Sie Ihren Preis senken und dann eine Nachfragesteigerung aufgrund der Preissenkung haben, aber Sie die Nachfrage unterschätzt haben und nun dachten, dass Sie zu viel Lagerbestand haben, ist die Realität, dass dies nicht der Fall war. Und jetzt, da Sie den Preis gesenkt haben, haben Sie sich versehentlich in eine Position des künstlich herbeigeführten Fehlbestands gebracht.

Das sind all diese Arten von Dingen, bei denen Sie diese Ratscheneffekte haben, bei denen Sie handeln, und dann wird die Leistung Ihres Unternehmens die Art der extremen Variation Ihres statistischen Modells, Ihres prädiktiven statistischen Modells oder was auch immer widerspiegeln. Das ist nicht gut, weil Sie, was die Entscheidungen betrifft, das Rauschen des prädiktiven Modells erfassen.

Nikos Kourentzes: Darf ich etwas hinzufügen? Zunächst einmal stimme ich weitgehend zu. Aber es kann vielleicht auch etwas helfen, das gleiche Argument aus der Perspektive eines Zeitreihenexperten wie mir zu betrachten, der darauf trainiert wurde, in Genauigkeit zu denken.

Wo ich schließlich meine Meinung geändert habe, ist, dass Sie zum Beispiel eine Nachfrage nach einer Lagerhaltungseinheit, einer SKU, haben und dann Ihr bestes Modell finden und dieses Modell anhand von etwas wie einer Wahrscheinlichkeit optimieren oder Ihren mittleren quadratischen Fehler minimieren werden.

Nun, die Annahme dahinter ist, dass Sie eine gute Näherung des Modells gemacht haben und typischerweise Ihr Fehler eine Vorhersage für einen Schritt in die Zukunft ist. Das ist das, was wir normalerweise tun, wir minimieren den Fehler zumindest für die in-sample Fehler.

Wenn Ihr Modell nicht das richtige Modell ist, das richtige Modell bedeutet, dass Sie irgendwie den datenerzeugenden Prozess kennen, was nie der Fall ist, wenn Sie diesen Fehler minimieren würden, dann wäre Ihre Vorhersage für alle Vorhersagehorizonte perfekt. Aber das ist nicht der Fall, weil Ihr Modell nur eine Näherung ist.

Angenommen, Sie minimieren Ihre Fehler für einen Schritt in die Zukunft, wie wir es normalerweise tun, dann kann Ihr Modell tatsächlich sehr gut für diese ein-Schritt-voraus-Vorhersage funktionieren, aber nicht für den Vorlaufzeitraum. Der Vorlaufzeitraum erfordert weitere Schritte in die Zukunft.

Wenn Sie dann sagen würden: “Oh, ich kann mein Modell so einstellen, dass es vielleicht in 3 Monaten sehr gut ist, sagen wir drei Schritte in die Zukunft”, dann haben Sie den gegenteiligen Effekt. Ihr Modell ist sehr gut darin, für diesen Vorhersagehorizont eingestellt zu sein, aber nicht für den kürzeren Vorhersagehorizont. Also verpassen Sie wieder Informationen für den Vorlaufzeitraum.

Was ich damit sagen möchte, ist, dass die traditionelle Art des Denkens, wie wir Modelle optimieren, zwangsläufig zu ungenauen Vorhersagen führen wird, in dem Sinne, dass sie immer für den Fehler kalibriert sein werden, den der Optimierer betrachtet, und nicht für die tatsächliche Entscheidung, die wir unterstützen wollen. Es hat einen anderen Horizont.

Hier kommt zum Beispiel eine Menge Forschung zu Schrumpfschätzern oder die Arbeit, die Kollegen und ich zu zeitlichen Hierarchien geleistet haben, ins Spiel, weil diese Techniken immer daran denken, “Lassen Sie uns nicht zu sehr an die Daten anpassen. Lassen Sie uns nicht besessen davon sein, einen Fehlerstatistik zu minimieren.”

Also, wissen Sie, was Joannes beschrieben hat, können Sie es im Wesentlichen aus den beiden Perspektiven sehen. Eine ist die Auswirkung auf die Lieferkette und die andere ist die statistische Grundlage, warum Sie das zwangsläufig haben werden.

Joannes Vermorel: Ja, in der Tat. Bei Lokad ist unsere Praxis heutzutage und das ist schon seit geraumer Zeit Teil des quantitativen Lieferkettenmanifests, dass wir eine reine finanzielle Optimierung durchführen. Wir optimieren also direkt in Euro oder Dollar.

Und in der Tat werden diese Metriken entdeckt. Wir haben sogar eine spezielle Methodik dafür, die experimentelle Optimierung genannt wird, weil die Lieferketten-Systeme sehr undurchsichtig, sehr komplex sind und die Metrik nicht gegeben ist, sondern ein ganzes Thema ist, um das zu entdecken.

Nun, das Interessante ist die Vorhersagehorizonte und die Vorhersage, die sich damit ändert. Ich habe schon lange in diese Richtung gedacht, aber im Wesentlichen haben die neuesten Vorhersagewettbewerbe von Makridakis, M4, M5, M6, bewiesen, dass so ziemlich die besten Modelle die besten für alle Horizonte sind, egal welchen Sie wählen.

Bei Lokad sind wir 2020 auf SKU-Ebene bei Walmart an erster Stelle gelandet und wir waren die Besten für einen Tag im Voraus, 7 Tage im Voraus, alles. Ich habe schon lange mit dieser Möglichkeit gearbeitet, dass es Modelle geben könnte, die in bestimmten Horizonten besser abschneiden.

Aber wenn Sie sich die modernen Modelle anschauen, wie zum Beispiel differenzierbares Programmieren, moderne Klassen von Vorhersagemodellen, ist es jetzt ziemlich einheitlich. Es ist heutzutage sehr selten, dass wir Modelle haben, die einen Schritt im Voraus besser abschneiden als sechs Monate im Voraus.

Und im Wesentlichen gibt es Modelle, die einen unbestimmten Horizont haben, sie prognostizieren bis ans Ende der Zeit, und man stoppt nur, um Rechenressourcen zu sparen, weil das sonst eine Verschwendung wäre. Aber trotzdem steht fest, dass im Allgemeinen die Metrik, die optimiert wird, nicht als bekannt angesehen werden sollte.

Man sollte nicht davon ausgehen, dass es eine der eleganten mathematischen Metriken wie das Log-Likelihood ist, wenn man bayesianisch vorgehen möchte, oder der mittlere quadratische Fehler oder was auch immer. Das ist sehr schön, wenn man Theoreme auf Papier beweisen möchte, aber das Beweisen von Theoremen und Eigenschaften von Modellen führt nicht zu operativen Ergebnissen.

Es kann viele subtile Defekte im Verhalten erzeugen, die aus mathematischer Sicht nicht sofort erkennbar sind.

Conor Doherty: Nun, vielen Dank. Nikos, um auf etwas zurückzukommen, was du vorhin gesagt hast und um weiterzugehen, du hast gesagt, dass du dich selbst als einen Zeitreihenexperten bezeichnest und dass du dich früher auf Genauigkeit konzentriert hast und dann gesagt hast: “Oh, ich habe meine Meinung geändert und mich von der Genauigkeit oder der Konzentration auf die Genauigkeit isoliert entfernt.” Könntest du diesen Prozess genauer beschreiben? Denn das ist etwas, worüber ich immer wieder in Gesprächen über Vorhersagen spreche, und es ist ziemlich schwierig, die Leute davon zu überzeugen, die Vorhersagegenauigkeit nicht als das eigentliche Ziel zu betrachten. Ich erinnere mich sogar, dass du in deinem Artikel gesagt hast: “Das Ziel der Vorhersage ist nicht die Genauigkeit.” Diese Aussage ist ziemlich kontrovers, je nachdem, wem du sie sagst. Also, wie genau bist du diesen Weg gegangen?

Nikos Kourentzes: Ja, das ist kontrovers, da hast du recht. Aber ich denke, das ist ein Argument, das Leute, die in der Zeitreihenwelt sind, eher akzeptieren als Benutzer von Vorhersagen, wenn ich das so sagen kann. Lass mich damit beginnen, dass ich auf etwas eingehe, was du gerade über die Vorhersagehorizonte erwähnt hast.

Ich denke, dieses Verständnis, dass die Modelle in der Lage sind, gute Vorhersagen für alle Horizonte zu liefern, ergibt sich daraus, wie wir die Modelle selbst vergleichen. Wie du weißt, greife ich hier noch einmal die von dir erwähnten M-Wettbewerbe auf. Dies ist eine nützliche Betrachtung der M-Wettbewerbe, aber all diese Modelle sind auf ähnliche Weise optimiert. Selbst wenn du eine einfache exponentielle Glättung nimmst und deine Ziel-Funktion änderst, wie du deine Parameter schätzt, kannst du sie tatsächlich viel besser oder viel schlechter auf unterschiedlichen Zielen oder unterschiedlichen Horizonten machen.

Für mich war das also auch ein Ausgangspunkt, um zu sagen, nun vielleicht passiert hier etwas. Und hier bin ich zum Beispiel etwas kritisch gegenüber der Verwendung von Standard… lassen Sie mich das umformulieren. Wenn ich mit Doktoranden oder Masterstudenten zusammenarbeiten muss, die ihre Dissertation schreiben, bitte ich sie manchmal, die Implementierung auf die harte Tour zu machen, anstatt eine Bibliothek zu verwenden und es zu tun, weil ich möchte, dass sie verstehen, was unter dem Modell wirklich passiert. Und dann kann man einige der Details finden und sagen, nun ergibt das Sinn?

Eine der bereits zuvor erwähnten Dinge ist, dass wir Formeln und Ausdrücke genießen, die mathematisch leicht zu handhaben sind. Ich meine leicht in Anführungszeichen, manchmal sind sie ziemlich komplex, aber ja, sie sind immer noch leicht im Sinne, dass man mit den richtigen Annahmen die Mathematik immer noch bearbeiten kann. Aber hier liegt das Problem für mich, dass wir dabei oft vergessen zu sagen, was ist, wenn diese Annahme jetzt verletzt wird? Was ist, wenn wir eine Modellspezifikation haben?

Für mich ist diese Modellspezifikation der Ausgangspunkt. Sobald du das einführen, werden viele dieser Ausdrücke problematisch. Ich sollte hier vorsichtig sein und, du weißt schon, selbst ein Akademiker zu sein, das macht diese Forschung in keiner Weise nutzlos. Aber es ist ein Meilenstein. Wir müssen alle Eigenschaften verstehen und dann sagen, nun lassen Sie uns die Modellspezifikation einführen.

Ich habe ein paar Kollegen aus Spanien, mit denen ich an der Kalibrierung von Lagerbestandspolitiken gearbeitet habe. Und ein Artikel, für den wir versuchen, die Überprüfung abzuschließen, dies ist immer ein komplizierter Aspekt für Akademiker, versucht genau das zu tun. Es versucht zu sagen, wissen Sie, nehmen wir an, wir haben eine sehr einfache Richtlinie wie eine Bestellpolitik, das ist das, was wir bekommen würden, wenn wir annehmen würden, dass das Modell in Ordnung ist, und das ist das, was wir bekommen würden, wenn wir sagen würden, nein, das Modell ist fehlspezifiziert. Denn man kann sehen, dass es zusätzliche Risiken in der Lieferkette gibt, es gibt zusätzliche Risiken bei der Bestandsführung.

Für mich ist der Moment, in dem ich sage, Genauigkeit reicht nicht aus, wenn ich darüber nachdenke, dass das Modell fehlspezifiziert ist, was bedeutet dieses zusätzliche Risiko? Wenn man darüber nachdenkt, dass wir bei stochastischen Bestandspolitiken sagen, dass es ein stochastisches Risiko aus dem Nachfrageprozess gibt, in Ordnung. Aber das ist nicht das einzige Risiko. Und ich behaupte in keiner Weise, dass ich alle Risiken in meiner Denkweise erfasse, aber zumindest die Logik sagt, dass es etwas sein muss, das mehr als ein Ziel der Genauigkeit ist.

Das bedeutet nicht, dass man dieses Ziel fallen lässt, es muss, wissen Sie, selbst wenn man dieses Ziel fallen lässt, muss es immer noch eine Art Korrelation zwischen diesem Ziel und anderen Zielen geben. Denn wenn man eine genaue, im weiteren Sinne, Prognose vollständig ignoriert, dann erledigt man seine Arbeit nicht gut, zumindest nach meiner Erfahrung.

Man kann das Ziel komplett ändern, wie zum Beispiel bei der Kongruenz finden wir sogar theoretisch, dass es eine Verbindung zur Genauigkeit gibt. Es ist keine 100%ige Verbindung, aber es gibt eine schwache Verbindung. Das bedeutet für mich dann nicht, dass wir die Genauigkeit aus dem Fenster werfen. Aber es ist sicherlich nicht das Ende der Diskussion. Wenn man es durch eine bessere Metrik ersetzen kann, die immer noch ähnliche Eigenschaften hat, oder eine Sammlung von Metriken, großartig. Damit bin ich zufrieden. Es ist mir egal, ob wir die Metrik so oder so nennen, oder ob es meine Metrik oder die Metrik von jemand anderem ist. Aber ich glaube wirklich, dass wir, wenn wir mit Modellspezifikationen gehen und die damit verbundenen Risiken im Prozess berücksichtigen, nicht bei den traditionellen Metriken bleiben können.

Conor Doherty: Danke, Nikos. Und Joannes, ich werde in einem Moment auf dich zurückkommen, aber ich möchte einen Punkt unterstreichen, nun ja, zwei Punkte. Erstens, ich glaube, ich habe mich missprochen. Ich hätte sagen sollen, dass Genauigkeit nicht das Ziel der Prognose ist. Ich glaube, ich habe es andersherum gesagt. Aber um auf einen Punkt einzugehen, den du gerade gemacht hast, und der ein Schlüsselpunkt des Papiers ist, du plädierst nicht dafür, korrekteste Prognosen zu verfolgen. Es ist eine Mischung aus Genauigkeit und Kongruenz. Ist das eine faire Interpretation? Und wenn ja, könntest du das bitte für jemanden erläutern, der möglicherweise nicht versteht, wie man eine Mischung dieser beiden Metriken verfolgt?

Nikos Kourentzes: Also, ich sollte zuerst betonen, dass dies eine laufende Arbeit ist, also habe ich darauf noch keine vollständige Antwort. Aber es scheint, dass eine einfache Faustregel so etwas wäre wie, sobald du deine Sammlung genauer Prognosen gefunden hast, wählst du daraus die kongruenteste aus. Wähle nicht direkt die kongruenteste Prognose aus, denn das könnte eine sehr ungenaue Prognose sein, wenn das Sinn ergibt.

Also sehe ich diese beiden Ziele, wenn ich es irgendwie anders formuliere, es gibt einen Bereich, in dem sich beide zusammen verbessern und dann kommst du zu einem Kompromiss. Wenn du diesen Kompromiss erreichst, dann gehe und gewichte mehr auf der kongruenten Seite.

Conor Doherty: Nun, das sollte dann wieder die Frage sein. Du verwendest den Begriff Kompromiss und das ist wieder etwas, worauf wir uns stark konzentrieren, wieder die Kompromisse. Wie bewertest du, und ich verstehe, dass es sich um eine laufende Arbeit handelt, wie bewertest du oder wie bewertet ein Unternehmen diese Kompromisse erneut, Genauigkeit versus Kongruenz? Und ich weiß, dass du versuchst, die Unbeständigkeit, die Schwankungen zwischen all den kongruenten Prognosen zu reduzieren. Aber selbst dann, ich meine, die Prognosegenauigkeit ist einfach. Wir können zustimmen, dass sie fehlerhaft sein kann, aber es ist einfach zu verstehen. Ich möchte einfach genauere Prognosen, ich möchte, dass die Zahl steigt. Aber jetzt führen wir eine weitere Dimension ein. Also noch einmal, die Gewichtung davon, wie geht ein Unternehmen damit um, das ist spezifischer gemeint.

Nikos Kourentzes: Ja, also ich habe hier Schwierigkeiten, eine klare Antwort zu geben, weil ich noch keine klare Antwort habe. Aber vielleicht kann ich ein Beispiel für die Logik geben.

Ich habe früher den Punkt über saisonale Zeitreihen gemacht. Wenn die Schwierigkeit darin besteht, Kongruenz als Metrik zu definieren, und das ist eine Diskussion, die ich mit einigen anderen Kollegen hatte, die sagen, oh, aber du könntest dies tun oder das stattdessen tun, ist im Wesentlichen die Idee des bedingten Mittelwerts der Prognose. Was ist das? Angenommen, die Nachfrage ist tatsächlich saisonal, es gibt also eine zugrunde liegende Struktur. Diese unbekannte zugrunde liegende Struktur ist der bedingte Mittelwert.

Wenn ich sagen würde, ich möchte die Prognose, die am stabilsten ist oder wie wir es nennen, kongruent, wäre das im Prinzip eine gerade Linie, eine flache Linie. Diese flache Linie würde keine Informationen über die Saisonalität enthalten. Die kongruenteste Prognose wäre also effektiv eine deterministische Prognose, die keine Stochastizität, keine Struktur in der Reihe, nichts dergleichen annimmt. Das ist definitiv eine schlechte Prognose.

Also, wo der Balanceakt liegt, ist, dass wir die kongruenteste Prognose im Hinblick auf diesen bedingten Mittelwert wollen. Wir möchten, dass sie versucht, saisonal zu sein, wir möchten, dass sie dieser Struktur folgt. Aber wir werden sie nicht genug drücken, um zu sagen, dass ich versuchen werde, jedes einzelne Detail auszuwählen. Man könnte sagen, dass es eine Verbindung zu Überanpassung und Unteranpassung gibt, aber es ist keine 100%ige Verbindung, weil wir alle zustimmen können, dass Überanpassung eine schlechte Sache ist.

Aber wenn wir uns den gleichen Aspekt in Bezug auf Überkongruenz und Unterkongruenz ansehen, ist es leicht zu zeigen, dass Unterkongruenz eine schlechte Sache ist, wie diese flache Linie, die wir zuvor erwähnt haben. Aber Überkongruenz ist tatsächlich nicht unbedingt eine schlechte Sache. Und das “nicht unbedingt” ist der Punkt, an dem die Dinge interessant und kompliziert werden. Das “nicht unbedingt” hängt viel mit den Punkten zusammen, die Joannes zuvor angesprochen hat, dass es andere Aspekte im Bestandsmanagement in der Supply Chain gibt, an denen wir interessiert sind. Indem wir diese zusätzliche Kongruenz in den Prognosen haben, erleichtern wir effektiv das Leben der Entscheidungsträger später. Aus statistischer Sicht wird dies nicht die genaueste Prognose sein, aber sie wird ausreichende Informationen für den Entscheidungsträger liefern, um zu handeln. So dass die folgenden Entscheidungen finanziell oder in welcher anderen Bestandsmetrik auch immer, wie zum Beispiel weniger Verschwendung oder etwas in dieser Art, einfacher zu erlangen sind.

Ich bin hier etwas vage, weil ich im Moment nichts Besseres als die zuvor erwähnte Faustregel anzubieten habe. Das ist, wie gesagt, hoffentlich wird das nächste Papier den vollständigen mathematischen Ausdruck liefern, um zu sagen, ah, es ist eigentlich ein triviales Problem. Das habe ich noch nicht. Also würde ich sagen, was ich im Moment den Leuten empfehle, ist, identifiziere deine Sammlung genauer Prognosen und wähle aus diesen Prognosen diejenige aus, die die Kongruenz maximiert. Also in gewisser Weise eine zweistufige Auswahl, zuerst eine Gruppe von genauen Prognosen erhalten und dann die kongruente auswählen.

Was interessant ist, ist, dass es sich herausstellt, dass dies in den meisten unserer Experimente ein Modell ist, das entweder einige Tricks von Schätzern mit Schrumpfung oder einige Tricks von zeitlicher Aggregation und so weiter verwendet, weil diese dazu neigen, Prognosen zu glätten. Ich möchte hier betonen, dass auch andere Kollegen ähnliche Ideen entwickelt haben. Sie können die Verlustfunktion ändern, um zum Beispiel einen Term hinzuzufügen, der auch versucht, die Variabilität der Prognose zu minimieren usw. Wo ich denke, dass die Kongruenzmetrik etwas anders ist, ist, dass wir auch den Zusammenhang mit der Genauigkeit zeigen wollen, also die Ausdrücke liefern, um zu sagen, wo genau sie verbunden sind, wo genau sie sich unterscheiden.

Conor Doherty: Danke, Nikos. Joannes, deine Gedanken?

Joannes Vermorel: Ja, also bei Lokad gehen wir das etwas anders an. Wir gehen den radikalen Weg, dass buchstäblich Fehler in Dollar, Fehler in Euro auftreten, und wir nehmen an, dass die Metriken entdeckt werden, sodass sie völlig willkürlich sind. Das ist so brutal, dass man etwas optimieren möchte, bei dem die Metrik alles sein kann. Wie gehen wir damit um? Nun, es hat sich herausgestellt, dass, wenn die Metrik alles sein kann, es effektiv ein Programm ist, wissen Sie, ein Computerprogramm. Sie können Metriken haben, die nicht einmal als Computerprogramme dargestellt werden können, in der Mathematik können Sie Dinge erfinden, die sogar Computern entgehen. Aber um die Diskussion zu verankern, nehmen wir an, dass wir nicht in super seltsame, hyperabstrakte mathematische Räume gehen. Also haben wir etwas, das zumindest berechnet werden kann. Also ist dies ein Programm, ein beliebiges Programm.

Das Gute daran ist, wenn Sie so ziemlich alles optimieren möchten, was Sie brauchen, sind Gradienten. Sobald Sie Gradienten haben, können Sie steuern. Für das Publikum, sobald Sie die Steigung haben, bedeutet das, dass Sie Ihre Parameter in die richtige Richtung steuern können, um das zu minimieren, was Sie minimieren möchten. Also, wann immer Sie optimieren möchten, etwas höher oder niedriger mit einer bestimmten Absicht bekommen möchten, wenn Sie die Gradienten erhalten können, gibt Ihnen das die Richtung, in die Sie gehen sollten, es hilft enorm.

Hier kommt Differentiable Programming wirklich zum Einsatz, weil Differentiable Programming buchstäblich ein Programmierparadigma ist, das Lokad umfassend verwendet. Es ermöglicht Ihnen, jedes Programm zu nehmen und die Gradienten zu erhalten, und das ist super mächtig. Das ist typischerweise, wie wir diese finanzielle Perspektive verbinden. Wir werden diese finanziellen Elemente entdecken. Es wird ein chaotischer Prozess sein, sehr zufällig, und was wir werden, ist ein Programm, das seltsam ist und die Eigenheiten der interessierenden Supply Chain widerspiegelt.

Wir können jedes Programm differenzieren, also können wir das differenzieren und dann basierend darauf optimieren, welches Modell wir auch immer haben, vorausgesetzt, dass das Modell selbst differenzierbar ist. Das schränkt unseren Ansatz auf Modelle ein, die eine differenzierbare Struktur haben, aber siehe da, das ist tatsächlich die Mehrheit. In diesem Wettbewerb, dem M5, für diesen Walmart-Wettbewerb, haben wir auf SKU-Ebene praktisch den ersten Platz mit einem differenzierbaren Modell belegt.

Das Erzwingen der Differenzierbarkeit ist also nichts, was Sie daran hindert, Spitzenleistungen zu erzielen. Nun, vorausgesetzt, wir geben unsere Metriken und typischerweise auch das Ausbalancieren von vielen Dingen auf.

Eine andere Sache ist die probabilistische Prognose, die Idee, dass wir uns alle möglichen Zukunftsszenarien ansehen, aber nicht nur für die Nachfrage. Zum Beispiel haben Sie die Lieferzeiten mit möglichen Horizonten und so weiter erwähnt, aber die Realität ist, dass die Lieferzeit variabel ist, es gibt auch Unsicherheit.

Noch schlimmer ist, dass die beobachtete Lieferzeit mit der bestellten Menge gekoppelt ist. Wenn Sie zum Beispiel 100 Einheiten bestellen, kann es schneller gehen als wenn Sie 1000 Einheiten bestellen, einfach weil die Fabrik, die die Sachen produziert, mehr Zeit benötigt.

Sie haben also viele Korrelationen, die die Unsicherheit formen und strukturieren. Die eindimensionale Perspektive auf die Zeitreihe ist unzureichend, selbst wenn wir nur von einem SKU sprechen, weil wir einige Schichten zusätzlicher Unsicherheit hinzufügen müssen, zumindest bei den Lieferzeiten, zumindest bei den Rücksendungen im E-Commerce und so weiter.

Ich werde den Begriff “Kongruenz” locker verwenden, weil Sie ihn gerade eingeführt haben, aber unsere praktische Beobachtung, als wir zu probabilistischen Modellen übergingen, war, dass diese Modelle numerisch gesehen wesentlich stabiler waren.

Das war sehr interessant, weil die meisten dieser Instabilitäten, Inkongruenzen oder was auch immer einfach darauf zurückzuführen sind, dass Sie eine Menge Umgebungsunsicherheit haben. Und Sie haben Bereiche mit relativ flachen Wahrscheinlichkeiten. Also, nach so ziemlich jeder Metrik schwankt das Modell stark, solange Sie eine Punktprognose haben.

Und in Bezug auf Metriken ist so ziemlich jede Metrik, die Sie wählen, ziemlich gleich. Also haben Sie die seltsame Eigenschaft, dass Sie wiederum, wenn Sie auf Punktprognosen feststecken, bei einer hohen Unsicherheit, bei einer hohen Umgebungsunsicherheit, mit Problemen konfrontiert sind, bei denen Sie sehr unterschiedliche Prognosen haben können, die nach Ihren Metriken quasi gleich sind.

Und so landen Sie bei diesem Zittern und so weiter. Und wenn Sie zu diesen probabilistischen Prognosen übergehen, betreten Sie einen Bereich, in dem das gute Modell einfach eines ist, das diese Streuung ausdrückt, das diese hohe Umgebungsunsicherheit ausdrückt. Und das an sich ist viel konstanter, würde ich sagen.

Das ist sehr seltsam, aber wir hatten viele Situationen, in denen wir so sehr darum kämpften, ein wenig numerische Stabilität zu erreichen, und dann, wenn Sie zu den probabilistischen Prognosen übergehen, haben Sie von Anfang an etwas, das wesentlich stabiler ist, wo diese Probleme, die wirklich schmerzhaft waren, einfach sekundär werden.

Also, das ist ziemlich interessant. Und dann können wir das alles mit anderen Dingen verbinden. Wenn wir über die Zeitreihenprognose hinausgehen, haben wir das hier im Kanal schon ein wenig besprochen, aber das wäre eine Abschweifung von der Abschweifung.

Und so haben wir sehr häufig auf eine nicht-zeitreihenbasierte Perspektive, eine mehrdimensionale Perspektive, aufrüsten müssen. Aber nochmals, das ist eine Abschweifung von der Abschweifung.

Nikos Kourentzes: Ich stimme Ihnen vollkommen zu. Probabilistische Prognosen sind absolut notwendig. Ich bin an den Punkt gekommen, an dem ich mir einige der unvollendeten Papiere anschaue, die seit einigen Jahren auf Eis liegen, und wenn ich sehe, dass es keine probabilistische Prognose gibt, denke ich, dass ich das Ganze überarbeiten muss. Es muss eine probabilistische Prognose haben, es ist jetzt 2024. Aber hier ist das Ding, ich mag probabilistische Prognosen, besonders so, wie Joannes es erklärt hat, weil es mir eine andere Möglichkeit gibt, den Punkt zur Modellspezifikation zu machen.

Wenn Sie die Unsicherheit um Ihre Prognose betrachten, gehen wir in der Regel davon aus, dass diese Unsicherheit auf die Stochastizität der Zeitreihe zurückzuführen ist. Aber ein guter Teil dieser Unsicherheit kommt daher, dass das Modell unsicher ist. Sie haben die Unsicherheit, die aus den Daten kommt, die Unsicherheit, die aus Ihrer Schätzung kommt, und die Unsicherheit des Modells selbst. Es kann einige Begriffe vermissen oder mehr Begriffe haben oder einfach völlig daneben sein. Die Aufteilung dieser Unsicherheit bleibt ein großes Problem.

Wenn Sie diese Unsicherheit nicht aufteilen, werden Sie oft feststellen, dass viele verschiedene Modelle, es sei denn, sie sind wesentlich unterschiedlich, die Unsicherheit durch ihre Modellunsicherheit maskieren. Sie werden Ihnen empirisch gesehen eine höhere Unsicherheit geben, und ein guter Teil dieser Unsicherheit wird so aussehen, als ob sie ähnlich ist, weil sie Ihnen sagen will, dass all diese Modelle problematisch sind.

Sie kommen nicht zur eigentlichen Tiefe, wenn es um diese Unsicherheit aufgrund der stochastischen Elemente der Nachfrage geht. Ich habe immer noch keinen guten Weg gefunden, es zu lösen, und ich habe auch nichts in der Literatur gesehen. Aber zumindest ist die probabilistische Prognose ehrlich und sagt, nun ja, das ist Ihre Unsicherheit. Sie ist etwas größer als wir dachten, wenn Sie von der Punktprognose ausgehen. Das ist ein guter Schritt in Richtung Lösung.

Conor Doherty: Vielen Dank euch beiden. Es fällt mir auf, dass ich hier sowohl zwei Akademiker als auch zwei Praktiker habe. Ich denke, an diesem Punkt wäre es ratsam, mich auf das Praktische zu konzentrieren. Der gesamte Schwerpunkt dessen, was Lokad tut, aber sicherlich auch dein Paper und deine Forschung insgesamt, Nikos, besteht darin, es auf die Bestandsentscheidungen anzuwenden. In diesem Zusammenhang, Joannes, als du über die Eigenheiten und Besonderheiten der Supply Chain, variierende Vorlaufzeiten und den Bullwhip-Effekt gesprochen hast, war deine Position, Nikos, in dem Arbeitspapier, über das wir sprechen, dass die Verfolgung der Prognoseübereinstimmung helfen kann, mit dem Bullwhip-Effekt umzugehen oder seine Auswirkungen zu mildern. Könntest du das für die Leute skizzieren, um zu verstehen, wie diese Idee bei einem ernsthaften Problem, dem Bullwhip-Effekt, helfen kann?

Nikos Kourentzes: Ich nehme an, Ihr Publikum ist sich dessen ziemlich gut bewusst. Das Problem, das ich mit vielen Bullwhip-Effekt-Studien habe, ist, dass es mehr darum geht, ihn zu beschreiben, als tatsächlich Maßnahmen zur Behebung anzubieten. Zumindest aus der Sicht der Zeitreihen, wo wir sagen, oh schau, hier ist dein Bullwhip-Verhältnis. Aber das ist in vielerlei Hinsicht nur eine Beschreibung des Problems. Es sagt Ihnen nicht, wie Sie damit umgehen, sobald Sie es gemessen haben.

Hier sage ich, nun gut, wenn ich die Prognose mit der Entscheidung verbinden möchte, anstatt sie getrennt zu halten, dann brauche ich zwangsläufig etwas, das mir sagen kann, wenn Sie in diese Richtung gehen, werden Sie Ihren Bullwhip reduzieren. Es stellt sich heraus, dass ohne dieses Verständnis am Anfang, wenn Sie die Gleichungen ausarbeiten, die Übereinstimmung und das Bullwhip-Verhältnis zumindest viele Ähnlichkeiten aufweisen. Diese Ähnlichkeit über Perioden hinweg oder die Übereinstimmung, wie wir es einfach sagen, scheint stark mit der Idee eines geringen Bullwhip aus Ihren Prognosen verbunden zu sein. Natürlich gibt es viele andere Gründe, warum Sie einen Bullwhip haben werden.

Wenn wir also eine kongruente Metrik oder etwas Ähnliches verwenden, um Ihre Prognosemodelle auszuwählen oder zu spezifizieren, können Sie bereits eine Lösung anvisieren, die in Bezug auf den Bullwhip günstiger ist. Hier denke ich zumindest, da ich im Bereich der Prognose arbeite, muss ich anerkennen, dass der Bullwhip viel breiter ist als die Prognose. Die Prognose ist nur ein Teil davon. Es gibt so viele andere Elemente, die ins Spiel kommen. Aber zumindest für die Prognose können Sie, wenn Sie über Übereinstimmung und ähnliche Denkweisen nachdenken, Prognosen entwerfen, die zumindest in Bezug darauf günstig sind.

Joannes Vermorel: Wenn wir uns mit dem Bullwhip befassen, wenn ich sage, dass wir uns die Entscheidung ansehen und Euro und Dollar optimieren, vereinfache ich tatsächlich. Denn die Realität ist, dass wir uns tatsächlich mit dem sequenziellen Entscheidungsprozess befassen. Und hier berühren wir im Wesentlichen die stochastische Optimierung sequenzieller Entscheidungsprozesse, über die mit Professor Warren Powell diskutiert wurde.

Wir optimieren nicht nur die nächste Entscheidung, sondern auch alle folgenden. Wir müssen einen Mechanismus haben, um all diese Informationen aus der Zukunft zurückzubringen, in der wir die zukünftigen Entscheidungen, die durch diese Prognosen generiert werden, simuliert haben, in den heutigen Tag. Hier glänzt das differenzierbare Programmieren, denn im Wesentlichen haben Sie ein Programm, das die Entscheidungen der Zukunft simuliert und Sie müssen in der Lage sein, es zurückzugewinnen, um diese zukünftigen finanziellen Ergebnisse in die Entwicklung Ihrer heutigen Prognose einzuspeisen.

Die Art und Weise, wie wir das typischerweise betrachten, ist, dass Sie, wenn wir zum Bullwhip zurückgehen, vom Bullwhip nicht überrascht sein sollten. Es gibt nichts in Ihrem Optimierungsrahmen, das auch nur die Kosten in Euro berücksichtigt, die im Laufe der Zeit entstehen werden. Es gibt nichts, das diese sequenzielle Entscheidungsanalyse durchführt, bei der die Entscheidung im Laufe der Zeit wiederholt wird, um zu sehen, ob Sie die Bullwhip-Probleme haben werden.

Die Lösung ist nicht so kompliziert. Es geht darum, nicht nur die nächste Entscheidung zu optimieren, auf die wir schauen, sondern auch alles, was folgt. Implizit optimieren wir sozusagen die Richtlinie. Aber typischerweise denken die Leute bei der Richtlinienoptimierung strikt unabhängig von der Prognose. Sie würden die Richtlinienoptimierung haben, die nur die Prognose verbraucht. Die Art und Weise, wie Lokad das sieht, ist jedoch, dass diese Dinge tatsächlich miteinander verflochten sind.

Die überlegene Prognose geht Hand in Hand mit der überlegenen Richtlinie. Die beiden sind sehr verbunden. Es gibt sogar ein kürzlich erschienenes Papier von Amazon, “Deep Inventory Optimization”, in dem sie die Unterscheidung vollständig aufheben. Sie haben direkt etwas, das den prädiktiven Modellierungsansatz und den Ansatz der Operationsforschung vereint, die normalerweise getrennt sind. Sie sagen nein, wir werden einfach beides gleichzeitig tun und haben ein prädiktives Optimierungsmodell durch Deep Learning entwickelt.

Das ist sehr interessant, denn das bedeutet im Grunde genommen, dass die Entscheidung prädiktiv optimiert wird, aber die Prognose selbst vollständig latent wird. Das ist nur eine andere Möglichkeit, das Problem zu betrachten, aber das ist sehr futuristisch und schafft andere Probleme. Aber um es zu betrachten, haben wir immer noch den Teil der prädiktiven Modellierung und den Teil der stochastischen Optimierung als zwei Stufen, aber zwei Stufen, die stark miteinander verbunden sind und es wird viel Hin und Her zwischen den beiden Stufen geben.

Nikos Kourentzes: Ich denke tatsächlich, dass es Vorteile hat, die Stufen getrennt zu halten. Allerdings sollten sie nicht isoliert sein und es gibt einen Grund dafür. Ich stimme vollkommen zu, dass das eine das andere führen sollte. Ich habe in der Vergangenheit mit der Idee gearbeitet, eine gemeinsame Optimierung sowohl für die Bestandspolitik als auch für die Prognose zu haben. Das Papier ist veröffentlicht, also sind die Details für diejenigen vorhanden, die sehen wollen, was passiert. Mein Bedenken bei dieser Arbeit war, dass ich sie nicht skalierbar machen konnte. Ich hatte keine Möglichkeit, die Optimierung so durchzuführen, dass ich eine große Anzahl von SKUs verarbeiten konnte. Dies könnte auf meine Einschränkungen in der Optimierung zurückzuführen sein, nicht auf das Setup selbst.

Ich denke jedoch, dass es hilfreich ist, die beiden Schritte getrennt zu halten, um mehr Transparenz im Prozess zu haben. Wenn ich eine gemeinsame Lösung habe und dann plötzlich sage, dass Ihr Bestand für Ihre Bestellungen für den nächsten Zeitraum 10 sein sollte und jemand sagt, dass er 12 sein sollte, ist es sehr schwierig zu rechtfertigen, warum 10 mehr Wert hat als 12. Wenn Sie die Prognose und die durch die Prognose gesteuerte Richtlinie verstehen, können Sie eine transparentere Diskussion führen. “Okay, hier ist meine Prognose, das sind die Ein- und Ausgänge der Prognose, hier ist meine durch eine gute Prognose gesteuerte Richtlinie oder möglicherweise sogar angepasst aufgrund der Prognoseoptionen, die ich habe, oder umgekehrt”, können Sie sagen: “Wenn ich an diese Richtlinien gebunden bin, sollten vielleicht nur diese Arten von Prognoseoptionen eine Rolle spielen.” Aber dann haben Sie immer noch die Transparenz und sagen: “Ich kann Elemente einer problematischen Prognose hier sehen, ich kann Elemente einer problematischen Bestellung hier sehen.”

Und das andere Element, das ich problematisch finde, ist, wenn Menschen sich vollständig in obskure Optimierung oder Prognose begeben, bei der sie sehr stark auf Deep Learning vertrauen. Egal, wie wir das Modellieren machen, irgendwann werden Menschen mit dem Modell und den Ergebnissen interagieren. Forschung und meine Erfahrung legen nahe, dass die Interaktion der Menschen mit dem Modell und den Zahlen und ihre Anpassungen, um kontextbezogene Informationen einzubeziehen, erfolgreicher sein werden, wenn sie verstehen, was passiert.

Wenn es eine sehr obskure Zahl ist, diese Black Box, neigen viele Menschen dazu zu sagen, dass die Menschen entweder nicht wissen, was sie mit der Zahl anfangen sollen, oder dass sie destruktiv mit der Zahl interagieren werden. Ich halte es für sinnvoll, die Trennung beizubehalten, weil sie die Transparenz fördert. Sie stellt das Problem dar und sagt, dass dieser Beitrag von hier kommt, dieser Beitrag von hier kommt. Daher neige ich hier dazu, Johannes’ Ansatz ziemlich zuzustimmen. Wir müssen die Aufgaben irgendwie verbinden, eine muss zur anderen führen, aber wir müssen auch in der Lage sein, zu beschreiben, was jeder Schritt tut.

Conor Doherty: Danke, Nikos. Ich komme nochmal auf einen Punkt zurück. Du hast mehrmals die menschliche Beteiligung und die Übersteuerung erwähnt. Was ist die Rolle der menschlichen Beteiligung in Bezug auf die Prognoseübereinstimmung? Die Tendenz besteht oft darin, wenn man nur die Genauigkeit misst, zu sagen: “Das Modell ist falsch, ich weiß es besser, lass mich eingreifen”, und natürlich erhöht man in vielen Fällen nur das Rauschen. Wie geht die Prognoseübereinstimmung als Konzept damit um? Gibt es viel Übersteuerung oder nicht?

Nikos Kourentzes: Diese Verhaltensprognose oder beurteilende Anpassungen, verschiedene Namen in der Literatur, ich glaube, wir wissen immer noch nicht genug, obwohl es ein sehr aktives Forschungsgebiet ist. Einige Arbeiten argumentieren, dass wir diese Anpassungen eliminieren sollten, weil sie kontraproduktiv oder sogar zerstörerisch in Bezug auf die Genauigkeit oder das Endergebnis sind. Das Problem bei diesem Denken ist, dass man eine Metrik haben muss. Wenn ich den mittleren absoluten prozentualen Fehler verwende, bekomme ich eine Antwort. Wenn ich den mittleren quadratischen Fehler verwende, bekomme ich eine andere Antwort. Wenn ich die Übereinstimmung verwende, bekomme ich eine andere Antwort.

Die Frage, die ich dann habe, geht zurück zu unserem sehr ersten Punkt der Diskussion, nämlich warum ich mich nicht einfach auf die Genauigkeit konzentriere? Ich meine, dasselbe gilt für euch, ihr konzentriert euch nicht nur auf die Genauigkeit. Solange wir erkennen, dass dies wichtig ist, müssten wir natürlich die Verhaltensaspekte des Prognoseprozesses oder des Bestandsprozesses mit einer Metrik anpassen oder bewerten, die sich mehr bewusst ist als nur die Genauigkeit. Ich glaube nicht, dass wir die menschliche Intervention abschaffen sollten. Ich denke, es gibt ausreichend Belege dafür, dass sie, wenn sie reichhaltige kontextbezogene Informationen nutzen können, besser abschneiden können als die meisten Modelle. Allerdings können sie nicht konsequent Mehrwert schaffen. Es gibt viele Fälle, in denen sie einfach das Gefühl haben, etwas tun zu müssen, oder in denen sie möglicherweise überreagieren auf Hype oder Informationen, die sehr schwer zu verstehen sind, wie sich dies auf Ihren Bestand auswirken würde. In solchen Fällen handelt es sich um eine destruktive Interaktion mit dem Modell oder den Prognosen.

Wir müssen das menschliche Element beibehalten, weil es Mehrwert schaffen kann, aber wir müssen sie anleiten, wann sie Mehrwert schaffen sollten. Es ist ein zeitaufwändiger Prozess. Wenn ich den Analysten sagen kann, bestimmte Aufgaben der vollständigen Automatisierung zu überlassen und ihre Aufmerksamkeit auf bestimmte Maßnahmen zu lenken, kann ich auch ihren Job effektiver machen. Sie können mehr Zeit und Ressourcen darauf verwenden, das, was sie gut können, besser zu machen. Kongruenz spielt in dieser Diskussion eine Rolle, in der wir sagen, wenn wir über die Genauigkeit hinausgehen müssen, kann es helfen, zu unterscheiden, welche Schritte Mehrwert schaffen, sei es in der Bestandseinstellung oder allgemeiner in der Entscheidungsfindung.

Eine ähnliche Diskussion würde ich für die Bestellungen führen. Modelle oder Richtlinien liefern Ihnen wahrscheinlich eine gute Grundlage, wenn Sie Ihre Arbeit als Analyst gut machen. Ich kann jedoch nicht sehen, dass dies universell die aussagekräftigste Zahl sein kann. Es wird immer einige Elemente, einige Störungen geben, die zum Beispiel heute Morgen in der Lieferkette aufgetreten sind, etwas, das schwer einzuschätzen ist. Dies wird kein Problem haben, ob es gut altert oder nicht. Es gibt einige Konflikte auf der Welt. Typischerweise gibt es immer einige Konflikte auf der Welt. Manchmal wird es Ihre Lieferkette beeinflussen, manchmal wird es Ihre Lieferkette nicht beeinflussen. Manchmal kann es Druck erzeugen, sagen wir auf die Inflation und so weiter, so dass Ihre Kunden möglicherweise anders reagieren. Dies sind Dinge, die äußerst schwer zu modellieren sind.

Deshalb habe ich Vertrauen in Experten und Analysten, die die Zeit haben, ihre Arbeit ordnungsgemäß zu erledigen. Und vielleicht kann ich damit abschließen, was die Anpassungen betrifft, indem ich sage, dass Forschungen nahelegen, dass die Zerlegung Ihrer Anpassungen, das heißt, wenn Sie sagen: “Okay, ich werde die Zahl um 100 verfeinern”, sagen: “Okay, warum 100? Weil 20 aus diesem Grund und 80 aus diesem Grund”, stark mit dem korreliert, was wir zuvor gesagt haben, nämlich zu zerlegen, wenn Sie möchten, oder die beiden Schritte der Prognose und des Bestands getrennt, aber nicht isoliert zu halten.

Denn wenn Sie sagen: “Okay, ich werde meine Bestellung um x% ändern”, wenn wir die Person fragen, die das tut: “Können Sie bitte erklären, welcher Teil davon auf Ihr Verständnis des Risikos zurückzuführen ist, das aus dem Modell des Prognosemodells oder aus den Realitäten der Lieferkette stammt?” können sie möglicherweise eine bessere Anpassung vornehmen.

Conor Doherty: Danke, Nikos. Johannes, ich wende mich an dich. Du bist ein großer Fan von menschlicher Übersteuerung, oder?

Joannes Vermorel: Nein, während der ersten fünf Jahre bei Lokad haben wir den Leuten erlaubt, Prognoseanpassungen vorzunehmen, und das war ein schrecklicher Fehler. Am Tag, an dem wir ein wenig dogmatisch wurden und es komplett verhindert haben, haben sich die Ergebnisse dramatisch verbessert. Also erlauben wir das so gut wie gar nicht mehr.

Betrachten wir also zunächst die Rolle der Menschen. Ich meine, die Leute sagen eine SKU und sie denken, aber das ist nicht typisch. Eine typische Lieferkette besteht aus Millionen von SKUs. Und wenn die Leute sagen, dass sie Anpassungen vornehmen wollen, verwalten sie tatsächlich ein unglaublich komplexes System auf Mikroebene. Und so ist es ein bisschen so, als ob man in den zufälligen Speicher seines Computers einsteigt und versucht, die Art und Weise, wie die Dinge in seinem Computer gespeichert sind, neu anzuordnen, während man Gigabyte an Speicher und Laufwerk und was auch immer hat. Man wählt nur einige Dinge aus, die die Aufmerksamkeit erregt haben, und das ist keine gute Verwendung Ihrer Zeit.

Und egal, wie viele Informationen Sie erhalten, die Informationen, die Sie erhalten, erhalten Sie fast nie auf SKU-Ebene. Ja, es passiert etwas in der Welt, aber handelt es sich um etwas, das auf SKU-Ebene stattfindet? Denn wenn Ihre Interaktion mit einem System darin besteht, etwas wie eine SKU anzupassen, auf welcher Grundlage haben Sie dann diese hochrangigen Informationen, dass sie sich auf etwas beziehen, das in Bezug auf die SKU-Ebene relevant ist? Es besteht also eine massive Diskrepanz.

Die Leute denken, dass sie, wenn sie zum Beispiel ein Spielzeugbeispiel nehmen, denken, dass 10 Millionen SKUs eine Grundlinie für ein Unternehmen sind, das nicht einmal besonders groß ist. Das ist mein Problem und das ist der Punkt, an dem Lokad, wie wir gesehen haben, sich massiv verbessert hat, weil es größtenteils Unsinn ist. Sie wählen nur 0,5% der SKUs aus, um etwas zu tun, und das ergibt keinen Sinn und führt in der Regel zu vielen Problemen. Und mehr noch, es erzeugt viel Code, weil die Leute nicht erkennen, dass die Zulassung von Interaktion bedeutet, dass Sie viel Code schreiben müssen, um das zu unterstützen, und viel Code, der Fehler enthalten kann. Das ist das Problem von Unternehmenssoftware. Die Leute betrachten dies typischerweise nur als mathematische Eigenschaften, aber Unternehmenssoftware hat Fehler, auch diejenige, die Lokad schreibt, leider.

Und wenn Sie ein großes Unternehmen haben, möchten Sie menschliche Interaktion haben, Sie benötigen Workflows, Genehmigungen, Überprüfungen, Nachvollziehbarkeit. Sie enden also mit so vielen Funktionen, dass Sie im Grunde genommen mit einem Modell beginnen, das tausend Zeilen Code hat, das statistische Modell, wenn Sie so wollen, und Sie enden mit einem Workflow, der eine Million Zeilen Code hat, um alles durchzusetzen.

Ja, die Absicht ist irgendwie gut, und ich glaube, dass es Wert in der menschlichen Interaktion gibt, aber absolut nicht auf die typische Art und Weise, wie sie produziert wird. Die typische Art und Weise, wie Lokad die menschliche Interaktion angeht, besteht darin zu sagen: Okay, es gibt etwas, das in der Welt passiert, ja. Jetzt lassen Sie uns die Struktur des Modells selbst überdenken. Sie sehen, erneut das prädiktive Modell und die Optimierung. Und erneut ist die klassische Haltung in der Literatur, Modelle als etwas Gegebenes anzusehen. Sie haben ein Papier, es ist veröffentlicht, also arbeiten Sie damit. Lokad arbeitet nicht so. Wir nähern uns nur dem prädiktiven Modellieren und der Optimierung durch Programmierparadigmen. Lokad hat also keine Modelle, wir haben nur eine lange Reihe von Programmierparadigmen. Es ist also immer komplett maßgeschneidert und vor Ort zusammengestellt.

Und im Grunde genommen ist es Code, mit den richtigen Programmierparadigmen. Und wenn etwas passiert, geben Ihnen diese Programmierparadigmen im Grunde genommen eine Möglichkeit, Ihre prädiktiven Modelle oder Optimierungsmodelle auf eine sehr präzise, sehr schlanke, sehr prägnante Weise auszudrücken. Es geht darum, diese 1.000 Zeilen Code auf 20 zu reduzieren, mit einer angemessenen Notation, wenn Sie so wollen.

Dann können Sie tatsächlich zu Ihrem Code zurückkehren und denken: Okay, ich habe etwas und ich muss eine Intervention durchführen. Es handelt sich nicht um die SKU-Ebene, es ist sehr selten, dass Sie diese detaillierte Information haben. Die Informationen, die Sie aus der Außenwelt erhalten, sind in der Regel viel höherer Ebene. Und so werden Sie in der Regel einige Art von hochrangigem Aspekt Ihres Modells anpassen. Und das ist das Schöne daran, dass Sie nicht unbedingt viele sehr präzise Informationen haben müssen.

Wenn Sie zum Beispiel in der Halbleiterindustrie tätig sind und sich Sorgen um China und Taiwan machen, könnten Sie sagen: Nun, ich werde einfach die Vorlaufzeiten nehmen und einen Puffer hinzufügen, in dem ich zum Beispiel eine 5%ige Chance angebe, dass sich die Vorlaufzeiten verdoppeln. Normalerweise sind die Vorlaufzeiten in der Halbleiterindustrie sehr lang, wie zum Beispiel 18 Monate, aber hier fügen Sie aus dem Nichts einen Aspekt hinzu und sagen, dass es jährlich eine 5%ige Chance gibt, dass sich die Vorlaufzeiten aus irgendeinem Grund verdoppeln.

Sie müssen nicht präzise sein, am Ende kann es ein Konflikt sein, es können eine Reihe von Lockdowns sein, es kann eine Grippe sein, die Häfen schließt, es können verschiedene Dinge sein. Aber das Schöne an diesem probabilistischen Ansatz in Kombination mit Programmierparadigmen ist, dass er es Ihnen ermöglicht, hochrangige Absichten in die Struktur Ihrer Modelle einzubringen. Es wird sehr grob sein, aber es wird Ihnen auch ermöglichen, in die gewünschte Richtung zu gehen, anstatt die Überschreibungen auf SKU-Ebene zu mikromanagen.

Und das Interessante ist, dass Sie, wenn wir zu diesem Beispiel zurückkehren, in dem wir diese 5%ige Chance auf eine Verdopplung der Vorlaufzeiten hinzufügen, diesen Faktor buchstäblich benennen können. Sie würden sagen, das ist unser Angstfaktor und das war’s. Sie sagen einfach, okay, das ist mein Angstfaktor für Dinge, wissen Sie, für wirklich schlimme Dinge, die passieren könnten, und das ist in Ordnung. Und das ist das Schöne daran, dass, sobald Sie das haben, alle Ihre Entscheidungen sanft in Richtung dieser zusätzlichen Wahrscheinlichkeit eines seltenen Ereignisses gelenkt werden und Sie nicht alle SKU für SKU mikromanagen und all die Dinge tun müssen, die nicht gut altern werden.

Und wenn Sie nach sechs Monaten feststellen, dass Ihre Angst unbegründet war, ist es sehr einfach, das rückgängig zu machen. Warum? Weil Sie Code haben, in dem Sie diesen Angstfaktor haben, der mit einem Kommentar versehen ist, der besagt, dass dies mein Begriff für den Angstfaktor ist. Also sehen Sie, in Bezug auf Dokumentation, Rückverfolgbarkeit, enden Sie, wenn Sie ein Problem durch Programmierparadigmen angehen, mit etwas, das super wartbar ist. Denn das war auch ein Problem, das wir in der Vergangenheit hatten, als die Leute manuelle Eingriffe vorgenommen haben, und das war der Großteil der Kosten, es war die schlechte Wartung der Überschreibungen.

Manchmal haben die Leute vielleicht die richtige Idee, sie setzen eine Überschreibung und dann vergessen sie sie. Und dann bleibt die Sache bestehen und wird dann radikal schlecht. Und das ist das Problem, denn sobald Sie eine Überschreibung einführen, würden Sie sagen: Oh, aber warum haben Sie das? Nun, das Problem bei Überschreibungen ist, dass Sie als Softwareanbieter wie Lokad Ihre Prognose jeden Tag neu generieren werden. Die Leute können Ihre Prognose nicht einfach überschreiben und das war’s, denn morgen werden Sie alles neu generieren.

Und so müssen sie die Überschreibung irgendwie beibehalten. Und das Problem ist, dass Sie jetzt eine persistente Einstellung haben, die dort sein wird, und wer ist dafür verantwortlich, das zu pflegen? Und dann haben Sie einen noch komplexeren Workflow zur Wartung der Überschreibungen, zum schrittweisen Ausblenden der Überschreibung usw. Und all diese Dinge werden in der Literatur nie diskutiert. Es ist sehr interessant, aber aus der Perspektive eines Unternehmenssoftwareanbieters ist es einfach eine sehr schmerzhafte Situation und Sie haben am Ende 20- oder sogar 100-mal mehr Code, um damit umzugehen, was ein sehr uninteressanter Aspekt ist im Vergleich zu den grundlegenderen Aspekten der prädiktiven Optimierung.

Nikos Kourentzes: Grundsätzlich ist die Position, die Joannes vertritt, eine Position, mit der ich denke, dass nicht viele Menschen nicht einverstanden wären, oder zumindest Menschen, die beide Seiten erlebt haben. Meine Meinung ist, dass Anpassungen nicht auf diese Weise erfolgen müssen. Ich habe noch keine Lösung dafür, weil das ein sehr aktiver Forschungsbereich ist. Wie gesagt, ich weiß, dass viele Leute daran gearbeitet haben zu sagen, sollten wir diese Art von Anpassungen oder jene Art von Anpassungen eliminieren?

Man könnte das Problem auch auf eine ganz andere Weise betrachten. Lassen Sie mich versuchen, in gewisser Weise auf eine analoge Forschung mit einem meiner Kollegen, Ive Sager, zu antworten. Er ist in Belgien. Wir haben viel daran gearbeitet, herauszufinden, wie wir Informationen, die auf strategischer Ebene oder auf Unternehmensebene vorhanden sind, auf SKU-Ebene übertragen können.

Das könnte potenziell einen Weg geben, um zu sagen, schauen Sie, ich werde nicht jedes SKU anpassen. Ich stimme vollkommen zu, dass Mikromanagement keine gute Idee ist, weder für Ihr SKU noch im Allgemeinen, würde ich sagen. Aber das ist eine andere Diskussion. Wenn Sie Menschen mit ihren Anpassungen machen lassen, werden sie die meiste Zeit aufgrund menschlicher Vorurteile, Eigentumsrechte usw. typischerweise Zeit verschwenden. Ob sie mit Anpassungen destruktiv oder konstruktiv sein werden, bleibt abzuwarten, aber sie werden sicherlich Zeit verschwenden.

Die von Joannes erwähnte Softwareseite, ich muss Ihre Meinung so nehmen, wie sie ist. Ich bin nicht im selben Bereich, obwohl ich zustimme, dass Fehler überall auftreten, auch in meinem Code. Aber ich kann sehen, dass es eine andere Möglichkeit gibt, über die Anpassungen als Ganzes nachzudenken.

Ich denke nicht, dass es wertvoll ist zu sagen, wissen Sie, ich muss jetzt X Anzahl von Zeitreihen verwalten. Es wäre eher so, wissen Sie, strategisch machen wir eine Änderung in der Richtung oder unser Konkurrent hat X gemacht. Diese Aktionen sind sehr schwer zu quantifizieren, daher ist es möglicherweise immer noch besser zu sagen, dass Untätigkeit besser ist als zufällige Quantifizierung.

Aber ich sehe auch, dass diese Informationen nicht in den Modellen enthalten sind. Wenn ich dem Modell also ein zusätzliches Risiko hinzufügen könnte, das der Benutzer kalibrieren kann, oder wenn ich den Benutzer fragen könnte, ob er eine andere Möglichkeit hat, seine Ausgabe anzupassen? Es bleibt immer noch ein element des Urteils. Wie man dieses element des Urteils am besten einführt, denke ich, ist eine offene Frage.

Ich sehe nicht, dass die übliche Art der Anpassung der produktive Weg ist. Es sind nicht nur die Aspekte der Komplizierung des Prozesses, die Joannes erwähnt, sondern auch, dass ich sehe, wie die Leute dann ihre Zeit verschwenden. Sie verfangen sich zu sehr darin, sie sagen, meine Aufgabe besteht darin, ins Büro zu kommen und jede Zeitreihe einzeln durchzugehen, sich die Zahlen oder die Grafiken anzusehen. Das ist nicht das, was ein Analyst tun sollte.

Besonders heutzutage, da Unternehmen damit beginnen, Data-Science-Teams zu haben, gibt es Expertise, es gibt gut ausgebildete Menschen auf dem Markt. Wir sollten ihre Zeit nicht so verschwenden, wir sollten sie nutzen, um den Prozess zu verbessern. Deshalb denke ich, dass es Raum für Anpassungen gibt, aber nicht auf die traditionelle Art und Weise. Ich denke, die Forschung ist ziemlich schlüssig, dass Sie aufgrund von Inkonsistenzen und Vorurteilen im Durchschnitt keinen Nutzen erhalten werden.

Conor Doherty: Es gibt nichts daran, die Übereinstimmung der Prognosen als Metrik zu verfolgen, das die Möglichkeit der Automatisierung ausschließt. Automatisierung könnte immer noch Teil des Prognoseprozesses sein, um die Übereinstimmung zu erreichen, oder habe ich das falsch verstanden?

Nikos Kourentzes: In gewisser Weise haben Sie recht. Mein Verständnis von Übereinstimmung, wie es definiert ist und wie wir es empirisch in Unternehmensdaten gesehen haben, würde tatsächlich darauf hinweisen, dass der Benutzer alle geringfügigen Anpassungen eliminieren sollte. Denn die Anpassungen würden zusätzliche Schwankungen verursachen, die nicht übereinstimmen würden. Natürlich würde es dazu neigen, viele Anpassungen zu eliminieren.

Aber ich bin ein wenig skeptisch, weil wir verstehen müssten, wo wir übermäßig übereinstimmen, wo die Informationen, die die Experten haben würden, entscheidend wären. Das ist immer noch eine offene Frage. Aber wenn wir über den üblichen Prozess nachdenken, den sowohl Joannes als auch ich kritisiert haben, würden Übereinstimmungsmetriken Ihnen helfen, das Problem zu erkennen.

Conor Doherty: Also, keiner von Ihnen ist der Meinung, dass man manuell jeden einzelnen SKU nehmen und anpassen sollte. Das wäre einfach eine sinnlose Geldverschwendung. Da sind wir uns total einig.

Joannes Vermorel: Aber das ist eine de facto Praxis vieler Unternehmen. Ich stimme Ihnen zu, wenn Sie sagen, dass Sie die strategische Absicht übersetzen möchten. Da bin ich ganz Ihrer Meinung. Und wenn ich das Wort Programmierparadigmen verwende, meine ich nur die Art von Instrumenten, mit denen Sie das tun können. Sie möchten also, dass die Leute nicht in die Mikroverwaltung von SKUs verwickelt werden, und Sie möchten auch nicht, dass diejenigen im Data-Science-Team, die die strategische Absicht übersetzen möchten, in das Schreiben von langen, uneleganten Codes verwickelt werden, die wahrscheinlich noch mehr Fehler und Probleme haben.

Zum Beispiel haben Sie eine Wahrscheinlichkeitsverteilung für die Nachfrage, Sie haben eine Wahrscheinlichkeitsverteilung für die Lieferzeiten, und Sie möchten sie einfach kombinieren. Haben Sie einen Operator, um das zu tun? Wenn Sie einen Operator haben, hat Lokad einen, dann können Sie buchstäblich eine Einzeiler haben, der Ihnen die Leitnachfrage gibt. Das ist die Nachfrage, die über eine variable Lieferzeit integriert ist. Wenn nicht, können Sie Ihren Weg aus der Situation mit Monte Carlo finden, kein Problem. Es ist nicht sehr schwierig. Mit Monte Carlo werden Sie Ihre Nachfrage abtasten, Sie werden Ihre Lieferzeiten abtasten, und siehe da, Sie werden das tun, kein Problem. Aber anstatt etwas zu haben, das eine Zeile dauert, dauert es Zeit, und Sie haben eine Schleife. Wenn Sie eine Schleife haben, bedeutet das, dass Sie Ausnahmen für den Index außerhalb des Bereichs haben können, Sie können um eins daneben liegen, Sie haben alle möglichen Probleme. Auch das können Sie durch Pair Programming, Unit Tests und dergleichen beheben, aber es fügt Code hinzu.

Also mein Punkt war, und ich folge Ihnen wirklich, ich denke hier, sehen Sie, das ist der Kern, den Sie erwähnt haben. Sie haben ein Data-Science-Team. Es geht darum, die Korrektur zu verlagern, und da stimme ich Ihnen vollkommen zu, es geht darum, die Korrektur von “Ich ändere eine Zahl” auf “Ich ändere ein Stück Code” zu verlagern. Und ich denke, das ist genau das, ich denke hierbei sind wir irgendwie auf einer Linie. Wenn wir die menschliche Intervention im Wesentlichen von “Ich ändere eine Zahl” auf “Ich beschäftige mich mit Code” verlagern und ein wenig darüber nachdenken, was die Absicht ist und diese Anpassung vornehmen, dann kann ich zustimmen und das funktioniert.

Mein Punkt war, die Korrektur von “Ich ändere eine Zahl” auf “Ich ändere ein Stück Code” zu verlagern. Wenn wir die menschliche Intervention von “Ich ändere eine Zahl” auf den Umgang mit Code verlagern und ein wenig darüber nachdenken, was die Absicht ist und diese Anpassung vornehmen, dann kann ich zustimmen und das funktioniert.

Und tatsächlich, wenn wir zur Zeitverschwendung zurückkehren, ist das Interessante, dass wenn Sie den Code anpassen, ja, es dauert viel länger, eine Zeile Code zu ändern. Es dauert vielleicht eine Stunde, während das Ändern einer Zahl nur eine Minute dauert. Aber diese Stunde gilt dann für das gesamte Unternehmen. Wenn es auf der richtigen Ebene durchgeführt wird, haben Sie diese eine Stunde Codierung, die Ihnen einen unternehmensweiten Nutzen bringt, im Gegensatz zu dieser einen Minute für ein SKU, die Ihnen möglicherweise einen Nutzen bringt, aber nur für das SKU.

Conor Doherty: Also, Sie sprechen über den Unterschied zwischen manueller Anpassung einer Ausgabe, was die Prognose sagt, und der Anpassung des numerischen Rezepts, das die Prognose erstellt?

Joannes Vermorel: Genau, es gibt eine Information in dieser Welt, die Grundannahme, denke ich, ist, dass es eine Information gibt, die in den Nachrichten oder vielleicht in privaten Informationen liegt, auf die Sie über das Netzwerk des Unternehmens selbst zugreifen können. Sie haben also eine zusätzliche Information, die nicht im Modell enthalten ist, die nicht in den historischen Daten enthalten ist.

Also stimme ich der Aussage zu und ich stimme der Idee zu, dass wir noch keine Superintelligenz haben, noch keine allgemeine Intelligenz. Wir können nicht einfach ChatGPT nehmen und alle E-Mails des Unternehmens verarbeiten lassen. Wir haben also noch nicht diesen Grad an Intelligenz zur Verfügung. Es müssen also menschliche Köpfe sein, die diesen Sortierprozess durchführen. Und ich stimme zu, dass es Wert darin gibt, dass Menschen kritisch über diese Informationen nachdenken und versuchen, sie genau in die Supply Chain zu übertragen.

Und ich folge Nikos wirklich in dem Sinne, dass er sagt, und dann Data Science, weil ja, es sollte letztendlich die Aufgabe des Data Science-Teams sein, jeden Tag zu sagen: Ich habe ein Modell. Spiegelt es wirklich den strategischen Anspruch meines Unternehmens wider? Das ist eine sehr hochrangige Frage, ob ich die Strategie wirklich so widerspiegele, wie sie von der Person ausgedrückt wird, die die Strategie im Unternehmen entwickelt. Das ist ein qualitatives Problem, kein quantitatives.

Nikos Kourentzes: Lassen Sie mich hier etwas hinzufügen, weil ich denke, Joannes hat etwas gesagt, das sehr hilfreich ist, damit die Leute verstehen, warum wir kritisch gegenüber den traditionellen Anpassungen sind. Er hat erwähnt, dass es nicht die Punktprognose ist, sondern der probabilistische Ausdruck davon. Die Leute passen Punktprognosen an, das ergibt in Bezug auf den Bestand keinen Sinn. Es geht uns um die Wahrscheinlichkeiten der gesamten Verteilung.

Wenn jemand das tun könnte, könnte das tatsächlich etwas bewirken. Aber niemand tut das, und wissen Sie, ich arbeite seit, wie gesagt, gut 20 Jahren mit Statistik. Ich kann es nicht einfach auf einfache Weise tun. Und meine Unfähigkeit bedeutet nicht, dass andere es nicht können, aber alles, was ich sage, ist, dass es sehr schwierig ist, in probabilistischem Sinne vorzugehen. Die Informationen sind so abstrakt, dass es für jemanden sehr schwierig ist, manuell zu gehen und zu sagen: Ja, ändere es einfach um 10 Einheiten. Das ist ein sehr schwieriger Prozess. In gewisser Weise machen viele Menschen all diese Anpassungen sowieso an der falschen Menge.

Joannes Vermorel: Ich stimme vollkommen zu. Als ich bei Lokad gesagt habe, dass wir vor einem Jahrzehnt aufgehört haben, Anpassungen vorzunehmen, war das genau die Zeit, als wir probabilistisch wurden. Die Leute sagten, wir müssen Anpassungen vornehmen, und dann haben wir ihnen die Histogramme der Wahrscheinlichkeitsverteilung gezeigt.

Wir haben gesagt, bitte schön, und dann sind die Leute zurückgetreten und haben gesagt, nein, das werden wir nicht tun. Es war tatsächlich ein Mechanismus, um zu verhindern, dass die Leute auf der falschen Ebene eingreifen. Als ihnen die Wahrscheinlichkeitsverteilungen gezeigt wurden, erkannten sie, dass es eine Menge Tiefe gibt. Die Leute dachten bei diesen Paritätsverteilungen für eine Supply Chain an sanfte Glockenkurven, Sie wissen schon, Gaußsche und so weiter. Das ist nicht der Fall.

Zum Beispiel, nehmen wir an, Sie haben einen Baumarkt. Die Leute kaufen bestimmte Produkte nur in Vielfachen von vier oder acht oder zwölf, weil es eine gewisse Logik darin gibt. Also ist Ihr Histogramm keine Glockenkurve, sondern hat Spitzen, wo die Leute entweder eine Einheit kaufen, weil sie eine Ersatz benötigen, oder vier oder acht und nichts dazwischen. Wenn Sie also darüber nachdenken, “Sollte ich den Durchschnitt von 2,5 auf 3,5 verschieben?” Aber Sie schauen sich das Histogramm an und das Histogramm hat drei Spitzen: eine Einheit, vier Einheiten, acht Einheiten.

Plötzlich sagen die Leute, es macht für mich keinen Sinn, diese Dinge zu verschieben. Ich werde die Wahrscheinlichkeit, die derzeit auf vier verteilt ist, nicht auf fünf verschieben, weil es nicht passiert. Was ich wahrscheinlich möchte, wenn ich den Durchschnitt erhöhen möchte, ist die Wahrscheinlichkeit von null zu verringern und die Wahrscheinlichkeit aller anderen Ereignisse zu erhöhen.

Die Leute erkennen, dass es eine Menge Tiefe in diesen Wahrscheinlichkeitsverteilungen gibt. Es gibt eine Menge Schabernack, wenn man diese magischen Vielfachen erwähnt. Das war unsere Beobachtung. Wir sind uns vollkommen einig, dass die Leute, wenn sie diese Wahrscheinlichkeitsverteilungen sehen, erkennen, dass sie dieses Histogramm nicht manuell Eimer für Eimer anpassen werden. Dass es diese Reaktion der Unpraktikabilität gibt, ist real.

Conor Doherty: Nun, noch einmal, mir ist bewusst, dass wir ziemlich viel Zeit von Ihnen in Anspruch genommen haben, Nikos. Aber ich habe noch eine letzte Frage. Sie arbeiten in einem KI-Labor, es wäre unangebracht, Sie nicht danach zu fragen, wie KI in den gesamten Kontext dessen passt, worüber wir sprechen. Also, sei es die Automatisierung der Prognoseübereinstimmung mit KI, die die Übersteuerungen vornimmt, ich weiß es nicht, skizzieren Sie bitte, wie Sie die Zukunft dort sehen.

Nikos Kourentzes: Das ist eine Millionen-Dollar-Frage. Ich kann genauso antworten wie einer der Gutachter, der sich das Papier angesehen hat und Bedenken hatte. Die Frage war so etwas wie: “Na und? Hier ist eine weitere Metrik, na und?”

Und ich sagte: “Schauen Sie, wenn Sie ein statistisches Modell haben, das ziemlich einfach ist, können Sie durch Berechnungen herausfinden, Sie können alles analytisch finden, in Ordnung. Wenn Sie jedoch in maschinelles Lernen einsteigen und insbesondere mit den massiven KI-Modellen, die wir jetzt verwenden, wird dies zu einer sehr schwierigen Aufgabe. Daher ist es sehr hilfreich, wenn wir einige Messinstrumente haben, etwas Ähnliches, das es tatsächlich etwas einfacher macht, herauszufinden, was diese Modelle tun.

Wenn ich zum Beispiel ein massives KI-Modell habe und sagen kann, schauen Sie, dieses Modell drückt die Prognose in Richtung erhöhter Übereinstimmung, dann habe ich vielleicht eine Möglichkeit, dieses Modell auf einfachere Weise zu betrachten. Diese einfachere Art und Weise besteht nicht darin, die Komplexität des Modells in irgendeiner Weise zu reduzieren, sondern eher zu verstehen, wie sich dies auf meinen Bestand auswirkt, wie sich dies auf meinen Entscheidungsprozess auswirkt, wie sich dies auf meine zuvor erwähnte Bullwhip-Annahme auswirkt, laufender Prozess.

Das ist im Grunde genommen, wie wir das Arbeitspapier abschließen. Wir sagen, der Nutzen dieser Metrik besteht darin, zu verstehen, wie sich Modelle, die Black Boxes sind, verhalten können. Ich glaube nicht, dass wir in Zukunft Modelle sehen werden, die nicht irgendwie von KI inspiriert sind. Ich bin etwas skeptisch, wenn Leute alles mit KI ersetzen wollen, weil manche Dinge einfach einfacher und effizienter sein können. Mein Anliegen kommt nicht unbedingt von der Mathematik des Problems oder sogar von der Datenfülle und so weiter. Ich denke, diese Probleme können wir lösen. Mein Anliegen kommt eher von einem sehr einfachen prozessualen Aspekt und der Nachhaltigkeit der Frage.

Wenn ich ein massives KI-Modell habe, das letztendlich, sobald ich alles auf dieses Modell hochskaliere, eine Menge Cloud-Computing und eine Menge Strom verbraucht, muss ich das alles tun, wenn ich nur 1% Unterschied zu einer exponentiellen Glättung habe? Manchmal habe ich viel mehr als 1% Unterschied, dann los geht’s. Aber manchmal brauche ich nicht diese ganze Komplikation. Ich kann mit etwas Einfacherem gehen, das auch für Nicht-KI-Experten transparenter ist.

KI ist ein Weg nach vorne für viele der Probleme, die wir haben. Ich denke, in vielen Fällen sind die Prognoseherausforderungen, mit denen wir konfrontiert sind, und insbesondere die Entscheidungen, die wir mit diesen Prognosen unterstützen, ein sehr gutes Einsatzgebiet für KI-Anwendungen. Aber das bedeutet nicht, dass wir alles vergessen sollten, was wir wissen, und einfach auf KI setzen sollten. Das spiegelt sich auch ein wenig in dem Papier wider. Denn wie ich bereits erwähnt habe, ist es nicht das erste Papier, das sagt: “Oh, lassen Sie uns das Ziel ein wenig ändern, um nicht nur die Genauigkeit zu sein.” Andere Kollegen haben das auch schon gemacht. Der Unterschied besteht darin, dass wir versuchen, ein wenig die Algebra zu machen, um zu zeigen, “Nun, das ist wirklich das, was passiert, wenn wir das tun.” Also mag ich es, wenn wir in der Lage sind, diese Art von Interpretation zu machen oder die Intuition dieser Handlung zu bekommen.

KI ist ein Weg nach vorne für viele Fragen, aber wir sollten nicht vergessen, dass es für uns nützlich ist, zu verstehen, was zum Teufel wir tun. Wir sollten nicht einfach blind vertrauen und sagen, dass das KI-Modell irgendwie das tun wird, was ich hoffe, dass es tut. Ich behaupte nicht, dass KI-Modelle keine wirklich guten Dinge tun können. Ich sage nur: “Lasst uns nicht darauf verlassen oder hoffen, dass es funktioniert. Es sollte besser sein als ich es mir nur wünsche.”

Conor Doherty: Was denken Sie dazu?

Joannes Vermorel: Ich denke, Nikos hat absolut recht. Genau wie ich gesagt habe, dass für die Anpassung die Anzahl der Codezeilen berücksichtigt werden muss, ist der Overhead von Deep-Learning-Modellen absolut enorm und es kompliziert alles. Wenige Menschen realisieren, dass es für viele GPU-Karten nicht einmal klar ist, wie man Berechnungen deterministisch durchführt. Es gibt viele Situationen, in denen Sie buchstäblich die Berechnung zweimal durchführen und zwei verschiedene Zahlen erhalten, weil die Hardware selbst nicht deterministisch ist.

Das bedeutet, dass Sie mit den Heisenbugs enden? Sie wissen schon, die Heisenbugs sind, wenn Sie einen Fehler haben, versuchen Sie, ihn zu reproduzieren, und er verschwindet. Irgendwann hören Sie auf zu suchen, weil Sie sagen: “Nun, ich versuche den Fall zu reproduzieren, es passiert nicht, also denke ich, es funktioniert.” Und dann setzen Sie es wieder in Produktion und der Fehler tritt wieder auf und Sie können ihn nicht reproduzieren.

Also ich stimme vollkommen zu. Einfachheit macht alles irgendwie besser, wenn es in etwa die gleiche Leistung hat. Wenn Sie etwas haben, das massiv einfacher ist, gewinnt das einfachere Ding immer in der Praxis. Ich habe noch nie eine Situation gesehen, in der ein Modell, das laut einer Metrik ein paar Prozentpunkte besser abschneiden würde als ein anderes Modell, in der realen Welt besser abschneidet.

Es ist eine Alternative, wenn die Alternative um Größenordnungen einfacher ist und in etwa das gleiche Ergebnis im gleichen Bereich erzielt, selbst wenn die Metrik diese sogenannten Dollar oder Euro sind, die Lokad zu optimieren versucht hat. Der Grund ist ein wenig seltsam, aber der Grund ist, dass sich Lieferketten ändern, wie wir bereits erwähnt haben, durch menschliches Eingreifen.

Wenn Sie eingreifen wollen, ist Zeit von entscheidender Bedeutung. Wenn Sie ein Programm haben, ein komplexes Modell, tausende von Zeilen, bedeutet das, dass allein die Logistik, zum Beispiel vor ein paar Jahren bei Lokad hatten wir Dutzende von Kunden, die von dem Evergreen-Schiff betroffen waren, das den Suezkanal blockiert hatte. Wir hatten praktisch 24 Stunden Zeit, um alle Vorlaufzeiten für praktisch alle unsere europäischen Kunden anzupassen, die aus Asien importieren.

Dort ist es entscheidend, in Stunden statt in einer Woche reagieren zu können, nur weil mein Modell sehr kompliziert ist. Wenn Sie möchten, dass ich Ihnen die Lösung liefere, ohne dabei so viele Fehler einzuführen, dass es das untergräbt, was ich tue, benötigen Sie ein einfacheres Modell. Ich stimme vollkommen zu, dass es Wert und Kosten gibt. Für Unternehmen, die bereits mit GPT4 experimentiert haben, sind die Kosten sehr hoch.

Conor Doherty: Nun, Nikos, ich habe keine weiteren Fragen, aber es ist üblich, dem Gast das letzte Wort zu überlassen. Also, bitte, irgendeinen Handlungsaufforderung oder irgendetwas, das Sie mit den Zuschauern teilen möchten?

Nikos Kourentzes: Die Handlungsaufforderung für mich ist, dass wir uns von den traditionellen Ansichten der Prognose lösen müssen, die isoliert von Entscheidungsfindung betrachtet wird. In unserem Diskussionskontext, dem Bestand usw., müssen wir versuchen, diese Dinge auf eine gemeinsame Weise zu betrachten.

Ich bin ein Akademiker, andere Kollegen haben andere Meinungen, Lokad hat auch seine Perspektive. Ich denke, es steckt Wert in all diesen Perspektiven, weil sie alle in die gleiche Richtung weisen. Wir müssen das, was wir vor einigen Jahrzehnten getan haben, hinter uns lassen, unsere Denkweise aktualisieren, unsere Software aktualisieren, unsere Lehrbücher aktualisieren. Es steckt Wert darin, das zu tun. Es geht nicht nur darum, unsere Software oder was auch immer zu ändern, es wird tatsächlich zu anderen Entscheidungen führen.

Ich begrüße die Einbeziehung von vielen Menschen aus der Informatik, dem Deep Learning, der Programmierung und der Bestandsseite in das Prognosefeld, denn jetzt ist der Punkt erreicht, an dem wir diese Probleme ernsthaft angehen können. Ich möchte nicht den Eindruck erwecken, dass dies etwas von dem Wert der Prognosewelt als Forschungsfeld wegnimmt. Ich gehöre zu dieser Welt und möchte auch sagen, dass wir nicht einfach eine Reihe von Bibliotheken nehmen, ein paar Codes ausführen und sagen können, dass das in Ordnung ist.

Oftmals liegt der Wert darin, den richtigen Prozess zu erhalten, die falsche Methodik anzugehen, was alles ist, was das Prognosefeld bieten kann. Ich mag die Idee, die Schritte im Prozess beizubehalten, aber wir müssen zusammenarbeiten, um eine gemeinsame Lösung zu finden. Es ist ein guter Raum.

Zurück zur Anfangsfrage, wo ich sagte, dass ich gerne mit dem Team an der Universität arbeite. Es gibt Polyphonie, es gibt viele Ideen. Ich werde mit meiner Prognosefrage kommen und andere Leute werden sagen: “Was ist mit diesem? Hast du an diese Perspektive gedacht?” Und ich denke: “Schau dir das an, das habe ich noch nie bedacht.”

Conor Doherty: Danke, Nikos. Ich habe keine weiteren Fragen. Joannes, danke für deine Zeit. Und nochmals vielen Dank, Nikos, dass du bei uns warst, und vielen Dank an euch alle fürs Zuschauen. Wir sehen uns das nächste Mal.