00:00:00 Eröffnungsbemerkungen von Robert Fildes
00:01:08 Conor Doherty stellt das Panel und das Thema vor
00:03:11 Nicolas Vandeputs Perspektive
00:06:16 Sven Crones Präsentation
00:10:34 Alexey Tikhonovs Perspektive
00:15:01 Notwendigkeit der Automatisierung in der Entscheidungsfindung
00:20:13 Das Teilen von Informationen zwischen Menschen ist Zeitverschwendung
00:25:29 Perspektive zur menschlichen Intervention
00:30:23 Bewertung einer Prognose
00:35:18 Finanzielle Perspektive und Entscheidungsfindung
00:40:14 Kosten von Prognosefehlern
00:45:43 Automatisierung und Vertrauen
00:50:27 Erweiterte KI und ihre Anwendungen
00:55:03 Auswirkungen der KI auf menschliche Übersetzer
01:00:16 Bedeutung einer klaren Vision bei der Implementierung von KI
01:06:00 Abschließende Gedanken und Zukunft der Nachfrageplaner
01:11:50 Frage aus dem Publikum: Prognose für Krankenhäuser
01:15:38 Frage aus dem Publikum: Reduzierung von Modell- und menschlicher Voreingenommenheit

Hintergrund des Panels

Das Panel wurde zunächst von Robert Fildes (Professor Emeritus, Lancaster University) als Reaktion auf Conors Artikel zur Kritik an FVA vorgeschlagen. Dieser Artikel wurde in der Q2 2024 Ausgabe von Foresight (hergestellt vom International Institute of Forecasters, derselben Organisation, die das Symposium durchführt) neu veröffentlicht. Anschließend wurde das Panel erweitert, um Sven Crone, Nicolas Vandeput und Alexey Tikhonov einzubeziehen, um eine ausgewogenere Vielfalt an Perspektiven aus Wissenschaft und Industrie zu bieten.

Zusammenfassung der Podiumsdiskussion

Gefilmt im Juli 2024 beim 44. Internationalen Symposium zur Prognose in Dijon, diskutierte das Panel aus vier Rednern über „Nachfrageplanung und die Rolle des Urteilsvermögens in der neuen Welt von KI/ML“. Moderiert von Lokads Kommunikationsleiter Conor Doherty, umfasste das Panel Alexey Tikhonov (Lokad), Sven Crone (Lancaster University & iqast) und Nicolas Vandeput (SupChains). Die Diskussion drehte sich um die Integration von KI in die Nachfrageplanung, den Wert von Prognosen in der entscheidungsbasierten Optimierung und die Zukunft der Nachfrageplaner. Die Podiumsteilnehmer teilten unterschiedliche Ansichten zur Rolle des menschlichen Urteilsvermögens in der Nachfrageplanung, zum Potenzial der KI, Nachfrageplaner zu ersetzen, und zur Bedeutung von Genauigkeit in der Prognose.

Ausführliche Zusammenfassung

Das 44. Internationale Prognosesymposium in Dijon, Frankreich, veranstaltet vom International Institute of Forecasters, beinhaltete eine Podiumsdiskussion zum Thema „Nachfrageplanung und die Rolle des Urteilsvermögens in der neuen Welt von KI/ML“. Die Diskussion wurde von Conor Doherty von Lokad moderiert, und die Podiumsteilnehmer waren Alexey Tikhonov von Lokad, Sven Crone von iqast und Nicolas Vandeput von SupChains. Die Sitzung wurde von Robert Fildes, Professor Emeritus an der Lancaster University, eingeführt.

Die Diskussion begann damit, dass Nicolas Vandeput seine Vision der Nachfrageplanung im Zeitalter des Machine Learning darlegte. Er schlug einen vierstufigen Prozess vor, der darin bestand, die Nachfrageprognose als ein Informationsspiel zu betrachten, eine automatisierte Machine Learning-basierte Nachfrageprognose-Engine zu erstellen, es menschlichen Nachfrageplanern zu ermöglichen, die Prognose mit Informationen anzureichern, die im Modell nicht enthalten sind, und den Mehrwert aller Beteiligten im Prozess zu verfolgen.

Sven Crone teilte seine Erfahrungen in den Bereichen KI und Prognose mit und bemerkte die langsame Einführung von KI in der Nachfrageplanung. Er erörterte die Komplexität der Integration von KI in die Prozesse der Nachfrageplanung und schlug vor, dass KI in Zukunft möglicherweise Nachfrageplaner ersetzen könnte. Gleichzeitig hob er die Heterogenität der Prognosen hervor, da verschiedene Branchen unterschiedliche Ansätze erfordern.

Alexey Tikhonov argumentierte, dass die Nachfrageplanung ein veralteter Ansatz sei und dass interventionelle, urteilbasierte Prognoseanpassungen Zeitverschwendung darstellen. Er plädierte für die probabilistische Vorhersage, die das strukturelle Risikomuster erfasst, und kritisierte die Nachfrageplanung wegen ihres Mangels an wirtschaftlicher Perspektive und Automatisierung. Außerdem sprach er sich für eine vollständige Automatisierung des Entscheidungsprozesses in supply chains aus, da die Komplexität und das Ausmaß der in supply chains erforderlichen Entscheidungen dies notwendig machen.

Die Podiumsteilnehmer diskutierten auch den Wert von Prognosen in der Entscheidungsfindung. Nicolas Vandeput betonte, dass Prognosen dazu erstellt werden, um die Entscheidungsfindung zu erleichtern, und sprach sich für Modelle aus, die so viele Informationen wie möglich verarbeiten können. Er schlug außerdem vor, bei der Bewertung einer Prognose den Fokus auf die Prognosegenauigkeit zu legen statt auf Geschäftsergebnisse, da Letztere von vielen anderen Faktoren beeinflusst werden können, die außerhalb der Kontrolle des Prognostikers liegen.

Sven Crone erörterte die industrielle Perspektive der Nachfrageplanung und betonte die Bedeutung langfristiger strategischer Entscheidungen sowie szenariobasierter Planung. Er hob außerdem die Herausforderungen bei der Messung des Mehrwerts und die Bedeutung des Urteilsvermögens im Prozess hervor.

Alexey Tikhonov stellte den Wert einer genaueren Prognose in Frage, falls diese nicht zu einer anderen Entscheidung führt. Er argumentierte, dass der Wert einer Entscheidung nicht allein von der Prognose abhängt, sondern auch von anderen Faktoren wie den Entscheidungsantrieben.

Die Podiumsteilnehmer diskutierten auch das Vertrauen in Prognosen, wobei Nicolas Vandeput vorschlug, dass der einzige Weg, Vertrauen in eine Prognose aufzubauen – sei sie von einem Menschen oder einer Maschine erstellt – darin besteht, die Genauigkeit jedes einzelnen Schrittes im Prozess zu verfolgen. Sven Crone stimmte zu, dass Vertrauen wichtig sei, und schlug vor, dass eine Kombination aus KI und einfachen, transparenten Methoden genutzt werden könnte, um Teile des Prozesses zu automatisieren.

Die Podiumsteilnehmer diskutierten auch die Zukunft der Nachfrageplaner. Sven Crone ist der Ansicht, dass Nachfrageplaner auch in Zukunft eine Rolle spielen werden, aber sie werden zunehmenden Herausforderungen gegenüberstehen, bedingt durch die steigende Häufigkeit von Entscheidungen und die wachsende Menge an verfügbaren Daten. Nicolas Vandeput sieht die Rolle der Nachfrageplaner darin, sich darauf zu konzentrieren, Daten und Informationen zu sammeln, zu strukturieren und zu bereinigen. Alexey Tikhonov glaubt, dass Nachfrageplaner langfristig nicht mit intelligenten Systemen konkurrieren können werden.

Das Panel schloss mit einer Fragerunde ab, in der die Podiumsteilnehmer Fragen aus dem Publikum zu Themen wie den Bedingungen oder Anforderungen für die Schaffung automatischer Entscheidungen in der Nachfrageplanung, der Rolle des Urteilsvermögens in der Nachfrageplanung und der Integration des Bias des menschlichen Urteils in den statistischen Bias zur Reduzierung des Gesamteffekts behandelten.

Vollständiges Transkript

Robert Fildes: Ich bin Robert Fildes und leite diese beiden Sitzungen ein. Aus logistischen Gründen wurden sie vertauscht und wir werden in der nächsten Stunde etwa über die veränderte Rolle der Nachfrageplaner sprechen und darüber, wie sich ihre Aufgaben durch die Fortschritte in KI und Machine Learning potenziell erheblich verändern könnten. Das Panel wird in Kürze seine weisen Worte kundtun. Die Sitzung, in der Paul Goodwin und ich über zahlreiche empirische Belege zur Rolle des Urteilsvermögens sprechen, wurde auf heute Nachmittag um 15:10 verschoben. Sie steht jedenfalls im Programm. Ja, hinsichtlich der urteilsbasierten Anpassung werden wir darüber sprechen, allerdings nicht in diesem Raum, sondern in einem anderen. Ich freue mich also darauf, Sie dann zu sehen, und freue mich auf eine anregende und vorzugsweise kontroverse Diskussion. Ich übergebe nun an den Vorsitzenden, Conor.

Conor Doherty: Vielen Dank, Robert. Hallo zusammen, ich bin Conor, Leiter der Kommunikation bei Lokad, und ich freue mich sehr, heute ein renommiertes Panel aus Wissenschaft und Industrie auf der Bühne begrüßen zu dürfen. Zu meinem unmittelbaren Linken steht Alexey Tikhonov, Business- und Produktentwickler bei Lokad. Zu seiner Linken Dr. Sven Crone von der Lancaster University, CEO und Gründer von iqast, und nicht zuletzt Nicolas Vandeput von SupChains. Das Thema der heutigen Diskussion, wie Sie hoffentlich auf dem Bildschirm sehen können, lautet Nachfrageplanung und die Rolle des Urteilsvermögens in der neuen Welt der KI und des Machine Learning.

Ich bin mir angesichts der anwesenden Experten auf der Bühne ziemlich sicher, dass dies ein lebhafter Austausch von Ideen wird, und ich denke, jede technologische Weiterentwicklung wirft in der Regel die Frage auf, wie diese Entwicklungen die menschliche Beteiligung beeinflussen werden. Ich freue mich also sehr darauf, unseren drei Podiumsteilnehmern dabei zuzuhören. Bevor wir beginnen, ein wenig Organisatorisches: Jeder Podiumsteilnehmer hat 5 Minuten Zeit, um seine Perspektive zum Thema darzulegen. Zuerst wird Nicolas sprechen, dann Sven und schließlich Alex.

Anschließend werde ich einige Fragen stellen, die dazu dienen sollen, einige Details und Implikationen ihrer Perspektiven herauszuarbeiten, und falls wir uns alle noch gegenseitig zuhören, hoffentlich auch einige Fragen aus dem Publikum. Was ich sagen möchte: Bitte, wenn möglich, entwickeln Sie bereits einige Ideen, bevor das Mikrofon übergeben wird, anstatt einen Monolog zu halten, der mit einem Fragezeichen endet. Damit übergebe ich zunächst an Nicolas – bitte, Ihre Sichtweise zum Thema.

Nicolas Vandeput: Vielen Dank, Conor. Hallo zusammen. Super, ich habe die Folien. Lassen Sie mich Ihnen die Vision vorstellen, die ich für Exzellenz in der Nachfrageplanung im Zeitalter von Machine Learning habe, und wie man im Bereich der supply chain Nachfrageprognose Machine Learning grundsätzlich mit menschlicher Anreicherung integrieren kann. Auf der Folie sehen Sie vier Schritte. Lassen Sie mich das erläutern.

Das Erste, was mir wichtig ist, ist, die Nachfrageprognose als ein Informationsspiel zu betrachten. Grundsätzlich bedeutet das, dass Sie so viele Daten, Informationen, Erkenntnisse – wie auch immer Sie es nennen möchten – über die zukünftige Nachfrage sammeln wollen. Das können Ihr Aktionskalender, der Umfang der geplanten Werbung, Verkaufsdaten, Lagerbestände beim Kunden, bereits im Voraus erteilte Bestellungen von Ihren Kunden und vieles mehr sein. Es wird in einigen Branchen unterschiedlich ausfallen, was völlig in Ordnung ist, aber im Grunde genommen ist mein Punkt: Der erste Schritt besteht darin, Informationen darüber zu finden, was auf einen zukommt. Sie sind ein Journalist, Reporter, Detektiv – gehen Sie und finden Sie diese Informationen.

Nachdem wir all diese Informationen gesammelt haben, müssen die strukturierten Daten in das Machine Learning eingespeist werden, und Sie möchten eine Machine Learning-basierte Nachfrageprognose-Engine erstellen, die automatisiert und unfehlbar ist. Mit automatisiert meine ich, dass es sich um ein Werkzeug handelt, eine Engine, die keine manuelle Modifikation, Überprüfung oder Feinabstimmung durch den Menschen benötigt. Diese Aufgaben werden möglicherweise von einem Data-Science-Team übernommen oder geschehen automatisch – sie ist vollkommen automatisiert. Unfehlbar bedeutet, dass Ihre Machine Learning Engine auf die meisten Ihrer Geschäftstreiber reagieren muss, nämlich Promotion, Preise, Fehlbestände, vielleicht Werbung, Wetter, Feiertage und dergleichen. Sie ist also gegenüber den meisten Geschäftstreibern unfehlbar und vollständig automatisiert, sodass Sie sie nicht anfassen oder überprüfen müssen.

Wenn Sie das haben, können menschliche Nachfrageplaner die Prognose dennoch mit den von ihnen gefundenen Informationen anreichern, die im Modell nicht enthalten sind. Stellen Sie sich zum Beispiel vor, sie rufen Ihren Kunden an, und ein Kunde sagt: “Nun, es ist wirklich eine schwierige Zeit, ich werde diesen Monat nicht bestellen.” Der Kunde wird nicht das Machine Learning-Modell anrufen, denn das Modell ist sich dessen nicht bewusst. Der Planer jedoch ist es. Der Planer sollte die Prognose überprüfen und anpassen, weil er etwas weiß, was dem Modell nicht bekannt ist.

Letzter Schritt, der Mehrwert der Prognose. Dies ist ein absolut kritischer Schritt – ich würde sogar damit beginnen. Das bedeutet, dass wir den Mehrwert aller Beteiligten im Prozess nachverfolgen müssen. Wir müssen die Prognosegenauigkeit vor und nach der Anreicherung messen, um sicherzustellen, dass die Anreicherung im Laufe der Zeit echten Mehrwert schafft. Natürlich kann jeder mal Glück oder Pech haben, das ist völlig in Ordnung. Nicht jede einzelne Anreicherung wird Mehrwert schaffen, aber was wir im Laufe der Zeit beweisen und zeigen wollen, ist, dass diese Anreicherungen im Durchschnitt einen Mehrwert bieten. Es lohnt sich also, die Zeit dafür zu investieren. Das war meine vierstufige Vision, wie man Machine Learning und Nachfrageplaner integriert.

Conor Doherty: Vielen Dank, Nicolas. Nun übergebe ich an Sven.

Sven Crone: Danke. Ja, vielen Dank. Ich bin Sven Crone von der Lancaster University, Assistenzprofessor dort mit wahrscheinlich fast zwei Jahrzehnten Forschung in den Bereichen KI und Prognose. Also, ich muss gleich vorweg sagen, dass ich ganz klar zugunsten der KI voreingenommen bin – Sie sollen sich dessen bewusst sein. Gleichzeitig haben wir ein kleines Unternehmen gegründet, in dem wir versucht haben, großen multinationalen Unternehmen dabei zu helfen, neue Technologien zu nutzen, und wenn ich auf diese Jahrzehnte zurückblicke, ist das extrem schwierig. Ich denke, wir müssen heute – hoffentlich im Panel – einige Elefanten im Raum ansprechen.

Sven Crone: Obwohl diese Vision seit vielen Jahren existiert – dass wir Statistik durch KI ersetzen können, wir können das mit Statistik austauschen – waren wir, denke ich, in Bezug auf die Betrachtung der Nachfrageplanungsprozesse nicht besonders transformativ. Das ist meine grundlegende Voreingenommenheit. Was ich aus meiner Erfahrung berichten kann, ist, dass wir viele Nachfrageplaner darin geschult haben, einige der exponentiellen Glättungsalgorithmen und ARIMA-Algorithmen zu verstehen. Ich kann Ihnen sagen, dass das kein angenehmes Unterfangen ist. Sie brauchen lange, um sich darauf einzulassen. Es ist ein angenehmer Prozess mit der Nachfrage, aber es ist sehr schwer, sie dazu zu bringen, einige der einfacheren Technologien zu akzeptieren. Ich denke, wir werden später noch ein wenig darüber sprechen, was passiert, wenn diese Technologie noch weiter fortschreitet und die Menschen mit ihr interagieren müssen.

Aber der aktuelle Stand, vor etwa 10 Jahren, war die Nutzung von KI sehr begrenzt, obwohl neuronale Netzwerke seit über 60 Jahren existieren – zurückgehend zu einigen der frühen Innovationen, insbesondere in den 1980er Jahren. Aber die Einführung verlief vergleichsweise langsam. In den letzten zwei oder drei Jahren führen wir regelmäßig Umfragen auf Practitioner-Konferenzen durch. Wir sprachen gerade auf einer Practitioner-Konferenz, der ASM, zusammen in Brüssel, und haben eine Umfrage im Publikum durchgeführt. Wir fragten, wie viele Leute tatsächlich live mit einem Proof of Concept in KI und ML arbeiten, und etwa 50 % des Publikums waren dabei. Das ist ein Anstieg von 5 bis 10 % vor 10 Jahren. Jetzt führen 50 % einen Proof of Concept durch. Sie sind noch nicht in der Produktion, aber einige sind bereits produktiv, und wir sahen hier bereits einige großartige Unternehmen, die das ausprobieren. Also keine Ängste im Publikum und einige andere – wirklich interessante Fallstudien. Aber was auch auffällt, ist, dass ebenso viele Projekte, die erfolgreich sind, auch scheitern.

Wir hatten also einen großen Teil des Publikums, bei dem KI-Projekte nicht erfolgreich waren, und ich denke, es ist genau diese Schnittstelle zwischen embedding einer Technologie in einen Bedarfsplanungsprozess, der weit mehr ist als nur der Forecasting-Schritt. Wenn wir die Industrie betrachten, müssen wir uns Master Data Management, Datenbereinigung, Priorisierung, Fehlerkennzahlen, das Betreiben eines statistischen Modells, dann eventuell die Analyse von Fehlern, das Identifizieren von Alarmen und das anschließende Anpassen ansehen. Und übrigens – selbst wenn man einen voll ausgearbeiteten statistischen Basisprognose-Prozess hat, den die Mehrheit der Unternehmen auch heute noch nicht besitzt – hat Gartner eine wunderschöne Reifegradlandschaft der verschiedenen Stufen der S&OP-Reife.

Sehr wenige Unternehmen befinden sich auf Stufe vier; die meisten liegen zwischen eins, zwei und drei. Selbst wenn man einen statistischen Prozess hat, wie man die time series-Historie bereinigt – ob automatisch oder manuell –, ist das eine auf Einschätzung beruhende Entscheidung. Welchen Algorithmus man wählt, ist eine Entscheidung. Welche Meta-Parameter durchsuchen zu lassen, ist ebenfalls eine auf Einschätzung beruhende Entscheidung. Es steckt also viel Urteilskraft dahinter, aber ich denke, traditionell betrachten wir das Urteil, die finale Anpassung einer statistischen Basisprognose – ob sie nun verstanden wird oder nicht. Und wenn wir in die Zukunft blicken, habe ich nicht viel Bewegung oder Innovation gesehen, wenn es darum geht, den S&OP-Prozess zu innovieren, wie er von O.W. entworfen wurde; ich sehe, dass Führungskräfte ernsthaft über den mangelnden Fortschritt verärgert sind – den wahrgenommenen Mangel – obwohl es oft Fortschritte in der Entwicklung der Prozesse gibt.

Aber ich glaube, es gab einen CEO von Unilever, der sagte, dass wir die Bedarfsplanung abschaffen müssen, denn sie funktioniert in COVID-Zeiten nicht. Einige echte Herausforderungen stehen Bedarfsplanern bevor, um ihre Arbeitsplätze zu sichern, und sofern sie KI nicht einsetzen, denke ich, gibt es ein realistisches Szenario, dass KI – wie du sagtest, wenn man all dies schafft – in der Lage sein wird, Bedarfsplaner selbst in den einschätzungsbasierten Anpassungsschritten zu ersetzen. Aber wir sind noch nicht so weit. Ich freue mich darauf, eure Ansichten zu hören.

Conor Doherty: Nun, danke, Sven. Alexey, bitte, teile deine Gedanken mit.

Alexey Tikhonov: Danke. Mein Vorschlag wird radikal anders sein. Ich denke, zunächst müssen wir den Umfang erweitern, denn Bedarfsplanung existiert in der supply chain, und das Ziel der supply chain ist es, Entscheidungen unter Unsicherheit zu treffen – profitable Entscheidungen unter Unsicherheit und unter Berücksichtigung von Einschränkungen. Was dieses Ziel angeht, ist meine Auffassung, dass Bedarfsplanung ein veralteter Ansatz ist und einschätzungsbasierte Prognoseeingriffe verschwenderisch sind, selbst wenn sie helfen, die Prognosegenauigkeit nur geringfügig zu verbessern. Warum ist das so?

Bedarfsplanung ist ein veralteter Ansatz, weil sie unterstellt, dass wir Prognose und Entscheidungsfindung trennen müssen. Diese Trennung führt zwangsläufig zur Auswahl einfacher Werkzeuge, da wir eine Mensch-zu-Mensch-Schnittstelle einführen. Wir müssen Informationen in sehr einfacher Form übermitteln und wählen Punktprognosen, weil jeder Punktprognosen verstehen kann. Die Berechnung von Genauigkeitsmetriken ist einfach, sodass wir über diese Werte diskutieren und sie nach oben oder unten anpassen können. Aber leider verhindert diese Werkzeugwahl, dass wir profitable Entscheidungen treffen.

Um eine profitable Entscheidung zu treffen, müssen wir finanzielle Risiken und Erträge bewerten. Das können wir nur, wenn wir das strukturelle Muster des Risikos erfassen. Soweit ich weiß, gibt es nur ein Werkzeug, das dies ermöglicht: Es nennt sich probabilistische Prognose, bei der anstelle einzelner Punktvorhersagen eine fundierte Meinung darüber abgegeben wird, wie alle möglichen Zukünfte aussehen und welche Wahrscheinlichkeiten für verschiedene Szenarien bestehen.

Ich spreche nicht nur von der Nachfrage. Es gibt andere Unsicherheiten; zum Beispiel könnten Unsicherheiten in der lead time bestehen, die berücksichtigt werden müssen. Dies ist besonders relevant, wenn es um Waren geht, die aus dem Ausland geliefert werden. Dann könnte es Ertragsunsicherheiten geben, wenn es um die Produktion von Lebensmitteln geht. Bei e-commerce kann es zudem Unsicherheiten bei Retouren geben. Es gibt also mehrere Quellen der Unsicherheit, und man benötigt spezielle Werkzeuge, das probabilistische Modellieren, um all diese Unsicherheiten zu kombinieren, damit man in späteren Phasen Entscheidungen ableiten kann.

Bedarfsplanung bietet uns nur eine Version der Zukunft, nämlich eine Punktvorhersage, die das wahrscheinlichste Szenario darstellt. Aber wir sind an den Randbereichen dieser Verteilung interessiert, da sich Risiken an zwei Extremen konzentrieren. Aus dieser Perspektive der Bedarfsplanung ergibt sich zwangsläufig, dass wir nur eine Entscheidungsoption in Betracht ziehen. Man hat eine Punktprognose, wendet entweder eine safety stock-Formel oder eine einfache inventory policy an und leitet daraus eine Entscheidung ab. Aber ist diese Entscheidung profitabel? Was, wenn ich sie nach oben oder unten ändere? Wie verändert sich meine erwartete Profitabilität? Das kann ich nicht, da meine Vorhersagen Punktprognosen sind. Ich gebe keine Wahrscheinlichkeiten für diese Szenarien an.

Das dritte Problem bei der Bedarfsplanung ist, dass die wirtschaftliche Perspektive völlig fehlt. Wir sprechen von Prognosegenauigkeit in Prozent oder, falls wir verschiedene Metriken verwenden, die Genauigkeit in Einheiten messen, fehlt uns die finanzielle Perspektive. Wir müssen also die erwarteten Kosten, erwarteten Erträge schätzen und auch sekundäre Einflussfaktoren ermitteln, beispielsweise wie wir Lagerentscheidungen für verschiedene Produkte vergleichen. Jeder Einzelhändler weiß zum Beispiel, dass es viel wichtiger ist, Windeln auf Lager zu haben als Premium-Schokolade, denn wenn Sie das erste Produkt nicht haben, werden Ihre Kunden enttäuscht sein, und Sie verlieren die Kunden loyalty.

Bedarfsplanung hindert uns an einer umfassenden Automatisierung. Was sollen wir automatisieren? Wir werden die Produktion der Endentscheidungen automatisieren und nicht nur die Prognose. Wir müssen die gesamte Pipeline automatisieren. Unsere rohen Transaktionsdaten müssen in umsetzbare Entscheidungen umgewandelt werden, die bereits alle Entscheidungseinschränkungen – wie Mindestbestellmengen (MOQs) und andere Entscheidungsfaktoren wie Preisstaffelungen – berücksichtigen.

Und nicht zuletzt muss es eine Verantwortlichkeit geben. Zurzeit gibt es keine Verantwortlichkeit für die Endentscheidungen, da wir diesen Übergabeprozess haben, bei dem die Prognose an ein anderes Team übergeben wird, das dann die Entscheidung ableitet, und anschließend folgt ein Schuldzuweisungsspiel: “Oh, wir haben diese Entscheidung getroffen, weil deine Prognose ungenau war oder weil es eine einschätzungsbasierte Erhöhung der Prognose gab, die uns zu einer falschen Entscheidung geführt hat.”

Zusammenfassend lässt sich sagen, dass die Perspektive der Bedarfsplanung veraltet ist und wir etwas Besseres haben. Danke.

Conor Doherty: Nun, wir werden uns heute einigen, aber nicht in allem. Darf ich darauf antworten, denn in einigen Aspekten stimme ich dir vollkommen zu. Ich denke, du hast die Punkt- versus Intervall- oder Wahrscheinlichkeitsverteilungsprognose erwähnt, nicht wahr? Aber es gibt viele Softwarepakete, die das schon seit vielen Jahren tun, doch Praktiker ignorieren es. Ich glaube jedoch, dass wir alle den Wert darin erkennen, nicht nur den Nachfragewert, sondern auch das damit verbundene Risiko zu kommunizieren.

SAS macht das schon seit langem, Forecast Pro tut es, und sogar Forecast X macht das, aber es wird weitgehend ignoriert. Warum wird es also ignoriert? Wir sollten wahrscheinlich darüber sprechen, warum Bedarfsplaner Intervallprognosen nicht verstehen – das wäre interessant. Ein weiterer Punkt, den du erwähnt hast und den ich ebenfalls gut finde, ist, dass es oft eine Diskrepanz zwischen Bedarfsplanung und Lagerplanung, supply network planning sowie Produktionsplanung gibt, was es ermöglichen würde, eine ganzheitliche Lösung zu entwickeln.

Aber wenn man an große multinationale Unternehmen denkt, glaube ich, dass die Prozesse so gestaltet sind, dass Entscheidungen von Zehntausenden von Mitarbeitern getroffen werden, die alle eingreifen, jedoch ihr Wissen nicht frei teilen. Und der dritte Punkt ist, dass wir uns überlegen müssen, was überhaupt betrachtet wird. Ich denke, wir alle haben unterschiedliche Hintergründe in der Bedarfsplanung. Ich komme aus der Industrie multinationaler Unternehmen – beispielsweise aus multinationalen Transportunternehmen, vom schnelllebigen Konsumgüterbereich, Pharma –, während ihr wahrscheinlich eher einen Einzelhandelsfokus und entsprechenden Hintergrund habt, in dem diese Dinge zusammengefasst werden können.

Aber was wir sehen – es gibt sehr schöne Bücher von Charlie Chase von SAS – ist, dass er über demand-driven supply planning geschrieben hat. Es geht um die Abstimmung von Nachfrage und Angebot. Es ist ebenso ein Prozess, Informationen zu teilen, Erwartungen zu kommunizieren und Risikomanagement zu betreiben – genauer gesagt Risikomanagement über einen langfristigen Horizont im S&OP, grob 6 bis 18 Monate im Voraus. S&OE betrachtet hingegen einen Zeitraum von ein bis vier Monaten, und dieser Informationsaustausch kann, unabhängig von der finalen Einzahlprognose, von unschätzbarem Wert sein.

Ich bestreite nicht, dass wir in Bezug auf die Integration der Entscheidungsfindung noch einen langen Weg vor uns haben. Aber ich denke, Bedarfsplanung erfüllt mehr als einen Zweck. Im Interesse der Sache schauen wir heute auf die Automatisierung – vielleicht wird KI im Kontext der Automatisierung eingesetzt, und wir konzentrieren uns überwiegend auf Genauigkeit. Aber nur sehr wenige Menschen betrachten tatsächlich den Informationsaustausch. Es gibt einige interessante Arbeiten zur Robustheit von Prognosen. Ich meine, was passiert, wenn du deine Prognose ständig änderst mithilfe eines sehr reaktiven Machine-Learning-Modells und die Produktionsplanung völlig aus dem Takt gerät, weil sie über die lead time aufsummieren und du Überbestände oder Unterbestände erhältst und Produktionsaufträge einführst.

Also denke ich, wenn wir uns vielleicht auf den Bedarfsplanungsprozess und den Beitrag der Prognose in der Bedarfsplanung konzentrieren – da der andere Teil supply planning, network planning und Produktionsplanung ist – würde das unsere Diskussion zwar erschweren, aber ich stimme dir voll und ganz zu, dass das ein wichtiger Aspekt wäre.

Alexey Tikhonov: Vielleicht mit einem kurzen Kommentar. Ja, mein Standpunkt ist nicht, dass wir einen besseren Informationsaustausch oder eine bessere Prognose benötigen. Mein Standpunkt ist, dass wir den Entscheidungsfindungsprozess vollständig automatisieren müssen. Wir sollten supply chain practitioners nicht in den Prognoseprozess einbeziehen, da supply chains immens komplex sind. Wir sprechen von Unternehmen, bei denen selbst mittelständische Unternehmen mit einem Umsatz von 100 Millionen in der Einzelhandelsbranche Zehntausende von SKUs und Hunderte von Filialen haben. Man multipliziert eines mit dem anderen, und für jeden SKU-Standort muss täglich eine Entscheidung getroffen werden.

Selbst wenn du vordefinierte Entscheidungzyklen hast, wie etwa “Ich treffe diese Entscheidung einmal pro Woche”, solltest du diese Entscheidungen dennoch täglich neu berechnen. Warum? Weil die menschliche Kapazität begrenzt ist. Du brauchst einen Computer, der prüft: “Okay, wenn es einen Nachfragesteigerung gibt, sollte ich das vor meinem üblichen Entscheidungzyklus wissen, da ich erwarte, dass die Nachfrage gleichmäßiger verläuft.” Daher müssen diese Entscheidungen täglich neu getroffen werden, auch wenn der Großteil dieser Entscheidungen trivial ist – nämlich “Heute tätigen wir keinen Einkauf.”

Die menschliche Kapazität ist sehr begrenzt, und wenn wir über den Informationsaustausch zwischen Menschen sprechen, vergeuden wir Zeit. Wir müssen so viel wie möglich automatisieren. Wir müssen kapitalistisch agieren. Wir müssen Vermögenswerte aufbauen – Entscheidungsroboter. Nur dann können wir Profitabilität aus supply chains herausholen.

Nicolas Vandeput: Würdest du bitte für eine Minute zu meiner Folie zurückgehen? Ich würde das gerne strukturieren. Also fange ich mit meinem Rahmenkonzept an und möchte es noch extremer gestalten, um die Diskussion von dort aus fortzusetzen. Ich denke, wir sind uns alle einig, dass wir Prognosen nur erstellen, weil wir großartige Entscheidungen treffen wollen. Und wir würden sagen, vielleicht wäre diese Art von Prognose besser, diese Art von Prognose, diese Granularität, dieser Horizont, Punktprognose und so weiter. Aber wir sind uns alle einig, dass wir Prognosen erstellen, weil wir irgendwann eine Entscheidung treffen müssen.

Warum neigen wir alle hier so sehr zur Automatisierung? Es liegt daran, dass wir so viele Prognosen und so viele Entscheidungen im großen Maßstab treffen müssen und wir keine Variabilität wollen. Wenn ein Mensch beteiligt ist, führt das zu Variabilität. Es gibt schlichtweg zu viele Prognosen und Entscheidungen, die getroffen werden müssen. So wie ich Prognosen sehe, hängt alles davon ab, wie viel Information du verarbeiten kannst und wie gut du darin bist, diese Informationen zu verarbeiten. Ich möchte ein Modell, das so gut wie möglich darin ist, mit möglichst viel Information umzugehen.

Die Technologie, die wir haben, könnte sich in 10 Jahren ändern. Wir könnten ein einziges Modell haben, das mit allen verfügbaren Informationen der Welt zurechtkommt. Nehmen wir ein sehr einfaches Beispiel: die COVID-19-Pandemie. Stellen wir uns vor, es ist Mitte März 2020. Wenn du eine Prognose-Engine hast – selbst mit der besten Lerntechnologie, die wir heute besitzen – weißt du als Mensch, dass COVID eintreten wird und sich der Zustand der Welt und der Stadt in den folgenden Wochen verändern wird. Dein Modell ist sich dessen nicht bewusst.

Du könntest eine Punktprognose haben oder eine probabilistische Prognose, aber als Mensch musst du diese trotzdem anreichern und überprüfen, weil du Zugang zu Informationen hast, auf die dein Modell keinen Zugriff hat. Für mich hat die Diskussion darüber, ob es eine Punktprognose sein sollte, keinen Sinn, denn die Schlussfolgerung bleibt dieselbe: Es geht darum, wie viel Information du deinem Modell so weit wie möglich zuführen kannst.

Und wenn du deinem Modell bestimmte Informationen nicht zuführen kannst, dann ist es an der Zeit, dass ein Mensch diese anreichert. Deshalb ist es immer sinnvoll, einen letzten Menschen zu haben, der in der Lage ist, eine Entscheidung oder Prognose anhand von Informationen zu überprüfen, die das Modell nicht verarbeiten kann.

Sven Crone: Ich denke, wir sprechen hier über verschiedene Branchen. Wenn wir uns die Bedarfsplanung anschauen, stimme ich dir voll und ganz zu: Wenn du im Einzelhandelssektor tätig bist und täglich zigtausende Entscheidungen treffen musst, dann benötigst du ein erhebliches Maß an Automatisierung.

Aber wir arbeiten schon seit einiger Zeit intensiv mit Einzelhändlern im Vereinigten Königreich zusammen, und selbst dort werden Anpassungen im Sortiment vorgenommen, bei denen Unsicherheiten eine Rolle spielen – etwa extremen Wetterereignissen oder den Auswirkungen von COVID-Schließungen auf Duschgel im Vergleich zu Toilettenpapier in Deutschland.

Aber wenn man sich beispielsweise einen Pharmahersteller anschaut, der vielleicht zwei bis 400 Kernprodukte hat, dann sind diese durchaus von einem Menschen handhabbar. Ich meine, warum kommen all diese Unternehmen so zurecht? Wir haben Umfragen durchgeführt, und etwa 50 % der Unternehmen verwenden sehr einfache statistische Maßnahmen. Sie kommen zurecht, sie sind profitabel, sie wachsen, sie sind agil in ihrer supply chain, und sie haben alle S&OP eingebettet.

Es gibt also ein ganzes Spektrum an Problemen, mit denen wir konfrontiert sind, und ich denke, das ist eines der Dinge, die ich auf dieser Konferenz immer liebe. All diese unterschiedlichen Prognoseansätze kommen zusammen. Wir haben Leute, die uns die Stromlast für Smart Meter präsentieren. Ja, man hat Hunderttausende von Smart Metern mit minutengenauer Prognose, bei denen kein menschliches Eingreifen praktikabel ist.

Aber wenn Sie nur sehr wenige wichtige Artikel haben, die Sie wirklich gut verstehen – sagen wir in einem Pharmaunternehmen, bei dem wir uns beispielsweise Impfstoffe angeschaut haben, die gut bekannt sind – dann gibt es, denke ich, verschiedene Ansätze in der Bedarfsplanung.

Was wir in der Prognose tun, ist so heterogen wie Produkte und Märkte, und das ist das Schöne daran. Deshalb sitzen wir alle an der Bar und sprechen über Prognosen, obwohl wir über völlig unterschiedliche Dinge reden. Aber ich stimme dir voll und ganz zu, dass im Einzelhandelssektor Automatisierung möglich ist.

Wir haben uns darauf geeinigt, uneinig zu sein, dass die Welt groß genug ist für all die verschiedenen Softwarepakete, um spezialisierte Lösungen zu ermöglichen. Deshalb haben große Unternehmen wie SAP spezialisierte Lösungen für den Einzelhandel, die anders funktionieren als solche für Konsumgüter und Pharmazeutika in der Industrie oder für andere Bereiche. Also denke ich, dass wir uns einig sind – nur aus unterschiedlichen Blickwinkeln.

Conor Doherty: Alex, möchtest du etwas dazu sagen?

Alexey Tikhonov: Nur ein kleiner Kommentar. Ich kann der Behauptung nicht zustimmen, dass Menschen in den Prognoseprozess eingreifen müssen. Wo Menschen einen Mehrwert bieten können, tun sie dies an den Eingaben dieser Entscheidungsmaschine, um Daten-Semantik zu klären, mehr Daten einzubringen und dem Ingenieur, der all diese Algorithmen bzw. die Entscheidungsmaschine entwickelt, zu erklären, wie die Daten im Geschäft verwendet werden, sodass er ein besseres Gesamtbild erhält.

Und dann können sie am Ende einen Mehrwert schaffen, indem sie die Entscheidungen überprüfen, die die Entscheidungsmaschine generiert – jene aus ihrer Sicht verrückten oder ungenauen Entscheidungen – und daraufhin das numerische Rezept überarbeiten, um herauszufinden, was falsch läuft. Welche Annahmen sind fehlerhaft? Warum fällt die falsche Entscheidung aus? Denn wenn sie dazwischen eingreifen, berühren sie die Prognose oder außer Kraft setzen die Entscheidung – das ist so, als würden Ressourcen verbraucht statt investiert. Man muss in erster Linie Wege finden, wie man diese Robotisierung verbessern kann, denn wenn man es manuell macht, verschwendet man Zeit.

Und übrigens, man sollte mit den Entscheidungen beginnen, nicht mit der Prognose. Denn was, wenn ich eine Mindestbestellmenge von 100 Einheiten hätte und du zu mir kommst und sagst: “Oh, jetzt habe ich eine bessere Prognose. Anstatt 50 Einheiten Nachfrage gibt es 55.” Nun, ich habe immer noch eine Mindestbestellmenge, sodass beide Prognosen aus meiner Sicht irgendwie irrelevant sind, auch wenn eine von ihnen genauer ist. Ich treffe immer noch dieselbe Entscheidung, und obwohl du mehr Ressourcen in die Erzeugung einer potenziell genaueren, aber rechenintensiveren Prognose investiert hast, erzielst du zwar eine bessere Prognosegenauigkeit, aber insgesamt sind wir in einer negativen Situation, da wir mit demselben Entscheidungsprozess mehr Ressourcen verbrauchen.

Deshalb bin ich dagegen, die einzelnen Schritte des Prozesses manuell anzupassen. Überarbeite das gesamte Rezept, um die Automatisierung zu verbessern – robuster, zuverlässiger und sinnvoller zu gestalten.

Sven Crone: Es ist nur schade, dass wir nicht vorher die Diskussion von Robert und Paul hatten, die wahrscheinlich am Nachmittag den Forecast Value Added betrachtet haben, denn wir haben viele Belege dafür, dass neben fortgeschrittenen statistischen Methoden auch das Urteilsvermögen einen erheblichen Mehrwert liefern kann.

Und ich denke, die heute aufgeworfene Frage lautet: Kann Machine Learning den Mehrwert von Statistik und Urteilsvermögen übertreffen oder ist es das Gleiche? Und ich denke, die Frage der Total Cost of Ownership ist ebenfalls interessant – welche Methode ist effizienter?

Ich bin mir ziemlich sicher, dass Nicolas viele Beispiele hat, die du bereits erwähnt oder von denen du berichtet hast, in denen ihr tatsächlich den gesamten Prozess automatisiert und dadurch mehr Wert geschaffen habt, als wenn ihr manuelle Anpassungen vorgenommen hättet. Aber lass uns vielleicht zur nächsten Frage übergehen.

Conor Doherty: Nun, eigentlich ist es eher ein Übergang, der im Grunde auch eine Art Transformation darstellt. Es geht darum, voranzukommen und tatsächlich die grundlegende Frage zu klären, denn wenn ich dir zuhöre, gibt es fast eine instrumentelle Uneinigkeit, aber insgesamt herrscht Einigkeit.

Und tatsächlich komme ich zuerst zu dir, Nicolas. Etwas, das du zuvor gesagt hast – und verzeih mir, falls ich es nicht exakt wiedergebe, ich paraphrasiere –: Wir nutzen Prognosen, um bessere Entscheidungen zu treffen. Das bedeutet, dass Prognosen ein Instrument in einem größeren Prozess sind, was dann die Frage aufwirft: Wo liegt der Mehrwert?

Denn wenn du Prognosen als Werkzeug einsetzt, um etwas Größeres zu erreichen, wo liegt dann der Wert? Liegt er im Werkzeug, das das Haus baut, oder in der Struktur des Hauses? In dieser Analogie wäre das Haus die Entscheidung.

Nicolas Vandeput: Ich denke, man hat zwei wichtige Fragen in Bezug auf Prognosen. Die erste lautet: Ist deine Prognose genau oder nicht? Und natürlich könnten wir darüber diskutieren, wie man Genauigkeit misst – sehr interessante Debatten, aber heute nicht das Thema. Angenommen, der erste Schritt besteht darin, zu beurteilen, wie genau bzw. gut sie ist.

Die zweite Frage lautet: Wie gut ist dein Unternehmen bei der richtigen Entscheidungsfindung basierend auf einer gegebenen Prognose? Leider sind die Teams, die diese Entscheidungen treffen, unterschiedlich – mit verschiedenen Eingaben, Ausgaben und KPIs.

Aus supply chain-Perspektive würde ich den Prognostikern oder denjenigen, die die Prognose-Engine erstellen, nicht die Schuld für schlechte Entscheidungen oder entscheidungsbezogene KPIs geben, da sie darauf keinen Einfluss haben. Gleichzeitig kann es vorkommen, dass du eine sehr schlechte Prognose hast und dennoch ein Entscheider vorhanden ist, der entweder Glück hat oder außergewöhnlich gut darin ist, trotz schlechter Prognosen gute Entscheidungen zu treffen.

So könnte es zwar sehr schöne Geschäftskpis geben. Natürlich könnten wir darüber diskutieren, welche KPIs relevant sind oder nicht, aber sie können in beide Richtungen wirken. Für mich persönlich würde ich bei der Bewertung einer Prognose nicht das Geschäftsergebnis in den Vordergrund stellen, sondern ausschließlich die Prognosegenauigkeit betrachten, weil ich weiß, dass das Geschäftsergebnis von so vielen anderen Faktoren beeinflusst werden kann, die völlig außerhalb der Kontrolle dessen liegen, der die Prognose erstellt – sei es Maschine oder Mensch.

Jetzt, was sehr interessant ist – und das habe ich für einige Kunden simuliert – ist, dass je nach Qualität deiner Prognose – und ja, wir könnten darüber debattieren, wie man Genauigkeit misst – und insbesondere abhängig von der Verzerrung, zum Beispiel, ob du sehr optimistisch voreingenommen bist (also unterprognostizierst) oder ob du ein ordnungsgemäß kalibriertes Tool hast, zumindest hoffe ich das –, die daraus resultierende supply chain optimization engine möglicherweise ganz andere Strategien verfolgt.

Die optimale Strategie bzw. die optimale Art, Entscheidungen zu treffen, könnte sich je nach Qualität der Prognose ändern. Das bedeutet auch, dass, wenn du heute von einer Prognose wechselst, die aufgrund politischer Voreingenommenheit alles extrem überprognostiziert, zu einer Prognose, die tatsächlich mittels Machine Learning erstellt wurde, du gleichzeitig überprüfen musst, wie deine supply chain decisions getroffen werden.

Die Menschen verlassen sich auf das Prozess-Tool-Engine. Historisch lag die Prognose immer 30 % zu hoch. Wenn du das jetzt änderst, musst du auch den Lieferprozess anpassen. Beides muss integriert werden. Aber aus supply chain-Perspektive würde ich die KPIs so weit wie möglich unabhängig bewerten.

Conor Doherty: Danke. Sven, was denkst du? Um die Frage noch einmal zu wiederholen: Wenn Prognosen ein Werkzeug sind, um etwas anderes zu erreichen, wo schreibst du den Mehrwert zu? Liegt er in der Qualität der Entscheidung oder in der Qualität der Prognose? Definiere das, wie du möchtest.

Sven Crone: Ich denke, das haben wir bereits angesprochen. Für mich bedeutet Bedarfsplanung – nach der Gartner-Definition der Bedarfsplanung und im Oliver-Wight-Prozess – dass wir das aus einer industriellen Perspektive betrachten. Nehmen wir die Pharma- und Konsumgüterindustrie: Normalerweise blicken sie auf viel längere Zeiträume als du. Sie planen beispielsweise 6 bis 18 Monate im Voraus. Die kostenintensiven Entscheidungen sind die strategischen. Du identifizierst langfristige Pläne, erstellst Prognosen, führst Gap-Closing-Aktivitäten durch und versuchst, Angebot und Nachfrage über einen viel längeren Zeitraum in Einklang zu bringen. Du hast keine Werbeinformationen, keine Wetterinformationen, keine Störung Informationen.

Aber das ist eine langfristige Perspektive. Wenn man sich das anschaut, hat der Großteil der Industrie immer noch eine Art dreimonatige Gefrierperiode – das heißt, man betrachtet den Zeitraum außerhalb dieser Periode. S&OE, das kürzlich von Gartner aufgegriffen wurde, betrachtet dies hingegen ganz anders. Für den langfristigen Horizont sind Transparenz und Kommunikation – um sich auf zum Beispiel geänderte Budgets, Neuausrichtung der Budgets und das Abgleichen von Mengen- und Wertzahlen einzustellen – wichtige Faktoren. Es handelt sich um einen sehr aggregierten Prozess: Man blickt auf hohe Ebenen der Hierarchie, auf Märkte, auf Vertriebskanäle, aber nicht auf einzelne Produkte.

Dann gelangt man in den täglichen Betrieb – und das ist S&OE. Bei S&OE gibt es, so bin ich der Meinung, automatisierte und standardisierte Entscheidungen; Genauigkeit ist wichtig, ebenso wie Transparenz, die oft übersehen wird, oder Robustheit. Aber ich denke, 85 % aller Präsentationen auf dieser Konferenz sprechen über Genauigkeit. Es gibt sogar eine ganze Sitzung über Robustheit, was erfreulich ist. Aber ich denke, die wichtigste Innovation zur Messung des gesamten Prozesses ist der Forecast Value Add. Dabei geht es darum, die einzelnen Bestandteile zu betrachten und zu sehen, wie sie Mehrwert schaffen. Das ist eine sehr managementorientierte Sichtweise, weil man Ressourcen dort investieren möchte, wo tatsächlich Wert geschaffen wird.

Leider berücksichtigt es Dinge wie Master Data Management nicht – das ist schwer zu messen. Es bezieht auch Aspekte wie Datenbereinigung nicht ein, die meiner Meinung nach für die statistische Prognose von wesentlicher Bedeutung sind, um überhaupt etwas zu erreichen. Und es fokussiert sich am Ende sehr auf den Menschen. Aber es fällt uns schwer, den Mehrwert zu messen, da man bei der Prognosegenauigkeit – typischerweise kosten- bzw. mengenbasiert – aggregiert feststellt, ob die besten Entscheidungen getroffen werden, was mit Fehlerkennzahlen gemessen wird, mit denen Akademiker nichts zu tun haben würden. Letztlich geht es aber darum, was der Mehrwert wirklich ist. Und dennoch gibt es viele Demand Planner, die im Tool tatsächlich eine Wahl für einen statistischen Algorithmus treffen. Sie können diese Wahl überschreiben, aber dieser Mehrwert wird dem statistischen Algorithmus zugeschrieben. Deshalb denke ich, dass dem Urteilsvermögen heute viel Wert beigemessen wird und dass es messbar ist. Und ich glaube, die Mehrheit der Unternehmen hat dies übernommen – Forecast Value Add ist ein gutes Instrument dafür. Und nochmals: Ich blicke auf den langfristigen Bereich und weitaus weniger auf den kurzfristigen, bei dem die Lagerperformance verknüpft werden sollte usw.

Conor Doherty: Okay, danke.

Alexey Tikhonov: Ich denke, wenn wir über Veränderungen in der Prognosegenauigkeit, potenzielle Verbesserungen und den Forecast Value Added Prozess sprechen, sind wir in den Begriffen verwirrt, denn der bessere Name wäre Forecast Accuracy Added, nicht Value. Denn wenn wir von Value sprechen, löst das für mich sofort eine finanzielle Perspektive aus. Und diese finanzielle Perspektive wird von Entscheidungen bestimmt – die Ergebnisse deines Geschäfts hängen ausschließlich davon ab, welche Entscheidungen du triffst und wie gut du diese umsetzt. Es ist also nichts anderes in dieser Perspektive involviert, nur Entscheidungen und deren Umsetzung.

Wenn wir Entscheidungen betrachten, zum Beispiel: Ich habe zuerst eine Prognose, die mich zu Entscheidung A führt, und dann eine zweite, genauere Prognose – ich weiß, um wie viel, ich kenne den Genauigkeitsunterschied – aber die Frage bleibt: Führt diese andere, genauere Prognose zu einer anderen Entscheidung? Wenn nicht, dann ist sie, trotz höherer Genauigkeit, nutzlos. Also, trotz scheinbar besserem Value, haben wir aus finanzieller Sicht einen Netto-Nachteil. Und falls die Entscheidung anders ausfällt, wie bewerten wir diese Entscheidungsschwankung – den Wechsel von Entscheidung A zu Entscheidung B – und wie viel zusätzlichen Gewinn erzielen wir im Vergleich zum Unterschied beim Ressourceneinsatz? Für mich ist das eine offene Frage. Wir können beide Prognosemodelle verwenden, um die potenziellen Erträge beider Entscheidungen zu evaluieren, aber es bleibt spekulativ, da wir nicht zwei alternative Universen haben, in denen wir beide Entscheidungen testen könnten. Letztlich müssen wir uns auf nur eine festlegen.

Und noch mehr: Der Entscheidungswert hängt nicht ausschließlich von der Prognose selbst ab. Es gibt weitere Überlegungen, wie beispielsweise Entscheidungstreiber. Ein Beispiel: Wir arbeiten mit Air France, und zwar mit deren MRO-Sparte für Flugzeugersatzteile. Erst kürzlich haben wir bei ihnen eine Entscheidungsmaschine implementiert, und neulich wurde ein Großkauf ausgelöst, bei dem ein Roboter – so glaube ich – mehrere Dutzend Hilfspower-Einheiten für ein Flugzeug erwarb, insgesamt mehrere Millionen Euro, ausgelöst durch einen Roboter. Und die Leute dachten: “Oh, das muss ein Fehler sein.” Aber als man nachprüfte, stellte sich heraus, dass jemand auf der anderen Seite einen Fehler gemacht und den Preis deutlich unter dem Durchschnittspreis des Marktes angesetzt hatte. Der Roboter hat das erkannt und sofort Ausführungsaufträge erteilt. Das hat nichts mit der Prognosegenauigkeit zu tun, aber diese Entscheidung hat enormen Wert.

Also, wie ihr seht, konzentrieren wir uns auf die Vorhersagegenauigkeit, aber es gibt so viele andere Faktoren, die den Wert der Entscheidung beeinflussen können. Daher denke ich, dass wir, wenn wir über den monetären Wert sprechen, uns nicht nur auf die Prognose verlassen sollten. Wir sollten den gesamten Prozess betrachten, wie wir Entscheidungen ableiten, was in die Überlegungen einfließt, wie unser Entscheidungsprozess aussieht, welche Faktoren wichtig sind und welche nur von untergeordneter Bedeutung sind.

Sven Crone: Um noch etwas hinzuzufügen: Ich stimme zu, und du hast bereits in der ersten Runde erwähnt, dass es eine Bestandsentscheidung geben sollte und dass man diese an Bestandsentscheidungen evaluieren sollte. Um fair zu sein: In der Wissenschaft haben die meisten – oder alle – Journale dies als gute oder zumindest minimale Praxis akzeptiert. Wenn man sich also die Journale in der Produktionsökonomie und der ISER, der Inventory Society, anschaut, ist das gute Praxis. Man sieht hier ziemlich viele Präsentationen von Akademikern, die tatsächlich die Entscheidungskosten anhand von Trade-off-Kurven über service level und Durchlaufzeiten messen und dabei die zugehörigen inventory cost angeben. Das ist etwas, das ich in der Praxis überhaupt nicht sehe.

Es ist in der Praxis sehr schwierig, aber möglich. Natürlich muss man Annahmen treffen. Die supply chain ist komplex, aber ich stimme dir voll und ganz zu. Die Entscheidungskosten sollten angemessen sein. Doch das führt zurück zu Granger 1969 und asymmetrischen loss functions. Normalerweise haben wir die Entscheidungskosten nicht vorliegen, weshalb wir etwas annehmen müssen. Was ich als eine enorme Lücke – ja, möglicherweise sogar als ein Versäumnis – sehe, ist der fehlende Zusammenhang zwischen Vorhersagegenauigkeit, wie auch immer man sie messen will, und den damit verbundenen Entscheidungskosten.

Wir hatten also tatsächlich ein Forschungsprojekt. Es gibt nur sehr wenige Unternehmen – Johnson and Johnson hat das in der Vergangenheit veröffentlicht. Ein Prozentpunkt an Vorhersagegenauigkeit, typischerweise gemessen als kosten-gewichteter MAPE, entspricht 8 Millionen US-Dollar an Fertigwareninventar und an beschleunigten Produktionskosten in Distributionszentren und so weiter. Sie hatten eine ganze Reihe von Ansätzen, wie sie das etablierten. Kürzlich haben wir etwas präsentiert, bei dem wir eine Bottom-up-Simulation mit TESA durchgeführt haben. Es gibt einige Rechner im Internet, denen ich nicht uneingeschränkt vertraue, aber ich halte es für wichtig zu betonen, dass Prognosefehler kostspielig sind – allein aufgrund der Entscheidung über Sicherheitsbestände und Inventar im unmittelbar folgenden Schritt, ohne dass man erst in die Produktionsplanung, Rohstoffbeschaffung und langfristige Entscheidungen einsteigt.

Ich denke, das ist ein echtes Versäumnis. Deshalb sind die Demand-Planning-Teams in Unternehmen meiner Meinung nach immer noch zu klein. Wenn sie wüssten, wie teuer ihre Entscheidungen sind und wie wertvoll Prognosen sind, würden sie dort deutlich mehr Ressourcen einsetzen. Und übrigens, TESA: Es war grob gesagt – natürlich hängt es von der Unternehmensgröße ab – wir dürfen die genaue Zahl nicht nennen – es entspricht einem Bugatti Veyron. Bugatti Veyrons haben einen ziemlich festen Preis, sodass es 1,5 Millionen pro Prozentpunkt Genauigkeit im Inventar sind, wenn man es wörtlich nimmt. Wir arbeiten derzeit mit einigen anderen Unternehmen daran, dies angesichts der minderwertigen Inventarmodelle zu etablieren. Aber das ist wirklich wichtig. Man löst das Problem direkt und zeigt ihnen die Entscheidungskosten. Aber auch wenn der Prozess entkoppelt ist, kann man das immer noch tun. Und ich denke, das ist der fehlende Baustein. Ich bin voll und ganz dabei. Inventar oder Entscheidungskosten wären ideal. Inventar ist eine direkte Verbindung, die hergestellt und umgesetzt werden kann – was auch von Akademikern praktiziert wird.

Conor Doherty: Ich möchte voranschreiten und einige der angesprochenen Punkte, insbesondere zu den Annahmen, miteinander verknüpfen. Ich meine: Annahmen – wenn das die Annahme eines Nachfrageplaners ist, wie: “Oh, das ist falsch, ich muss manuell überschreiben” – dann ist das eben eine Annahme. Eine Annahme fließt in die Erstellung einer Prognose oder eines automatisierten Modells ein. Das sind also unterschiedliche Aspekte. Letztlich ist meine Frage: Ist es angemessen, dass das Management – also Personen ohne fundiertes Wissen in den Themen, über die wir heute sprechen – das gleiche Maß an Vertrauen in die Automatisierung aufbringt, wie in eine automatisch generierte Prognose, im Vergleich zu einer Prognose, die beispielsweise deinen, äh, Nicolas’ oder Alex’ Schreibtisch passiert hat?

Nicolas Vandeput: Wenn es dir nichts ausmacht, zu meiner Folie zurückzukehren: Die gängigste Frage, kurz zusammengefasst in ein paar Worten, lautet: “Wie kann ich machine learning vertrauen?” Man könnte machine learning durch statistische Werkzeuge ersetzen. Ich formuliere die Frage gern um in: “Aber wie vertraust du Menschen?” Denn die Leute sagen: “Okay, Nicolas, wie kann ich dir vertrauen? Wie kann ich deinem machine learning vertrauen?” Und ich entgegne: “Wie kannst du deinem Team vertrauen?” Und das ist, denke ich, die eigentliche Frage. Für mich gibt es im Grunde nur einen Weg, das zu überwachen und zu beantworten: Das nennt sich forecast value added. Die Idee dabei ist, dass man die Genauigkeit jedes einzelnen Schrittes in seinem Prozess verfolgt – sei es durch einen Menschen, eine Maschine oder durch Informationen von deinem Kunden, nämlich der Prognose, die er liefert. Jeden einzelnen Schritt misst man also die Genauigkeit vor und nach diesem Schritt.

Während du das machst, rate ich dir auch, die Gesamtgenauigkeit deines Prozesses mit einer statistischen Benchmark zu vergleichen, etwa mit einem einfachen, kostenlos verfügbaren Modell. Wenn du das über Wochen, Monate oder Tage hinweg tust – je nach deinem Zeithorizont – kannst du wirklich belegen, dass gewisse Teile deines Prozesses, ob von Menschen oder Maschinen, einen Mehrwert bieten und präzise arbeiten. Das ist der einzige Weg, dies nachzuweisen. Ich würde sogar so weit gehen zu sagen: Wenn du das nicht machst, ist es, als wären die Lichter im Raum aus. Du tappst im Dunkeln und hast keinen Durchblick.

Und wenn mich Unternehmen kontaktieren, die Projekte zur Verbesserung der Nachfrageplanung vorantreiben wollen, lautet die erste Frage: “Verfolgen Sie forecast value added?” Denn wenn Sie das nicht tun, können Sie nicht feststellen, ob mein Modell tatsächlich einen Mehrwert generiert und ob wir gute oder schlechte Ergebnisse liefern. Das ist der erste Schritt, um die Frage zu beantworten: “Wie wissen Sie, ob ich machine learning vertrauen kann?” Es ist dieselbe Frage wie: “Wie wissen Sie, ob ich Menschen vertrauen kann?” Und die Antwort lautet: Man muss forecast value added nachverfolgen.

Alexey Tikhonov: Ich denke, es ist wichtig, sich den Entscheidungen zuzuwenden. Wie kann ich einer Prognose vertrauen? Ich weiß nicht, ob eine Prognose gut oder schlecht ist, wenn ich nicht sehe, welche Entscheidung sie vorschlägt, welche Entscheidungen sich daraus ableiten lassen. Aus dieser Perspektive haben Menschen, also Praktiker, oft ein sehr gutes Bauchgefühl. Wenn du absurde Entscheidungen triffst, werden sie das bemerken und dir erklären, warum. Wenn deine Bestellung beispielsweise zu groß ist, sagen sie dir, was sie sein sollte, welches ungefähre Volumen für einen guten Einkauf angemessen ist und aus welchen Gründen sie so denken. Daher: Die Verfolgung der Vorhersagegenauigkeit ist wichtig. Dass Menschen im Prozess eingebunden werden, um manuelle, urteilsbasierte Anpassungen an der Prognose vorzunehmen – wie ich bereits sagte – ist ziemlich verschwenderisch, da diese Eingriffe nur eine sehr kurze Gültigkeitsdauer haben.

Du kannst manuell eingreifen, doch das hält nicht für ein weiteres Jahr an. Es wirkt sich wahrscheinlich nur auf deine nächste Bestellung aus, nicht aber auf die darauffolgende. Dabei bindest du eine sehr teure und unzuverlässige Ressource ein – worüber wir auch sprechen sollten, auch wenn die Zeit knapp ist –, denn wir sollten auch den Prozess hinter diesen urteilsbasierten Übersteuerungen diskutieren. Sie sind in ihrer Natur quasi halbquantitativ. Es gibt keinen strengen Prozess wie bei automatisch erzeugten Prognosen, bei denen man nachvollziehen, zerlegen und analysieren kann, was schief läuft, falls etwas nicht stimmt. Deshalb muss man so weit wie möglich automatisieren. Und wie gewinnt man Vertrauen? Nun, genauso wie du deiner Wetter-App vertraust: Wenn sie konsistente Vorhersagen liefert, wenn sie anzeigt, dass es eine hohe Regenwahrscheinlichkeit gibt – und meistens regnet es dann, wenn sie Regen vorhersagt – oder bei anderen Technologien wie Spamfiltern.

Denken Sie an die Zeit, als diese Funktionen gerade in E-Mail-Clients eingeführt wurden. Wir haben den Spam-Ordner sehr häufig überprüft, weil der Anteil falsch klassifizierter E-Mails ziemlich hoch war. Heutzutage gehe ich nur dann in den Spam-Ordner, wenn mir bekannt ist, dass mir jemand, der noch nicht in meiner Kontaktliste ist, eine E-Mail geschickt hat, die ich nicht empfangen habe. Dann schaue ich nach, und ja, sie ist dort, und ich markiere sie als “Kein Spam”, woraufhin sie nie wieder als Spam eingestuft wird. Vertrauen wird also im Laufe der Zeit aufgebaut, und man benötigt einen Prozess. Wir nennen das experimentelle Optimierung, wenn man diese Entscheidungsmaschine feinjustiert. Sobald sie konsistente Ergebnisse liefert, muss man nur noch die Kennzahlen überwachen. Ja, man verfolgt die Vorhersagegenauigkeit. Ändert sich diese drastisch, benötigt man einen Ingenieur, der zusammen mit den Praktikern untersucht, was hinter den Kulissen vor sich geht. Aber man sollte niemals manuell in diese Entscheidungspipeline eingreifen. Man will das Problem beheben und es dann laufen lassen – ganz so wie man es mit Maschinen macht: man führt Wartungsarbeiten durch und fährt anschließend weiter.

Sven Crone: Ja, ich denke, Vertrauen ist eine wichtige Frage, oder? Wenn man auf die letzten 10, 20 Jahre zurückblickt, haben viele Unternehmen versucht, etwa im Kontext der statistischen Prognosen live zu gehen. Und warum gibt es so viel Skepsis? Warum haben so viele Unternehmen es immer wieder gestartet und wieder eingestellt – gestartet und eingestellt, gestartet und eingestellt? Wir alle kennen overfitting. Wir wissen, wie wir diese Sandbox-Experimente mit all den zukünftigen Variablen durchführen, bei denen man beim Design eines Proof of Concept und in Pilotstudien, die parallel laufen, sehr vorsichtig sein muss. Und tatsächlich, bei so vielen Freiheitsgraden, Meta-Parametern und führenden indicators, die in irgendeine Zerlegung einfließen können, ist es sehr, sehr einfach, ein Genauigkeitsniveau zu versprechen, das sich später nicht einstellt. Wir haben eine gewisse Genauigkeit versprochen, und dann kam COVID, und das Management verstand nicht, warum wir dieses Niveau nicht erreichen konnten. Für uns war es klar, für sie war es das nicht. Aber ich sage, das Vertrauen ging verloren.

Vertrauen – ich denke nämlich nicht, dass technologische Akzeptanz generell ein Thema in den Wirtschaftsinformationssystemen ist. Technologische Akzeptanz ist ein großes Problem. Es gibt ganze Konferenzen, die analysieren, wie man dies vermitteln kann. Und ich denke, ein Ansatzpunkt ist, dass es mit der generellen Akzeptanz von Technologie zusammenhängt. Wissen Sie, die meisten von uns würden skeptisch sein, wenn wir in San Francisco in ein fahrerloses Auto steigen würden – zumindest in den ersten paar Malen. Vielleicht nicht, aber in 20 Jahren wird das wohl jeder akzeptieren. So wie Sie sagten: Die Benutzerfreundlichkeit, dass man erkennt, dass nichts passiert, und so weiter – so baut man Vertrauen auf. Dabei muss man auch kommunizieren. Aber ich glaube nicht, dass die Antwort in erklärbarem AI liegt. Jeder meint: “Der Algorithmus muss sich mir erklären.” Ich habe schon sehr versucht zu erklären, was ein Gamma-Faktor von 0,4 über 12 sich im Laufe der Zeit verändernde saisonale Indizes bewirkt – aber kein Manager versteht das. Der oberste Manager muss schließlich die Entscheidung treffen: Traut er dieser bedeutenden Investition in Inventar? Traut er seinem Team zu, effektiv und effizient zu arbeiten?

Und ich denke, dafür haben wir viel Vertrauen in die Statistik verloren, möglicherweise auch wegen einiger minderwertiger Softwareimplementierungen, die damals Stand der Technik waren, aber in der Stichprobe überparametrisiert wurden. Es gibt viele Belege in der Modellselektion. Daher wurden viele dieser Innovationen nicht breit übernommen, sondern vor allem von jüngeren und innovativen Unternehmen aufgegriffen. Ein Zwischenschritt, den man im Medizinbereich gesehen hat, um Vertrauen aufzubauen – beispielsweise gibt es eine unglaubliche Fallstudie zur Erkennung von Brustkrebs anhand von Bildern. Die Maschine, der Algorithmus, war signifikant genauer, hatte eine viel höhere Trefferquote (True Positive Rate) und eine deutlich niedrigere Fehlerquote (False Positive Rate), verbunden mit enormen Kosten für einzelne Menschen. Und die Ärzte hätten es nicht übernommen. Schon in den 1980er Jahren haben sie einige dieser Entscheidungsprozesse nicht eingeführt, weil sie ihnen nicht vertrauten – sie vertrauten eher ihrer eigenen Einschätzung als der von anderen.

Lösungen, die wir jetzt entwickeln, beinhalten, dass AI Ausreißer korrigiert, aber wir heben den Ausreißer explizit für die Demand-Planung hervor. AI kann die Modellauswahl treffen, aber wir stellen stattdessen das Ranking heraus, das wir als aussagekräftig erachten. Wir versuchen zu erklären, was wir in den Daten sehen – etwa dass diese Zeitreihe stark saisonal ist und eine Störung aufweist. Dieses augmentierte System, auch für Ärzte, bestand darin, dass statt einer reinen Klassifikation nicht nur eine Ja/Nein-Antwort gegeben wurde – ob Krebs vorliegt oder nicht –, sondern im Bild hervorgehoben wurde, wo der Krebs wahrscheinlich entdeckt wurde. Außerdem wurde eine Wahrscheinlichkeit dafür angegeben, dass es sich um Krebs handelt, was es in zeitkritischen Situationen ermöglichte, nach Wahrscheinlichkeit zu sortieren und nicht nur die eindeutig als Krebs bzw. nicht Krebs erkennbaren Fälle zu betrachten, sondern vor allem die ungewissen Fälle in den Blick zu nehmen. Genau hier konnten die Ärzte dann ihre Expertise einbringen, und plötzlich wurde das System massiv akzeptiert. Expertise konnte so eingebracht werden, und plötzlich erfuhr das System eine massive Akzeptanz.

Ich denke also, dass es viel mit dem Design der Systeme und des Entscheidungsprozesses zu tun hat – und es ist nicht alles Automatisierung, weil wir ABC und XYZ und new products und Endprodukte haben. Man kann nicht alles automatisieren – und sollte es auch nicht – sondern einige Teile mit AI automatisieren, andere mit sehr einfachen, vielleicht transparenten Methoden und wieder andere mit robusten Algorithmen. Aber ich denke, für den aktuellen Grad der Akzeptanz und des Skeptizismus gegenüber Technologie – obwohl wir alle GPT lieben, um unsere nächste Geburtstagsfeier zu planen – ist augmentiertes AI wahrscheinlich ein guter Schritt, um Akzeptanz zu gewinnen, bevor wir vollständig auf AI automatisieren.

Conor Doherty: Kommentiere dazu. Nun, um darauf zurückzukommen – denn ihr habt beide wieder sehr gute Punkte angesprochen – möchte ich einen der Vergleiche etwas auseinandernehmen. Also, ich denke, Alexey, du hast das Beispiel gebracht, eine Wettervorhersage-App zu nutzen, wobei die Meteorologie – deren Grundlage schon seit langem auf probabilistischen Vorhersagen beruht – ins Spiel kommt. Und dann hast du es mit einem autonomen Fahrzeug verglichen, oder zumindest indirekt verglichen. Ich denke, wir nehmen das und versuchen, daraus eine Frage zu formulieren. Also, um Alex’ Beispiel zu verwenden: Wenn alle im Raum wüssten, dass sie nächste Woche in den Urlaub fahren müssen und ihr einziges Ziel Bermuda ist, aber die Wettervorhersage einen Tsunami für nächste Woche prognostiziert – würdet ihr euer eigenes Geld aufbringen? Würdet ihr finanziell in eure Zeit, Mühe und Energie investieren, um nach Bermuda zu fliegen? Die meisten würden nein sagen. Nehmen wir nun exakt dieselbe Perspektive – aus finanzieller Sicht und probabilistischen Vorhersagen – und stecken all diese Personen in ein Unternehmen und sagen: Hier ist eine priorisierte Liste von rang- und risikoadjustierten Entscheidungen, die von einem Algorithmus generiert wurde. Oh, absolut nicht, dem vertraue ich nicht. Also, handelt es sich hierbei um einen selektiven Vertrauensmangel? Eure Kommentare.

Alexey Tikhonov: Ich könnte einen kurzen Kommentar abgeben. Ich denke, das eigentliche Problem bei der allgemeinen Ablehnung neuer Technologien durch Menschen, wenn wir von Automatisierung sprechen, ist die Angst, irrelevant zu werden und verdrängt zu werden. Tatsächlich passiert meist genau das Gegenteil. Ja, wir automatisieren Bereiche, in denen Menschen einfach finanziell nicht effizient sind. Zum Beispiel hatten wir früher Übersetzer für mehrere Sprachen, um unsere eigene Website zu übersetzen, weil wir viel publiziert haben, und insgesamt haben wir vermutlich über die Jahre etwa 400.000 Euro ausgegeben. Und jetzt, wann immer wir etwas veröffentlichen, wird es durch LLMs übersetzt.

Wir haben Programme, die eine Markdown-Seite als Eingabe nehmen und eine Markdown-Seite erzeugen, bei der die gesamte Markdown-Syntax, die Shortcodes – alles bleibt erhalten – und nur die relevanten Teile in andere Sprachen übersetzt werden. Die Kosten sind immens gesunken, um zwei Größenordnungen, es ist jetzt 100-mal günstiger. Also, sollten wir 100-mal mehr für einen menschlichen Übersetzer bezahlen? Nein. Brauchen wir jetzt noch menschliche Übersetzer? Ja, zum Beispiel, wenn du ein juristisches Dokument verfassen möchtest, solltest du einen menschlichen Übersetzer einsetzen, denn ein einziges Wort, ein einziges Komma kann dir enorme Kosten verursachen. Also, brauchen wir menschliche Übersetzer? Ja, wir brauchen sie weiterhin, aber in anderen Bereichen, und wahrscheinlich wird im juristischen Bereich sogar ein größerer Bedarf an menschlichen Übersetzern bestehen als bisher.

Und dasselbe gilt für supply chains. Zum Beispiel gibt es komplette Bereiche, die bestehen bleiben, weil es an verfügbaren personellen Ressourcen mangelt. Oftmals, wenn du eine Bestellung aufgeben möchtest, weißt du im Vorfeld nicht, ob es eine Mindestbestellmenge (MOQ) gibt, sodass du diese Information einholen musst. Du kannst Menschen einsetzen, du kannst einen Copilot als KI verwenden, aber du benötigst dennoch einen Menschen, um einige schlecht strukturierte Informationen zu beschaffen, die dann in deine Entscheidungs-Engine eingespeist werden, sodass sie eine Entscheidung trifft, die mit der MOQ übereinstimmt. Deshalb denke ich, dass wir Menschen weiterhin benötigen – allerdings für verschiedene, sich entwickelnde Aufgaben.

Sven Crone: Ich denke, du hast einen wichtigen Aspekt in Bezug auf die Akzeptanz dieser maschinellen Übersetzungstechniken angesprochen, denn sie gibt es schon lange. IBM nutzte bereits 1982 neuronale Netze, oder? Also, sie existierten schon, aber die Übersetzungs- bzw. Fehlerquote lag irgendwo bei etwa 90 % Erkennung. Das bedeutete, dass ein Mensch eingreifen und eine Menge Buchstaben, eine Menge Wörter ändern müsste. Jedes zehnte Wort wäre falsch, und das machte es inakzeptabel, weil es unter einer als ausreichend erachteten Schwelle lag.

Und jetzt, wenn du diese Genauigkeit erreichst – nicht unbedingt auf menschlichem Niveau, aber über einer bestimmten Schwelle –, dann führt das plötzlich zu einer massiven Akzeptanz der Technologie. In der Forecasting-Branche sind wir dabei ganz schuldig, denn wir haben Implementierungen gesehen, bei denen multiplikative Modelle in Zeitreihen mit Nullen leichtfertig eingesetzt wurden. Und wenn du 10 Fälle bei 100 Zeitreihen hast, die einmal im Jahr aus dem Ruder laufen, hast du null Akzeptanz – weil das Vertrauen verloren geht.

Also, man muss tatsächlich Robustheit erreichen, um Automatisierung zu ermöglichen. Ich denke, das ist ein guter Punkt. Und typischerweise haben wir versucht, genaue Modelle zu bauen, statt robuster Modelle, die nicht gut funktionieren. Neuronale Netze haben immer dieses Problem. Außerdem denke ich, dass wir alle voreingenommen sind, weil wir Technologie ziemlich schnell annehmen – wenn auch nicht so sehr wie mein jüngerer Bruder, der Technologie einfach liebt. Es gibt also auch einen Altersfaktor. Aber was schafft Vertrauen? Ich denke, in einer Vorstandssitzung im oberen Management – ich weiß von einem sehr großen Softwareunternehmen, das aktiv LLM-Modelle untersucht – gab es kürzlich eine Entscheidung. Ich glaube, Eric Wilson vom IBF, dem Institute of Business Forecasting, betreibt einen Blog, in dem er sehr klar sagt, dass KI den Prozess der Nachfrageplanung nicht übernehmen wird und jeder seinen Job behalten wird.

Aber kürzlich gab es Fälle, in denen in einem Vorstandszimmer ein LLM-Modell, das mit dem Großteil des eingespeisten Wissens – den Werbeinformationen, den Störungen, der supply chain – trainiert wurde, eine Vorhersage erstellte, und der CEO fragte das LLM-Modell, warum das der Fall sei. Die Meinungen gingen auseinander. Das Marketing hatte eine andere Sicht, das Finanzwesen wiederum eine andere. Das LLM-Modell war das einzige, das in der Lage war, ein nachvollziehbares Argument dafür zu liefern, warum diese Zahl korrekt sei. Und ich denke, da kommt ein weiterer Bias ins Spiel, aber wenn du eine einprägsame Geschichte erzählen kannst, vertrauen die Leute dem. Das führt also auch zu Vertrauen, selbst wenn es falsch ist.

Ich denke also, wenn es einem Nachfrageplaner gelingt, in einem Kontext von tausend Produkten zu begründen, warum er in einem Gespräch mit dem CEO umfassend argumentieren kann, dass in sechs Monaten der Wert doppelt so hoch sein wird – obwohl man sich kaum an alle Details erinnern kann, weil man den ganzen Monat über mit diesen Zahlen beschäftigt war, sie zerlegt, in Werte übersetzt und dann per Kanal Top-down Anpassungen vorgenommen hat, sodass am Ende eine Zahl herauskommt – und wenn das LLM-Modell dies überzeugend vertreten kann, dann sehe ich das als den Punkt, an dem wir wahrscheinlich feststellen werden, wer behauptet, dass ein LLM-Modell nicht alle Verkaufs- und Key-Account-Meetings lesen kann, nicht alle Funnel-Informationen aufnehmen kann; dass es den Funnel rechtfertigen, mit supply values abgleichen und tatsächlich eine Anpassung vornehmen kann, die besser ist als die eines Menschen, weil es einfach wesentlich mehr Daten verarbeiten kann. Ich denke, hier könnten wir den Vertrauensfaktor überspringen und direkt zur Genauigkeit übergehen. Aber es gibt Hinweise darauf, dass diese Modelle Vertrauen schaffen können, weil sie endlich erklären, was vor sich geht.

Nicolas Vandeput: Also, ich sehe eine interessante Frage, und ich glaube, wir haben schließlich unser Thema gefunden, bei dem ich anderer Meinung bin.

Das Erste, was ich ansprechen möchte, ist das Change Management hinsichtlich der Einführung von Machine Learning für Forecasting. Wie bei jeder Technologie gibt es Menschen, die dem völlig ablehnend gegenüberstehen, und solche, die eher dafür sind. Und jedes Mal, wenn ich auf LinkedIn etwas poste, sehe ich, dass immer wieder einige Leute aus derselben Richtung behaupten, das wird niemals funktionieren, ich würde das niemals tun. Wisst ihr was, ich habe einfach aufgehört, sie überzeugen zu wollen. Das ist in Ordnung – bleibt einfach, wo ihr seid, und ich werde mit denjenigen arbeiten, die bessere supply chains schaffen wollen.

Ich habe bereits bei zahlreichen Kunden großartige Führungskräfte, durchschnittliche und auch schlechte Führungskräfte gesehen. Für mich gilt: Wenn du einen automatisierten Prozess erfolgreich implementieren möchtest – und wir können über Machine Learning Nachfrageplanung sprechen, aber das ließe sich auch auf jeden anderen Prozess übertragen – musst du als Führungskraft im Raum eine klare Vision vermitteln, welche Rolle jeder in Zukunft spielen wird. Ich komme wieder zurück zur Nachfrageplanung, aber das gilt letztlich für jeden Prozess. Wenn du deinem Nachfrageplaner sagst: „Deine Aufgabe – und ich bezahle dich dafür – besteht darin, die Vorhersage zu ändern und die Modelle anzupassen und zu tweakern“, dann werden die Leute genau das tun. Das muss sich ändern. Es muss so werden, dass deine Aufgabe darin besteht, sicherzustellen, dass die Daten, die in die Nachfragevorhersage-Engine eingehen, so gut wie möglich sind, und dass es deine Aufgabe ist, Informationen zu finden, die über das, was dem Modell zugeführt wird, hinausgehen – um die Vorhersage gegebenenfalls anzureichern. Wenn du das nicht sagst, werden die Leute tagtäglich die Vorhersage weiter verändern, weil sie das Gefühl haben, dass sie sonst ihr Gehalt nicht rechtfertigen können. Also, für die Einführung ist es überaus wichtig, ein klares Bild zu vermitteln, das wiederum mit meiner Folie zu insight-driven Review und Insight Collection zeigt, was die Leute tun sollen.

Etwas, das ich hinzufügen möchte, ist die Erklärbarkeit. Ich denke, das ist ein offenes Thema, und auch ich entwickle mich da noch, aber für mich ist Erklärbarkeit überhaupt nicht notwendig. Ich weiß nicht, wie ein Auto funktioniert, nutze es trotzdem und würde niemals eine E-Mail an Mercedes schreiben und sagen, dass ich es nie wieder benutzen werde, wenn ihr mir erklären könnt, wie es funktioniert. Das würde ich niemals tun. Ich weiß nicht, wie das Internet funktioniert, ich weiß nicht, wie dieses Ding funktioniert, ich habe keine Ahnung – und trotzdem nutze ich es.

Wenn eine supply chain auf Erklärbarkeit oder Storytelling – also auf Geschichten – angewiesen ist, um die Vorhersage zu nutzen und ihr zu vertrauen, wirst du niemals skalieren können, denn das bedeutet, dass deine supply chain und dein Prozess davon abhängen, dass irgendein Mensch über Überzeugungsfähigkeiten verfügt, um andere dazu zu bewegen, deiner Vorhersage zu vertrauen, weil er eine gute Geschichte hat. Für mich muss man der Vorhersage vertrauen, weil die Genauigkeit – wie auch immer man sie misst – zuverlässig ist und über die Zeit hinweg bewiesen hat, dass sie zutreffend ist bzw. die Entscheidung bedeutsam war. Man vertraut Dingen, Prozessen, Menschen und Modellen, weil sie quantitativ hervorragend sind – nicht, weil die Geschichte Sinn macht. Wenn man sich nur auf die Geschichte verlässt, wird es scheitern. Ich habe selbst so viele Consultants gesehen, die Projekte gewonnen haben, weil die Geschichte stimmte, die dann aber nie echten Mehrwert erzeugten, weil das Modell an sich keinen Wert schuf. Aber die Geschichte ist schön – weshalb ich wirklich versuchen würde, mich so weit wie möglich von der Geschichte fernzuhalten.

Conor Doherty: Weitere Kommentare? Es besteht keine Verpflichtung.

Alexey Tikhonov: Ein paar Worte zur Erklärbarkeit und zum Verständnis dessen, was vor sich geht, wie Entscheidungen getroffen werden und wie Vorhersagen entstehen.

Ich kann nur über das sprechen, was wir bei Lokad tun. Wir gehen Probleme nach dem Prinzip „correctness by design“ an. Eines der Probleme, von denen wir wissen, dass sie die Leute haben werden, ist der Mangel an Vertrauen, weil sie nicht verstehen, wie die Dinge funktionieren. Deshalb verwenden wir, was wir ein „White-Boxing“-Element nennen. Wann immer es möglich ist, nutzen wir explizite Modelle, bei denen man versteht, was die Parameter bedeuten, statt auf verschleiertes Feature Engineering zurückzugreifen. Auf diese Weise können die Leute nachvollziehen, was vor sich geht. Diese Modelle sind nicht übermäßig schwer zu verstehen. Ich lade das Publikum ein, sich unseren Beitrag zum M5 Forecasting Wettbewerb anzusehen. Das Lokad-Team wurde in der Uncertainty Challenge auf Platz eins eingestuft. Wenn ihr euch den Vortrag unseres CEOs, Joannes Vermorel, anschaut, werdet ihr sehen, dass das Modell ziemlich simpel ist. Ihr werdet überrascht sein, wie dieses einfache Modell Ergebnisse auf dem neuesten Stand der Technik erzielen konnte.

Es ist nicht notwendig, hochmoderne AI zu verwenden, um einen zusätzlichen Prozentpunkt an Vorhersagegenauigkeit zu erreichen. In der supply chain willst du ungefähr richtig liegen, nicht präzise falsch. Deshalb wählen wir beispielsweise probabilistische Methoden, weil sie dir die Struktur der Unsicherheit aufzeigen können. Und wenn du dann wirtschaftliche Treiber hast, kannst du diese Unsicherheitsstruktur in die Struktur finanzieller Risiken übersetzen und wohlüberlegte, risikoadjustierte Entscheidungen treffen – statt nur Entscheidungen, die daran gemessen werden, ein Service-Level-Ziel zu erreichen.

Ich denke, die Leute können die übergeordnete Geschichte verstehen, also was du tust und warum du das tust. Aber auf der unteren Ebene, wenn sie neugierig sind, können sie sich auch damit befassen – es ist aber nahezu unwesentlich, sobald man das oberste Niveau verstanden hat. Sobald du merkst, dass die Entscheidungen sinnvoll sind, warum solltest du dann ins Detail gehen? Beispielsweise benutzen die Menschen typischerweise Computer, aber sie interessieren sich nicht für Speicherzuweisungen, also dafür, wie dein Arbeitsspeicher die Berechnungen unterstützt. Niemand interessiert sich dafür. Gleiches gilt für die Computerchips in deinem Auto. Ja, ein Roboter steuert das Schalten der Gänge, aber daran interessiert sich im Allgemeinen niemand. Das ist nicht entscheidend und macht deine Fahrt nicht sicherer, wenn du es weißt.

Conor Doherty: Ich wollte eigentlich gerade um abschließende Gedanken bitten. Es scheint, dass ihr alle grundsätzlich übereinstimmt, dass das Verständnis des „Wie“ dieser Methoden für die meisten Menschen – sofern sie nicht über die erforderliche Ausbildung verfügen – zu komplex ist. Das „Was“, also was passiert, sei es eine höhere Genauigkeit oder eine bessere Entscheidung, ist nachvollziehbar. Aber bevor wir schließen, vielleicht noch 30 Sekunden als Abschluss: Wie seht ihr die Zukunft der Nachfrageplaner? Denn ich kann eure Antwort schon ein wenig erahnen, aber was Nicolas und Sven betrifft – und ich will euch nicht Worte in den Mund legen – habt ihr ja zuvor angedeutet: „Nun, wir sind noch nicht ganz da, was die vollständige End-to-End-Optimierungsautomatisierung betrifft.“ Aus eurer Perspektive: Wie sieht die Zukunft der Nachfrageplaner aus? Wird es in 5 Jahren, 10 Jahren usw. noch eine Position für sie geben?

Sven Crone: Ich denke, wenn man die Datenverfügbarkeit und die Technologieakzeptanz betrachtet, wird es definitiv noch viel länger als fünf Jahre einen Job für Nachfrageplaner geben. Da bin ich mir ziemlich sicher. Denn auch der Druck, Unternehmen umzustrukturieren oder zu innovieren, ist nicht so groß. Wenn man sich all diese Initiativen zur Digitalisierung anschaut – für die meisten Unternehmen gibt es nicht einmal Cloud-Speicher – ist es erstaunlich, wie einige der größten multinationals Europas tatsächlich so gut operieren können.

Das liegt wahrscheinlich an den großartigen Menschen, die dort arbeiten. Aber ich sehe es so: Langfristig riskieren wir es wirklich, wenn wir nicht umstellen, wenn die software vendors nicht umstellen, wenn du nicht automatisierst, wenn du keine Entscheidungen unterstützt – sinnvolle Entscheidungen wie die Korrektur historischer Daten – und, naja, wenn du nicht in der Lage bist, Fragen zu beantworten wie: „Hast du bedacht, dass die Promotion von Woche 5 auf Woche 12 verschoben wurde?“ Ich denke, das sind die Fragen, die du beantworten musst. Es sind viel einfachere Fragen.

Aber ich denke, dass es langfristig mit der stetig verfügbaren Datenmenge für Demand Planner sehr schwierig werden wird. Da die Entscheidungsfrequenz steigt, wechseln wir von monatlichen zu wöchentlichen und möglicherweise zu innerwöchentlichen Prognosen, um uns auch an die Händler anzupassen. Ich sehe viel mehr Aktionen, viel mehr Störungen. Es gibt so viele Störungen, dass es für Planner praktisch unglaublich schwer wird, in so kurzer Zeit so viele Informationen zu verarbeiten. Und deshalb glaube ich nicht, dass sie langfristig in puncto Genauigkeit und Zuverlässigkeit mit Machine Learning Modellen konkurrieren können, wenn alle Daten vorhanden sind.

Conor Doherty: Danke, Sven. Deine abschließenden Gedanken, Nicolas.

Nicolas Vandeput: Um in nur einer Minute zusammenzufassen: Welche Rolle spielen Demand Planner in den kommenden Jahren und wie wird sich das entwickeln? Für mich sind das Menschen, die den Großteil ihrer Zeit damit verbringen werden, Daten, Informationen und Erkenntnisse zu sammeln, zu strukturieren und zu bereinigen und den Großteil davon in Machine Learning Modelle einzuspeisen, um die Nachfrage zu prognostizieren. Die Informationen und Erkenntnisse, die nicht in Machine Learning Modelle einfließen können, werden diese Planner weiterhin zur manuellen Anreicherung dieser Prognosen nutzen. Aber diese Planner werden nicht damit beschäftigt sein, Ausreißer zu markieren oder manuell zu korrigieren. Sie werden auch keine Zeit damit verbringen, Modelle zu optimieren, Parameter zu überprüfen, feinzujustieren oder gar Modelle auszuwählen. Meiner Meinung nach sollten diese Aufgaben zu 100% automatisiert werden. Menschen sollten das nicht übernehmen. Die Planner werden sich darauf konzentrieren, Informationen und Erkenntnisse zu finden, zu sammeln und zu bereinigen.

Conor Doherty: Danke. Und Alexey, deine abschließenden Gedanken?

Alexey Tikhonov: Ich denke, dass Demand Planning derzeit eine Nische von Softwareprodukten besetzt, die als systems of intelligence bezeichnet werden, weil es typischerweise drei Arten von Unternehmenssoftware gibt: systems of records, das sind ERPs und andere transaktionale Systeme; systems of reports, also Business-Intelligence-Anwendungen; und systems of intelligence. Dies ist ein aufstrebendes Feld. Das sind die Systeme, die Entscheidungsfindungen automatisieren können, so wie es Lokad seinen Kunden liefert. Und derzeit versuchen Demand Planner, in diesem Feld zu konkurrieren.

Meiner Einschätzung nach können sie langfristig nicht mithalten, sie werden verlieren. Warum? Weil Menschen großartige Wesen sind, sie sind super intelligent. Betrachtet man eine einzelne Entscheidung, können sie einen Roboter übertreffen, da sie stets zu tieferen Einsichten gelangen, etwas, dessen ein Roboter nicht bewusst ist, wie etwa zusätzliche Information. Aber das ist nicht skalierbar. Menschen verursachen hohe Kosten. Wir sprechen hier von supply chains von immensen Ausmaßen, weshalb sich dies nicht skalieren lässt. Und genau aus diesem Grund werden sie langfristig verdrängt. Aus ähnlichen Gründen wie in Paris: Dort gibt es keine Wasserträger mehr, sondern fließendes Wasser. Warum? Weil es billiger ist. Ja, es gibt immer noch einige unterentwickelte Länder, in denen in kleinen Dörfern Menschen Wasser in Eimern tragen, da fließendes Wasser aufgrund von Skaleneffekten noch keine Option ist. Aber selbst in diesen Dörfern wird es irgendwann fließendes Wasser geben. Langfristig haben sie also keinen Platz. Und mittlerweile haben einige Unternehmen diese bereits abgeschafft.

Conor Doherty: Vielen Dank an alle auf der Bühne für eure Einblicke und Antworten. An dieser Stelle übergebe ich das Wort. Hat jemand Fragen? Ich werde mich beeilen und das Mikrofon weiterreichen. Natürlich liegt es ganz hinten. Okay, es sollten nicht so viele Reihen sein. Robert, wer hatte die Hand hoch?

Audience Member (Bahman): Danke an alle. Mein Name ist Bahman. Ich komme von der Cardiff University. Ich möchte nur einen sehr kurzen Kommentar abgeben. Ihr habt profitable Entscheidungen erwähnt. Ich wollte nur darauf hinweisen – und das ist auch ein Punkt von dem, was Sven bezüglich des Spektrums erwähnte –, dass es Tausende von supply chains gibt, die nicht auf Profit ausgerichtet sind. Das ist also wichtig zu bedenken.

Meiner Auffassung nach lag der Fokus des Panels eher auf der supply chain, aber es gibt ein ganzes Spektrum im Demand Planning. Wenn man darüber nachdenkt, gibt es Millionen von Krankenhäusern weltweit, die Demand Planning betreiben und sich mit ein, zwei oder drei Zeitreihen befassen. Daher bezieht sich meine Frage eher darauf, welche Bedingungen oder Voraussetzungen erfüllt sein müssen, um automatische Entscheidungen zu schaffen, wenn diese Entscheidungen teilweise auf Prognosen als einem Input basieren. Es gibt viele weitere Inputs – einige könnten Prognosen sein, die Mehrheit wahrscheinlich jedoch nicht.

Sven Crone: Ich werde versuchen, das zu beantworten. Krankenhäuser verfügen beispielsweise über einen großen Bestand an replenishment, wichtigen Produkten wie Blut, weniger wichtigen Produkten und so weiter, beispielsweise Krebsmedikamente – einige davon sind make-to-order, andere make-to-stock. Ich glaube, wir haben uns sehr auf die Industrie konzentriert, denn mein Hintergrund liegt nicht im Krankenhaus- oder Gesundheitswesen. Wir haben uns intensiv mit der Industrie, also mit supply chain management und Logistik, beschäftigt – was wahrscheinlich von Gartner definiert wird – und betrachten sehr große multinationale Unternehmen, die diese gut definierten Prozesse eingeführt haben, welche erprobt und getestet wurden und den Forecast Value Added messen.

Ich denke, du hast recht, es ist vermutlich auf sehr viele andere Branchen anwendbar – Apotheken, Krankenhäuser und dergleichen. Zwar habe ich wenig Belege zur Einführung in diesen Bereichen, aber ich bin der Meinung, dass in der logistischen supply chain Industrie, die etwa ein Sechstel des weltweiten BIP ausmacht – also gesprochen ein Sechstel des globalen BIP, das hauptsächlich von sehr großen Unternehmen getrieben wird –, die mangelnde Innovation bezüglich dieser Themen besonders problematisch ist. Das bedeutet jedoch nicht, dass es nicht auch anderswo Anwendung finden sollte.

Audience Member (Bahman): Ich meine, vielleicht wäre die passendere Terminologie “service supply chain”. Beispielsweise betreiben Krankenhäuser Demand Planning für Notfalldienste. Dabei geht es nicht unbedingt um Produkte, sondern um die Dienstleistung selbst. Daher richtet sich meine Frage, denke ich, eher auf die automatische Entscheidungsfindung, denn es gibt ein Spektrum – von Notaufnahmen, die es eigentlich mit nur einer Zeitreihe zu tun haben, bis hin zu Bereichen, wo man nicht mit Millionen oder Tausenden von Zeitreihen arbeitet. Also: Was sind die Voraussetzungen, um automatische Entscheidungsfindung zu ermöglichen?

Sven Crone: Ich denke, du hast recht. Es gibt viele interessante Bereiche, denen wir in der Forecasting-Community nicht so viel Beachtung geschenkt haben wie anderen. Betrachtet man beispielsweise die 10.000 Publikationen zum Thema neuronale Netzwerke im Forecasting, so beschäftigten sich etwa die Hälfte davon mit Elektrizität, während sich nur sehr wenige mit Pharmazeutika befassen. Das ist also ein guter Punkt. Ich denke, wir sollten den wichtigen Themen mehr Aufmerksamkeit schenken.

Conor Doherty: Entschuldigung, Nicolas, du kannst die nächste Frage beantworten. Ich möchte zur nächsten Frage übergehen.

Audience Member: Hallo, vielen Dank für die wunderbare Diskussion. Meine Frage betrifft mehr die Rolle des Urteilsvermögens. Jede Expertin und jeder Experte hat unterschiedliche Einschätzungen. Somit gibt es einerseits ein Muster von Verzerrungen, das aus menschlichem Urteilsvermögen entsteht, und andererseits ein Muster von Verzerrungen, das von KI- oder ML-Modellen – gleich welcher Art statistischen Modells – erzeugt wird. Wir haben also zwei Verzerrungen, die des menschlichen Urteils und die der statistischen Modelle. Wie können wir die Verzerrung des menschlichen Urteils in die statistische Verzerrung integrieren, um die Gesamtverzerrung bei der Demand Planning zu reduzieren? Danke.

Nicolas Vandeput: Danke für deine Frage. Es ist ein typisches Beispiel aus meiner Arbeit in supply chains. Eine der ersten Maßnahmen ist es, historisch zu analysieren, wie eure Prognosen abgeschnitten haben. Wenn sie einen sehr hohen oder sehr niedrigen Bias – also Unter- oder Überprognosen – aufweisen, steckt dahinter immer eine Geschichte. Die Menschen prognostizieren oft zu hoch, weil sie auf der sicheren Seite sein wollen, höchstwahrscheinlich, weil der Lieferprozess nicht optimal ist und sie nicht genau wissen, wie sie manage inventory bewältigen sollen. Anstatt beispielsweise Richtlinien oder Sicherheitsbestandziele zu ändern, verlassen sie sich auf sehr hohe Prognosen. Vielleicht sind ihre Prognosen auch zu hoch, weil sie optimistisch sein wollen, um ins Budget zu passen und dergleichen.

Auf der anderen Seite könnte eine Unterprognose auftreten, weil die Menschen versuchen, die Prognose zu unterbieten, um einen Bonus zu ergattern. Wenn eure supply chain also einen sehr hohen Bias generiert, liegt das meist an falschen Anreizen oder einem fehlerhaften Lieferprozess. Das müsst ihr entkoppeln, die Mitarbeiter neu schulen, euren Lieferprozess vielleicht verbessern und es eventuell so gestalten, dass es manchen Personen unmöglich ist, die Prognose zu verändern, wenn sie einen direkten Anreiz haben, sie hoch oder niedrig zu setzen. Das betrifft den Prozess-Teil, weshalb wir darauf achten müssen, dass diejenigen ohne entsprechende Anreize arbeiten, um zu hohe oder zu niedrige Prognosen zu erstellen.

Der Modellteil: Wenn ihr ein Modell habt, das langfristig sehr hohe oder sehr niedrige Prognosen generiert – ich behaupte nicht, dass ein einzelner Monat falsch ist, aber über mehrere Perioden hinweg zeigt sich das gleiche Problem –, dann ist das höchstwahrscheinlich ein Optimierungsproblem eurer Modell-Engine und beruht aller Wahrscheinlichkeit nach darauf, dass der KPI, der zur Optimierung des Modells verwendet wird, nicht der richtige ist. Ich würde darauf wetten, dass er auf MAPE basiert, aber das ist ein anderes Thema.

Conor Doherty: Kannst du, Alexey, noch einen abschließenden Gedanken äußern, da wir bald beenden müssen?

Sven Crone: Ich möchte nur noch etwas zu dem hinzufügen, was Nicolas gesagt hat. Wenn wir darüber sprechen, dass LLMs möglicherweise das menschliche Urteil und die entsprechenden Anpassungen übernehmen, sind wir nicht allzu sehr ins Detail gegangen, wie das funktioniert. Aber es gibt heutzutage zahlreiche Belege dafür, dass man nicht ein einziges LLM hat, das auf alle Daten trainiert wird, um einen einzigen Wert zu ermitteln. Stattdessen hätte man tatsächlich personas, auf denen man diese trainiert. Man hätte ein supply chain LLM, ein Finance LLM, ein CEO LLM, ein Marketing- und ein Key Account Management LLM, die alle auf unterschiedlichen Daten basieren. Oft resultieren diese Verzerrungen aus unterschiedlichen Kosten, die mit den Entscheidungen im Key Account versus der supply chain verbunden sind. Häufig liegen unterschiedliche Informationen vor, und das, was die einzelnen Agenten wahrnehmen, kann zu verbesserten Entscheidungen führen, wenn sie miteinander kommunizieren und für einen konsolidierten Prozess argumentieren.

Es ist nicht ungewöhnlich, in S&OP gute Praktiken zu sehen, bei denen ein Konsens erreicht wird, der genauer ist als die Entscheidung eines einzelnen LLM. Es ist wirklich beängstigend, da die Verzerrungen da sind, die Entscheidungsfindungen vorhanden sind und am Ende jemand basierend auf der Gewichtung der Informationen entscheidet. Es ist geisterhaft.

Conor Doherty: Alex, das letzte Wort an dich, und dann sind wir fertig.

Alexey Tikhonov: Zur gleichen Frage: Ich denke, Bias ist ein Problem aus der Perspektive von Point Forecasts. Typischerweise wird eine Prognose absichtlich verzerrt, weil sie hinsichtlich der Erfassung der Risikostruktur etwas naiv ist. Du prognostizierst das wahrscheinlichste zukünftige Szenario und gehst dann davon aus, dass die Modellresiduen normalverteilt sind – was aber niemals der Fall ist. Deshalb führst du den Bias ein, der deine Vorhersage in Richtung des Bereichs verschiebt, in dem das meiste Risiko konzentriert ist. Zum Beispiel in den rechten Rand, wenn du die Wahrscheinlichkeit prognostizieren möchtest, dass du deine Service Level Ziele nicht erreichst, und somit den Bias verschiebst.

Wenn du zu einer probabilistischen Perspektive wechselst, benötigst du diesen Bias nicht mehr, denn was du erhältst, ist eine Einschätzung der Zukunft, die besagt: Dieses Szenario tritt mit dieser Wahrscheinlichkeit ein, jenes Szenario mit jener Wahrscheinlichkeit. Sobald du die Parameter so trainiert hast, dass die Risikostruktur genau erfasst wird, brauchst du zusätzlich nur noch eine wirtschaftliche Perspektive – wie Kosten, Gewinne und einige höher geordnete Treiber –, die dir ermöglichen, Trade-off-Entscheidungen zu treffen. Zum Beispiel: Soll ich eine zusätzliche Einheit dieses Gutes kaufen oder eine zusätzliche Einheit jenes Gutes, weil dein Budget immer begrenzt ist? Mit einer probabilistischen Perspektive hast du dieses Problem nicht, da der Bias entbehrlich ist.

Conor Doherty: In diesem Sinne, mir ist bewusst, dass wir nun ein wenig über die Zeit hinausgelaufen sind. Wer Anschlussfragen hat, kann sich gern an den Bühnenrand begeben. Aber nochmals: Sven, Nicolas und Alexey, vielen Dank, dass ihr dabei wart, und genießt den Rest des Tages. Danke.