00:00:00 Einführung in das Interview
00:00:42 Meinolf Sellmanns Karriere und InsideOpts Entscheidungsfindung
00:03:47 Störungen und Überoptimismus bei der Optimierung
00:06:18 Vermorels Entdeckung der stochastischen Optimierung und Einflüsse
00:08:10 E-Commerce-Erfüllung und supply chain-Prognose
00:09:56 ‘predict then optimize’-Ansatz und Konsequenzen
00:11:41 Verbesserung operationeller Ergebnisse und Geschäftskosten
00:14:08 Unvorhersehbarkeit und Chaos in supply chain
00:16:16 Reiz der Prognose und rationale Entscheidungsfindung
00:18:43 Rationale Entscheidungsfindung und Überbuchungsspiel
00:21:55 Beispiel eines Supermarktprodukts und Lieferverfügbarkeit
00:24:27 Stochastische Optimierung und saisonale Verkaufsvariabilität
00:28:53 Auswirkungen von Preisänderungen und gemeinsame a-posteriori Verteilung
00:30:39 Heuristiken zur Problemlösung und Bewältigung von Komplexität
00:33:10 Herausforderungen bei verderblichen Waren und a-posteriori Verteilung
00:36:01 Schwierigkeiten im logischen Denken und Schaffung von Lösungsbewusstsein
00:38:40 Problem der Kaffeerösterei und Produktionsplanung
00:42:20 Geschäftsmodellierung und Realität komplexer Variablen
00:45:34 Ignorierte Bedenken in der Optimierung und Suche nach der Allheil-Lösung
00:49:00 Ratschläge des CEOs und das Verständnis von Geschäftsprozessen
00:51:58 Lagerkapazität und Unsicherheit bei Lieferantenlieferungen
00:54:38 Wahrnehmung des Servicelevels und Briefing-Übung
00:57:33 Finanzielle Verluste von Fluggesellschaften und Technologieübernahme
01:00:10 KI-basierte Suchvorteile und Hardwarekompatibilität
01:03:05 Konvexität in der Optimierung und Nutzwert vor Beweis
01:06:06 Konvergenz von Machine Learning und Optimierungstechniken
01:09:34 Laufzeiteigenschaften und Erweiterung des Suchhorizonts
01:12:22 Mikroanpassungen und Risiken im Lagerbetrieb
01:16:09 Finden eines guten Kompromisses und Absicherung gegen Unsicherheit
01:19:11 Erwarteter Gewinnanstieg durch stochastische Optimierung
01:22:23 Beispiel aus der Luft- und Raumfahrtindustrie
01:24:30 Akzeptieren guter Entscheidungen und Schadensbegrenzung
01:25:19 supply chain Effizienz
01:26:22 Kundenfeedback und Bedeutung der Technologie
01:26:56 Ende des Interviews

Über den Gast

Dr. Meinolf Sellmann ist Gründer und CTO bei InsideOpt, einem US-basierten Startup, das universelle Software zur Automatisierung von decision-making unter uncertainty produziert. Er war ehemaliger Director für Netzwerkoptimierung bei Shopify, außerdem Laborleiter der Machine Learning- und Wissensrepräsentationslabore im Global Research Center von General Electric, Senior Manager für Cognitive Computing bei IBM Research und Assistant Professor für Informatik an der Brown University. Meinolf konzipierte Systeme wie das Abwicklungssystem der EZB, das über eine Billion Euro pro Nacht verarbeitet, hat über 80 Artikel auf internationalen Konferenzen und in Fachzeitschriften veröffentlicht, hält sechs Patente und hat mehr als 22 erste Preise bei internationalen Programmierwettbewerben gewonnen.

Zusammenfassung

In einem aktuellen LokadTV-Interview diskutierten Conor Doherty, Joannes Vermorel und Gast Meinolf Sellmann die Rolle der stochastischen Optimierung im supply chain management. Sie hoben hervor, wie wichtig es ist, Varianz und Unsicherheit in Entscheidungsprozessen zu berücksichtigen. Traditionelle deterministische Methoden scheitern in realen Szenarien häufig, was zu übermäßig optimistischen Optimierungsplänen führt. Sowohl Vermorel als auch Sellmann kritisierten den “predict then optimize”-Ansatz und schlugen vor, dass Unternehmen bessere Ergebnisse erzielen können, wenn sie die Variabilität der Prognose in die Optimierung mit einbeziehen. Sie betonten die Notwendigkeit ausführbarer Pläne und messbarer Effektivität in jedem Optimierungsmodell.

Erweiterte Zusammenfassung

In einem aktuellen Interview, moderiert von Conor Doherty, Leiter der Kommunikation bei Lokad, diskutierten Dr. Meinolf Sellmann, CTO von InsideOpt, und Joannes Vermorel, CEO von Lokad, die Komplexitäten der Entscheidungsfindung unter Unsicherheit im supply chain management.

Dr. Sellmann, ein preisgekrönter Informatiker und KI-Forscher, begann damit, seine berufliche Laufbahn bei IBM, GE, Shopify und nun bei InsideOpt zu schildern. Er betonte, wie maschinelles Lernen zunehmend Teil seiner Arbeit geworden ist und wie traditionelle, deterministische Optimierungsmethoden in realen Szenarien oft unzureichend sind. Er unterstrich, dass die Entscheidungsfindung unter Unsicherheit ein notwendiger Aspekt des supply chain management ist und dies der Schwerpunkt bei InsideOpt sei.

Am Beispiel der Flugzeugbranche veranschaulichte Dr. Sellmann die Herausforderungen der Optimierung unter Unsicherheit. Er erklärte, dass Optimierungspläne auf dem Papier zwar hervorragend aussehen mögen, in der Praxis jedoch oft an unvorhergesehenen Umständen scheitern. Daraus ergibt sich, dass die Optimierung unter Überoptimismus leidet.

Vermorel stimmte der Perspektive von Dr. Sellmann zu und teilte seine eigene Erfahrung bei der Entdeckung des Konzepts der stochastischen Optimierung. Er merkte an, dass die Idee der Unsicherheit in der traditionellen Optimierungsliteratur oft fehlt. Vermorel erörterte auch den Gedanken, die Zukunft zu meistern, um Unsicherheit zu beseitigen – ein Konzept, das seit fast einem Jahrhundert anziehend wirkt. Er erwähnte den Versuch der Sowjetunion, 30 Millionen Produkte fünf Jahre im Voraus zu prognostizieren und zu bepreisen, was scheiterte. Dennoch spricht die Idee weiterhin Akademiker und bestimmte Managementtypen aufgrund ihres Top-down-Ansatzes an.

Dr. Sellmann kritisierte den traditionellen “predict then optimize”-Ansatz, bei dem eine Abteilung eine Prognose erstellt und eine andere diese Prognose für die Optimierung verwendet. Er argumentierte, dass dieser Ansatz die Variabilität der Prognose ignoriert und schlug vor, dass Unternehmen deutlich bessere operationelle Ergebnisse erzielen können, wenn sie die Prognosevariabilität in die Optimierung einbeziehen.

Vermorel nutzte das Beispiel der Überbuchung bei Fluggesellschaften, um die Nichtlinearität bestimmter Probleme zu veranschaulichen, bei denen kleine Abweichungen schnell zu erheblichen Schwierigkeiten eskalieren können. Dr. Sellmann brachte das Beispiel eines Supermarkts, der Butter und Sonnenschutz-Kits verkauft, heran, um die Bedeutung von Nachfrageschwankungen zu verdeutlichen. Er argumentierte, dass es entscheidend sei, dass das gesamte Angebot zum richtigen Zeitpunkt verfügbar ist, besonders bei saisonalen Produkten wie Sonnenschutz.

Das Gespräch berührte auch die Kluft zwischen gesundem Menschenverstand und dem Einsatz von Software im supply chain management, die Bedeutung der Prognose potenzieller Szenarien für alle Produkte sowie die Komplexitäten der Produktionsplanung. Dr. Sellmann erklärte, dass, obwohl perfekte Genauigkeit ideal wäre, dies aufgrund inhärenter Unsicherheiten in der Prognose nicht möglich ist. Stattdessen sei der nächstbeste Ansatz, aus den Fehlern der Prognosen zu lernen und diese Informationen zu nutzen, um bessere Entscheidungen zu treffen.

Abschließend hob das Interview die Bedeutung der stochastischen Optimierung im supply chain management hervor. Sowohl Dr. Sellmann als auch Vermorel betonten, dass bei Entscheidungen die Variabilität und Unsicherheit in Prognosen berücksichtigt werden muss und Modelle nicht zu stark vereinfacht werden dürfen. Sie wiesen darauf hin, dass jedes Optimierungsmodell als Simulation dessen betrachtet werden kann, was unter bestimmten Bedingungen passieren könnte, und dass es entscheidend ist, sicherzustellen, dass der Plan ausführbar ist und seine Wirksamkeit gemessen werden kann.

Vollständiges Transkript

Conor Doherty: Willkommen zurück. Unsicherheit und Stochastizität sind das Wesen des supply chain. Unser heutiger Gast, Dr. Meinolf Sellman, ist damit bestens vertraut. Er ist ein preisgekrönter Informatiker, ein ausgezeichneter KI-Forscher und der CTO von InsideOpt. Heute wird er mit Joannes und mir über die Entscheidungsfindung unter Unsicherheit sprechen. Meinolf, herzlich willkommen bei Lokad.

Meinolf Sellman: Vielen Dank, Conor, und es freut mich sehr, dich kennenzulernen, Joannes. Ich freue mich auf die Diskussion.

Conor Doherty: Gut, vielen Dank, dass du dabei bist. Entschuldige bitte die kurze Einleitung. Ich spreche normalerweise direkt mit dem Gast, was allerdings dazu führt, dass der Hintergrund der Person nicht vollständig zur Geltung kommt. Könntest du mir daher zunächst verzeihen und ein wenig zu deinem Werdegang erzählen?

Meinolf Sellman: Sicher. Ich glaube, du hast das Wesentliche erfasst. Im Kern bin ich ein Optimierungsfanatiker. Das war auch der Antrieb für meine Diplomarbeit. Das deutsche System ist dem französischen sehr ähnlich. Meine Diplomarbeit bestand darin, einen Mixed-Integer-Programming-Solver für ein Computer-Algebra-System zu entwickeln. Schon in meinen frühen Studententagen habe ich mich also mit Entscheidungsfindung beschäftigt und erforscht, wie wir Computer nutzen können, um zu besseren Entscheidungen zu gelangen.

Ich war Postdoc in Cornell, Professor an der Brown University, dann Senior Manager bei IBM, Technologiedirektor bei GE, anschließend Direktor bei Shopify und jetzt CTO bei InsideOpt. Auf diesem Weg sieht man, dass maschinelles Lernen immer mehr Einzug in meine Arbeit gehalten hat.

Traditionelle Optimierung ist deterministisch. Man hat vollständiges Wissen über alles, was vor sich geht, und versucht lediglich, den besten Handlungsablauf zu finden. Sobald man jedoch in die Praxis Einblick erhält, merkt man, dass dem nicht so ist. Es bedarf zunehmend Technologien, die es ermöglichen, Entscheidungen unter Unsicherheit zu treffen – und genau das treibt uns bei InsideOpt an.

Conor Doherty: Danke. Du hast erneut viele große Namen erwähnt, was deinen Werdegang bei IBM, General Electric und Shopify betrifft. Ohne etwaige NDAs zu verletzen, welche Details oder Erfahrungen haben deine Sichtweise in Bezug auf Prognosen und Entscheidungsfindung besonders geprägt, jetzt wo du bei InsideOpt tätig bist?

Meinolf Sellman: Schauen Sie sich eine Branche wie die der Fluggesellschaften an. Traditionell wird enorm viel in Optimierung investiert. Es ist eine der Branchen, die vermutlich am frühesten und auch am meisten über die Jahrzehnte in Optimierungstechnologie investiert hat. Und bedenken Sie, wie viel Spaß es macht, eine Fluggesellschaft zu führen. Man erhält großartige Pläne, oder? Man bekommt Crew-Pläne. Es muss entschieden werden, welcher Pilot auf welchem Flugzeug eingesetzt wird, welche Flugbegleiter welchem Flugzeug zugeordnet werden, welche Flugzeuge für welche Strecken genutzt werden. Außerdem muss festgelegt werden, welche Strecken angeboten werden, welche Direktflüge stattfinden sollen und wie diese zu Routen zusammengefasst werden – es bedarf des Revenue Managements. Für all diese operationellen Entscheidungen wird Optimierung eingesetzt und auf dem Papier sehen diese Pläne fantastisch aus. Sie kommen in der Regel, wenn auch nicht mit nachweisbarer Optimalität, dann zumindest mit einer Leistungszusicherung.

Aber wenn man eine Fluggesellschaft betreibt, weiß man, dass man am Tag des Betriebs das Geld verliert, denn dann läuft nicht alles wie geplant. Das Wetter entspricht nicht den Erwartungen, die Fluglotsen in Frankreich haben das Gefühl, nicht ausreichend bezahlt zu werden, das Gate ist überfüllt und einige Geräte fallen aus. All diese unvorhergesehenen Probleme können eintreten. Und wenn Sie schon einmal geflogen sind, wissen Sie, dass das Motto der Fluggesellschaft lautet: “Wenn heute alles schiefgeht, dann geht heute alles schief. Lassen Sie uns sicherstellen, dass morgen nicht auch alles schiefgeht.” Und so behandeln sie Sie. Es ist ihnen egal, dass Sie heute ans Ziel kommen; sie wollen morgen wieder im Plan sein, denn wenn sie mit einer schlechten Situation in den nächsten Tag starten, wird auch morgen alles schiefgehen.

Was sagt Ihnen das? Es zeigt, dass Optimierung unter dem übermäßigen Optimismus leidet, dass alles nach Plan ablaufen wird. Und genau das wollen wir ändern.

Conor Doherty: Danke. Joannes, entspricht das auch deiner Einschätzung?

Joannes Vermorel: Absolut. Für mich war es sehr faszinierend, da ich erst relativ spät auf das Konzept der stochastischen Optimierung gestoßen bin. In meinen Zwanzigern war ich mit der herkömmlichen Optimierung, also der konvexen Optimierung, bestens vertraut und habe ganze Bücher zu diesen Themen gelesen. Die klassische Optimierung, die mit linearer Algebra und Dingen wie dem Simplex-Algorithmus beginnt, wird buchstäblich nicht in der Schule, sondern erst danach gelehrt.

Und dann, als ich als Student einige Jahre Operations Research studierte – das ist der traditionelle Name für das Fachgebiet – konnte man buchstäblich Hunderte von Seiten von Fallbeispielen durchgehen, in denen es um Fabriken, Flugzeuge, sämtliche Zuteilung von Ressourcen, Maschinen, Menschen und dergleichen ging. Und dennoch wird zu keinem Zeitpunkt das Elefant im Raum angesprochen, nämlich dass etwas schiefgehen könnte. Man hat lediglich eine Modellierung der Situation, die falsch sein könnte, und all das, was man optimiert, erweist sich als überaus fragil.

Der Moment, in dem mir bewusst wurde, wie tief das Kaninchenloch tatsächlich ist, war, als ich das Buch “Antifragile” von Nassim Nicholas Taleb las. Das liegt schon eine Weile zurück, aber dann wurde mir klar, dass es ein fehlendes Paradigma gab, das wirklich allgegenwärtig war. Und dann begann ich, mich generell sehr für diese Art der Optimierung zu interessieren. Für mich ist das Überraschendste, wie sehr es in buchstäblich gesamten Literaturkreisen fehlt, die so tun, als ob die Idee der Unsicherheit, also das Nichtwissen um deine Verlustfunktion, buchstäblich eine fehlende Dimension wäre. Es gibt eine fehlende Dimension, und es ist schwieriger zu erkennen, was man nicht sieht. Es ist nicht so, dass es falsch wäre, vielmehr fehlt einem ein ganzer Dimension, die einem sehr großen, sehr umfangreichen, sehr alten Fachgebiet fehlt.

Conor Doherty: Nun, eigentlich, wenn ich darauf aufbauen darf: Als du die Idee fehlender Paradigmen und Dinge, die völlig abwesend sind, erwähnt hast, stellt das einen schönen Kontrast zu einem der Gründe dar, warum wir tatsächlich Kontakt zu Meinolf aufgenommen haben. Deine Sichtweise auf das, was wir als Mainstream- bzw. traditionelle Planung, Prognose und Lagerhaltungsrichtlinien bezeichnen könnten, fällt typischerweise in einen Ansatz: “zuerst prognostizieren, dann Entscheidungen treffen”, der paradigmenbedingt ganz anders ist, als ich glaube, dass es jeder im Raum befürworten würde. Also, zunächst gebe ich das Wort an dich, Meinolf. Könntest du die Unterschiede skizzieren – den traditionellen Ansatz und dann die fehlenden Paradigmen, die du und Joannes seht?

Meinolf Sellman: Ja, also, wie du dir vorstellen kannst: Wenn du ein Erfüllungssystem betreibst, hast du einen E-Commerce-Shop und musst irgendwo in deinem Lager die Produkte unterbringen, von denen du hoffst, dass die Leute sie kaufen. Das grundlegende Problem, auf das du stößt, ist, dass du nicht weißt, wie viel wo gekauft wird. Also musst du sozusagen eine Erwartung formulieren. Das heißt, du musst generell eine Prognose oder Vorhersage erstellen. Und es gibt Leute, die das für dich übernehmen – typischerweise deine Machine-Learning-Abteilung. Diese Leute wissen über alles Bescheid, wie zum Beispiel: “Oh, hier fehlen Werte.” Richtig, nehmen wir an, du hattest irgendwann stockouts, was bedeutet, dass du nicht wirklich weißt, wie viel verkauft worden wäre, weil dir der Vorrat ausging. Du weißt also eigentlich nicht, wie viel du hättest verkaufen können, wenn du mehr gehabt hättest. Sie beschäftigen sich mit Ausreißern, fehlenden Werten, Rauschen und allem, was unsicher ist, und daraus erstellen sie eine Prognose, eine Vorhersage.

Und dann gibt es diese zweite Abteilung, die – wie Joannes ganz korrekt sagte – sich im Allgemeinen nicht mit Unsicherheit befasst. Sie denken sich so: “Oh, tolle Vorhersage. Schmeißen wir das in mein Optimierungsmodell, als ob es vom Orakel von Delphi persönlich käme oder so.” Es ist also, als hättest du perfekte Kenntnis der Zukunft. Du behandelst einfach diese Zahlen, die du hast, und sagst: “Oh, meine Nachfrage nach Sonnenschutzmitteln nächste Woche beträgt 20 Tuben. Also stellen wir sie ins Regal”, ohne die vorhandene Variabilität zu berücksichtigen.

Dieses “zuerst prognostizieren, dann optimieren” – so wird es genannt – ist teilweise darauf zurückzuführen, dass du zwei unterschiedliche Abteilungen mit sehr verschiedenen Fähigkeiten hast. Und es wäre sehr schwierig zu sagen: “Oh, die Machine-Learning-Mitarbeiter müssen jetzt alles über Optimierung lernen”, oder vielleicht müssten die Optimierer mehr über Machine Learning lernen. Genau deshalb würden Unternehmen in der Regel davon Abstand nehmen. Das ist ein Grund, weshalb diese Trennung existiert.

Der entscheidende Punkt hierbei ist jedoch, dass, wenn du die Unsicherheit von einer Abteilung an die andere weitergibst, sie nicht verschwindet. Allein durch das Ignorieren lässt du tatsächlich eine Menge Geld auf dem Tisch liegen. Und das ist der zweite Grund, warum die Leute dem Ganzen nicht näher auf den Grund gehen, weil es für sie so klingt, als hätten die Machine-Learning-Mitarbeiter ihren Job gemacht. Sie kamen zurück und führen Dinge aus, wie zum Beispiel, nachdem sie ein Modell erstellt haben, testen sie ihre Verfahren mittels etwas, das zum Beispiel cross-validation genannt wird. Also tauchst du in bekannte Daten ein und denkst: “Hey, wenn ich nur diesen Datenausschnitt hätte und für den anderen Teil der Daten eine Vorhersage machen müsste, wie gut würde das funktionieren?” Auf diese Weise kannst du dich sozusagen davon überzeugen, dass du sehr gute Vorhersagen von der Machine-Learning-Abteilung erhalten wirst.

Und sie machen das, du kontrollierst das und denkst: “Oh, das ist großartig. Sie liefern gute Vorhersagen.” Und dann kommen die Optimierer trotzdem zurück und sagen: “Entweder habe ich eine Leistungsgrenze, oder hey, ich habe hier eine wahrscheinlich optimale Lösung.” Also würdest du als Unternehmensleiter nicht erwarten, dass es Raum für Verbesserungen gibt, wenn diese Abteilungen besser zusammenarbeiten. Und in Wirklichkeit kannst du ganz leicht 15%, 20%, 25% bessere operative Ergebnisse erzielen, wenn du tatsächlich die Variabilität in der Prognose bei der Optimierung berücksichtigst. Aber das sehen die Leute nicht.

Ein Teil davon ist strukturell bedingt, dass dieses “prognostiziere und optimiere” so lange besteht, weil man die Fähigkeiten nicht vermischen möchte. Der andere Teil ist, dass man nicht sieht, wie viel man tatsächlich auf dem Tisch liegen lässt, wenn man diese Dinge enger miteinander verzahnt. Denn es klingt so: “Hey, großartige Prognose, nachweislich optimale Lösung, super. Der Rest sind einfach die Kosten des Geschäftsbetriebs.” Und das ist es nicht. Das ist, so denke ich, das, was Joannes und ich dem Publikum heute sagen wollen. Das ist nicht der Preis fürs Geschäft.

Conor Doherty: Nun, Joannes, ist das der Preis fürs Geschäft? Hat Meinolf Recht?

Joannes Vermorel: Ja, und ich denke, es gibt noch eine weitere Dimension. Die Vorstellung, die Zukunft zu beherrschen, sie zu erobern, sodass du die Unsicherheit vollständig eliminierst, war fast ein Jahrhundert lang eine sehr verführerische Idee. Die Sowjetunion ist zusammengebrochen, aber die Idee, einen Fünfjahresplan zu erstellen und alles zu orchestrieren, starb nicht mit der Sowjetunion. Irgendwann, glaube ich, hatten sie so etwas wie 30 Millionen Produkte, die sie bepreisen und fünf Jahre im Voraus prognostizieren mussten. Auf pragmatischer Ebene war das ein kompletter Misserfolg.

Der Reiz dieser Idee starb nicht mit der Sowjetunion. Sie hat immer noch Anziehungskraft, vor allem bei Akademikern. Die Vorstellung, die Zukunft der Welt so einrahmen zu können, dass du deine Prognose hast und diese die Wahrheit darstellt, und dann geht es nur noch um die Orchestrierung, ist verlockend. Sie spricht auch bestimmte Managementstile an, weil sie einen sehr top-down Ansatz hat.

Es besitzt diesen Reiz der Einfachheit. Offensichtlich ist das ein Trugschluss, denn du hast nicht die Kontrolle. Deine Kunden haben ihre eigenen Agenden, sie können andere Entscheidungen treffen. Dein Lieferant gibt sein Bestes, aber manchmal ist sein Bestes immer noch nicht besonders gut. Außerdem gibt es Schocks. Manchmal ist es etwas sehr Dramatisches wie ein Krieg, manchmal etwas ziemlich Dummes wie ein Schiff, das im Suezkanal festsitzt, und all deine Importe verzögern sich aufgrund eines dummen Ereignisses. Aber was auch immer die Ursache ist, die Zukunft ist chaotisch.

Es ist sehr schwer, solch ein Chaos zu rationalisieren. Es ist schwieriger, darüber nachzudenken. Über die perfekte Zukunft zu spekulieren, ist einfach. Das war die Art von Rückmeldung, die wir in den frühen Jahren von Lokad bekamen: “Herr Vermorel, geben Sie uns einfach akkurate Prognosen. Halten Sie einen Fehler von 3% ein und damit ist es.” Und offensichtlich, wenn wir das hätten liefern können, dann gäbe es keinen wirklichen Mehrwert, die Prognose und die Optimierung zu kombinieren.

Aber hier sind wir, 15 Jahre später. Selbst wenn Lokad in puncto Prognose sehr gut abschneidet, sind für die meisten Unternehmen 3% Ungenauigkeit einfach lächerlich. Wir kommen dem gar nicht annähernd nahe. Auf SKU-Ebene wird es niemals so genau sein.

Meinolf Sellmann: Ja, es klingt hart, die industrielle Praxis mit der Sowjetunion zu vergleichen, aber ich habe kürzlich eine Anzeige für einen MIP-Solver gesehen, in der stand: “Mit unserem MIP-Solver hat diese Fluggesellschaft jetzt ihren Fünfjahresplan optimiert.” Und ich glaube, ich habe einen Kommentar hinterlassen, dass Chruschtschow so stolz darauf wäre. Es stimmt, es hat viel Reiz zu sagen: “Ich kann die Zukunft vorhersagen, KI ist großartig, und dann optimiere ich dafür – und jetzt bin ich gut.”

Joannes Vermorel: Ich denke, der Reiz dieser Ideologie ist stark. Ich glaube, die Leute würden das abtun: “Oh nein, ich bin marktwirtschaftlich, ich bin nicht kommunistisch.” Aber sie übersehen, was diese Art von Ideologie so verlockend gemacht hat. Die Vorstellung, die Kontrolle über die eigene Zukunft zu haben, ist sehr ansprechend. Die Idee, von oben herab irgendeine Art von wissenschaftlicher Methode anzuwenden und von oben mit einem großen Plan zu rationalisieren, ist von oben bis unten durchaus rational. Auf dem Papier sieht es nach modernem Management aus. Es stellt sich jedoch heraus, dass es in Wirklichkeit nicht modernes Management, sondern modernes Fehlmanagement ist – aber ich spüre den Reiz und den Anschein von Rationalität.

Aber es kommt mit Nebenwirkungen, die iatrogen sind – unbeabsichtigte Dinge, die diese Pläne grundlegend untergraben. Letztlich landest du mit angeblich optimalen Entscheidungen, die sich als unmöglich fragil herausstellen, sodass die geringste Abweichung dir auf überraschende Weise buchstäblich ins Gesicht schlagen kann.

Meinolf Sellmann: Das ist wahrscheinlich der häufigste Trugschluss. Die Leute denken: “Vielleicht kann ich die Zukunft nicht perfekt vorhersagen, aber selbst wenn es leichte Abweichungen gibt, bleiben meine Entscheidungen mehr oder weniger gleich.” Genau das stimmt aber nicht. Diese Art kontinuierlicher Veränderungen, die man erwarten würde, ist in der Praxis einfach nicht vorhanden. Deswegen – auch wenn es so rational klingt, eine Prognose zu erstellen und darauf basierend eine Entscheidung zu treffen – ist es tatsächlich das irrationalste, was man tun kann. Du solltest damit rechnen, dass dir nicht alle Informationen zur Verfügung stehen, die du eigentlich haben solltest.

Eigentlich besteht der rationale Ansatz darin, das zu tun, was Lokad macht – wofür wir unsere Software insideOpt für dich entwickeln –, nämlich die Variabilität, die du in deiner Prognose erwarten musst, bei deinen Entscheidungen zu berücksichtigen.

Joannes Vermorel: Ja, und hier noch ein Beispiel für das Publikum. Wenn du das Spiel des Overbookings bei Fluggesellschaften spielen möchtest, ist das in Ordnung. Es gibt immer ein paar Passagiere, die nicht erscheinen, sodass du ein paar mehr Tickets verkaufen kannst, als Sitze im Flugzeug vorhanden sind. Aber das Problem ist, dass dir irgendwann wirklich die Sitze ausgehen. Du hattest nur 200 Sitze, hast 220 verkauft in der Annahme, dass 20 Personen nicht erscheinen würden, aber tatsächlich erschienen 205 Personen. Also hast du so fünf Personen, die – egal, wie du es drehst – nicht im Flugzeug untergebracht werden können. Ja, du kannst ihnen eine Entschädigung anbieten und allerlei Tricks anwenden, aber am Ende des Tages hast du fünf Personen, die für den gebuchten Flug einen miserablen Service erleben.

Es ist also eine sehr nichtlineare Angelegenheit, bei der die ersten paar Sitze – ja, du kannst das Flugzeug überbuchen – aber dann gibt es eine Grenze, und das Erreichen dieser Grenze ist brutal, besonders für die, die etwas wirklich Wichtiges zu erledigen haben. Es ist absolut nicht wie ein sanft lineares Problem, bei dem es einfach nur ein bisschen mehr vom Gleichen ist. Nein, es gibt quasi einen Cut-off, und dann wird es sehr schnell zu einem echten Problem.

Conor Doherty: Um darauf aufzubauen und ein paar Gedanken zu verknüpfen, denn ihr beide habt wirklich interessante Dinge gesagt, die zum nächsten Punkt führen: Joannes, dein Beispiel mit dem Overbooking und Meinolf, dein Beispiel zur Messung der Nachfrage. Zum Beispiel: Ich habe letzten Monat 20 Einheiten Hautcreme verkauft. Naja, du hast es getan, aber es gab einen Fehlbestand, sodass du eigentlich nicht weißt, wie die Nachfrage gewesen wäre.

Wenn du rational über das Problem nachdenkst, führt dich das ganz natürlich zur stochastischen Optimierung, dazu, diese Unsicherheit zu akzeptieren. Es gibt keine perfekte Antwort, und ich glaube, du hast einen Satz in deinen YouTube-Vorträgen, so etwas wie “Ich werde es jetzt vermurksen, denn eine gute Lösung jetzt ist besser als die perfekte, aber zu späte Lösung” oder so ähnlich.

Meinolf Sellmann: Ja, das ist ein anderer Aspekt, denn auch die Zeit, die du brauchst, um eine gute Antwort zu finden, beeinflusst die Qualität der Antwort selbst. Ja, das benötigst du definitiv. Aber zu deinem Punkt: Warum spielt die Variabilität eine Rolle? Lassen Sie uns das an einem Beispiel erklären. Angenommen, du betreibst einen Supermarkt in Paris und stellst verschiedene Produkte in die Regale. Es gibt Butter und es gibt Sonnenschutzkits. Zwei sehr unterschiedliche Produkte. Wenn du eine Prognose hast, dass du in den nächsten 30 Tagen 300 dieser Kits verkaufen wirst, solltest du dann sagen, dass es 10 pro Tag sind? Nein. Bei der Butter kannst du das, weil die Nachfrage nach Butter konstant ist und deine Prognose im Grunde immer um ihren Durchschnitt liegt und nur ein wenig schwankt. Aber beim Sonnenschutz ist es eher so: Momentan ist das Wetter schlecht, schlecht, schlecht, und dann kommt ein Wochenende, an dem die Sonne scheint und alle sich vorbereiten und den Sonnenschutz im Grunde für den ganzen Sommer kaufen. Wenn zu diesem Zeitpunkt nicht der gesamte Vorrat im Supermarkt verfügbar ist, hast du die Chance einfach verpasst. Es ist nicht so, dass, weil du heute nur 10 dieser Kits hattest, du die restlichen 290 morgen nachholst. Nein, ab Montag wirst du davon gar nichts mehr verkaufen.

Und das ist dann so der Unterschied, oder? Der Erwartungswert kann derselbe sein, aber es kommt sehr darauf an, ob die Variabilität eng um diesen Erwartungswert verteilt ist oder ob es quasi eine riesige Diskrepanz gibt, bei der man sagen könnte: Entweder ist es gar nichts oder dieser hohe Wert. Wenn du das bei deinen Entscheidungen nicht berücksichtigst, verpasst du es einfach – du lässt eine Menge Geld auf dem Tisch liegen, wenn du Produkte beispielsweise so behandelst. Ich hoffe, das veranschaulicht ein wenig, worüber wir hier sprechen – Erwartungswerte sind Erwartungswerte, aber du musst wissen, welche Szenarien du tatsächlich betrachten musst. Und genau das macht die stochastische Optimierung. Sie betrachtet verschiedene potenzielle Zukünfte und versucht, heute eine Kompromissentscheidung zu finden.

Also, für die Dinge, bei denen du heute entscheiden musst und nicht darauf warten kannst, wie die Zukunft aussieht, versucht sie, eine gute Ausgangsposition zu finden, damit du dann sehr gut handeln kannst, sobald die Zukunft sich zeigt. Das ist, was stochastische Optimierung ist – und das ist in meinen Augen genau das, was jeder Mensch jeden Tag tut. Denn wir vergessen es, sobald wir einen Computer für diese Aufgaben nutzen.

Conor Doherty: Danke, Meinolf. Joannes, wie passt das zu deinem Verständnis von stochastischer Optimierung?

Joannes Vermorel: Ja, das ist der Fall, in dem man – wie Meinolf erwähnte – ein Muster in der Sonnencreme hat, das sehr saisonal ist, aber der Beginn der Saison je nach Wetterlage von Jahr zu Jahr variiert. Es ist ganz klassisch. Es gibt Unmengen von Produkten, die in diese Kategorie fallen. Ein anderes Produkt, bei dem man ein ähnliches Einzelhandelsbeispiel heranziehen könnte, ist der do-it-yourself (DIY) Laden, wo Menschen vier oder acht Einheiten auf einmal kaufen, weil es sich um Lichtschalter handelt und sie in ihrer Wohnung nicht vier oder acht Lichtschalter haben möchten, die alle unterschiedlich aussehen. Also, wenn sie kaufen, wollen sie vier oder acht – alle identisch – zur gleichen Zeit.

Wenn du denkst, dass drei Einheiten im Regal zu haben bedeutet, dass es keinen Lagerengpass gibt, liegst du falsch. Denn wenn die Person den Laden betritt und sagt „Ich will vier“, es aber nur drei gibt, geht sie woanders hin, wo sie vier identische Einheiten findet. Deshalb spielt die Unregelmäßigkeit der Nachfrage wirklich eine Rolle, und da müssen wir plötzlich die feine Struktur dieser Unbeständigkeit betrachten, statt uns auf einen über lange Zeit gemittelten Durchschnitt zu verlassen.

Und tatsächlich ist das etwas, das der Ladeninhaber instinktiv weiß. Diese Lichtschalter – einer allein ist nutzlos. Ich brauche entweder eine ganze Packung davon, alle gleich, oder es ist besser, sie erst gar nicht zu haben, weil die Leute sich nicht einmal die Mühe machen würden, ein einzelnes Produkt anzusehen. Ein einzelner Hammer ist in Ordnung, weil die Leute nicht vier identische Hämmer kaufen, aber Lichtschalter sind das nicht. Und das ist etwas, das – ich meine, es ist ja auch keine Raketentechnik der Mathematik, wenn man darüber nachdenkt.

Ich denke, du hast völlig recht. Ich habe dasselbe erlebt. Die Leute, vor allem supply chain Praktiker, wissen das instinktiv. Sie brauchen die Mathematik nicht, aber sobald sie in den Bereich der enterprise software eintreten, soll plötzlich ein gleitender Durchschnitt und ein wenig exponentielle Glättung den Fall abdecken. Und sie sagen: Keine Sorge, wenn der gleitende Durchschnitt nicht ausreicht, haben wir noch ABC Klassen, um das Ganze zu verfeinern. Und ich denke, das hilft trotzdem nicht. Und ich stimme zu, es gibt diese Diskrepanz, dass – wenn man in diesen Softwarebereich eintaucht – die Leute ihren gesunden Menschenverstand an der Tür lassen und meinen, es liege an der Maschine, es sei zu kompliziert. Also, wenn sie exponentielle Glättung betreiben, dann enthält das Wort „exponentiell“ eben auch den Anschein von Wissenschaft und Fortschritt.

Meinolf Sellmann: Wir zerlegen Probleme gerne in ihre Bestandteile. Deswegen mag ich den Begriff „Lumpiness“, den du erwähnt hast. Es ist erfreulich, dass es kein technischer Begriff ist, den man steif anwenden muss. Aber es geht sogar noch weiter: Wenn du einen Supermarkt betreibst und deine Milchpreise erhöhst, kommen plötzlich weniger Menschen in deinen Laden, weil sie ihre Grundnahrungsmittel dort nicht mehr bekommen. Plötzlich werden auch die Kajaks oder was auch immer du saisonal verkaufst, nicht mehr verkauft, weil der Kundenstrom im Geschäft deutlich sinkt. Daher brauchst du eigentlich eine gemeinsame a-posteriori-Verteilung, mit der du potenzielle Szenarien vorhersagen kannst, wie alles fließt.

Conor Doherty: Diese Beschreibung, insbesondere der Grundnahrungsmittel und deren Wechselbeziehungen, klingt bemerkenswert ähnlich wie die Basket-Perspektive, über die wir sprechen. Du gehst in den Laden, möchtest vielleicht einen Hammer kaufen – aber wenn keiner da ist, gehst du wieder. Ich gehe hinein, will viele Dinge kaufen, will eine komplette Einkaufsliste abarbeiten, und wenn die Milch fehlt, dann gehe ich woanders hin, wo ich Milch und alles andere bekommen kann. Somit ist der Verlust durch fehlende Milch nicht nur auf den entgangenen Milchverkauf beschränkt, sondern betrifft alles. Denn hätte ich die Milch gehabt, hätte ich auch Butter, Brot, Marmelade, Eis, Speck oder was auch immer verkauft. Aber noch einmal – und hier komme ich zur nächsten Frage an Meinolf, um im Sinne des Prinzips der Fairness auch diejenigen zu verteidigen, die widersprechen könnten – Menschen mögen Heuristiken. Als du davon sprachst, Probleme zu zerlegen, kommen die Leute gern auf Heuristiken zurück. Also die Idee einer ABC-Klasse, exponentieller Glättung, das sind Dinge, die leichter zu verstehen sind, quasi Faustregeln. Stochastische Optimierung ist, um fair zu sein, komplexer als das, oder?

Meinolf Sellmann: Nun, ich denke, es ist fair zu sagen, dass wir früher nicht die Werkzeuge hatten, um es für eine ganze Abteilung sauber zu lösen, während wir die Trennung zwischen Machine Learning und Optimierung beibehalten. Man möchte nicht jeden im Team umschulen müssen, um diesen Kram zu betreiben. Und so war das wohl noch vor, ich weiß nicht, vielleicht fünf Jahren, in Ordnung. Aber mit der heutigen Technologie würde ich nicht unbedingt sagen, dass es für die Leute, die diese Lösungen implementieren müssen, noch komplizierter ist.

Conor Doherty: Nun, zur Fortsetzung – und ich werde wieder konkret auf Joannes zu dieser Frage zurückkommen – aber noch einmal: Wenn wir zuvor über Genauigkeit gesprochen haben, wie fließt die Genauigkeit, die traditionell als der absolute Benchmark-KPI für jede Prognose gilt, in die stochastische Optimierung ein? Oder ist das nur eine weitere Heuristik, die an Bedeutung verliert, wenn man sich dem Bereich der Entscheidungen zuwendet?

Meinolf Sellmann: Ja, also, wenn dir jemand sagen könnte, was die Lotteriezahlen am nächsten Samstag wären, wäre das großartig. Das Problem ist, dass du Prognosen erstellen musst, die mit inhärenter Unsicherheit behaftet sind. Du weißt nicht alles über die Welt, um vorauszusagen, was passieren wird. Wenn du also ein Geschäft betreibst und entscheiden musst, welche Art von Sushi-Gerichten du anbieten willst – verderbliche perishable Güter, um allen Aspekten gerecht zu werden, wie es Joannes zuvor beim Überbuchen von Sitzplätzen in einer Fluggesellschaft erwähnte –, musst du, wenn du das Sushi nicht verkaufst, dieses auch wegwerfen. Und das heißt, dass die gesamten Kosten für Produktion, Transport, Preisgestaltung und Bereitstellung verloren gehen, wenn es nicht verkauft wird. Also möchtest du diese relativ margenarmen Produkte, die wegen Verderblichkeit hohe Kosten verursachen, nicht überbestellen.

Weißt du, ob es diese fünf jungen Mütter gibt, die beschlossen haben „Super, wir können wieder Sushi essen“ und jetzt eine Party schmeißen und deinen Laden plündern? Du weißt es nicht – du hättest niemals wissen können, dass sie plötzlich auftauchen und 40 dieser Sushi-Gerichte kaufen würden. Und solche Dinge kannst du unmöglich wissen. Es besteht also eine Unsicherheit. Wenn du eine perfekte Prognose hättest, wäre das großartig. Aber da das unmöglich ist, machst du das nächstbeste und versuchst herauszufinden, wie sich deine Prognosen irren. Und das nennen wir mit einer a-posteriori-Verteilung. Wir sagen also: „Okay, schau, heißt das, wenn ich diese Sushi-Gerichte anbiete, dass mein erwarteter Wert hier – sagen wir 50 Gerichte – tatsächlich so ist, dass es an den meisten Tagen 50 Gerichte sind, manchmal 48, manchmal 42, gut; oder heißt 50 Gerichte, dass es entweder 25 oder 75 sein können?“ Großer Unterschied. Die Genauigkeit ist gleich, der Erwartungswert beträgt 50, richtig? Aber die Szenarien, die du betrachten musst, und die daraus abzuleitenden Entscheidungen, was du ins Regal legen sollst, sind ganz und gar verschieden. Also ist es ein wenig irritierend. Genauigkeit wäre großartig, wenn du 100 % erreichen könntest. Wenn du das nicht schaffst, musst du das nächstbeste tun und prognostizieren sowie bewerten, wie sehr deine Prognosen danebenliegen.

Joannes Vermorel: Ja, und um kurz auf Meinolfs Kommentar zur Komplexität bzw. wahrgenommenen Komplexität zurückzukommen: Meiner Meinung nach beginnt man sehr häufig instinktiv mit einer Lösung, wenn man sich einer Situation nähert. Es ist extrem schwer, ein Problem zu erfassen, solange man die Lösung noch nicht hat. Das ist sehr merkwürdig. Das kartesische Denken würde ja sagen: „Betrachten wir dieses Problem und untersuchen anschließend die Lösung“, aber so gehen die Leute – auch ich – absolut nicht vor. Es ist eher so, dass ich eine Palette an Lösungen im Kopf habe und daraus dann ein Problem rekonstruieren kann, das ich lösen kann. Normalerweise läuft es eben genau umgekehrt.

Also startest du mit einer Lösung oder mit dem Lösungsrepertoire, das du in Betracht ziehen möchtest, und wählst dann basierend darauf das Problem aus, von dem du glaubst, dass du es lösen kannst. Denn es gibt viele Probleme, die fantastisch wären, du sie aber einfach nicht lösen kannst. Fliegende Autos – ich weiß nicht, wie man einen Antigravitationsmotor baut – darum verbringe ich auch keine Zeit damit, darüber nachzudenken, was das beste Design für ein fliegendes Auto wäre, weil es so fern davon ist, überhaupt realisierbar zu sein, dass es nicht einmal ein Problem ist, das meine Zeit wert wäre.

Also zurück zum Thema: Ich glaube, die Herausforderung besteht darin, dass es sehr schwer ist, über etwas nachzudenken, solange man die Lösung nicht hat. Und wenn man dann vielleicht zu dem Produkt überleitet, das ihr bei InsideOpt mit Seeker anbietet, dann ist es so, dass – wenn euch nur Optimierungstools zur Verfügung stehen, die keinerlei Unsicherheit berücksichtigen – alle Optimierungsprobleme, die ihr in Betracht zieht, per Design jene sind, bei denen ihr die Unsicherheit in gewisser Weise, in einem paradigmatischen Rahmen, eliminiert habt.

Heutzutage nehmen die Leute es als selbstverständlich hin, dass sie mit jemandem am anderen Ende der Welt telefonieren können – das ist gegeben. Erzähl das jemandem vor 200 Jahren, und er würde denken, es sei pure Magie. Die Vorstellung, dass du so etwas tun könntest, war schlichtweg undenkbar. Können die Leute das heute? Ja, ganz leicht. Aber wiederum kennen sie die Lösung, sodass es viel einfacher ist, das Problem an sich zu durchdenken.

Also, ich glaube, die Herausforderung besteht darin, dass es sehr schwer ist, über etwas zu argumentieren, solange man die Lösung nicht kennt. Und wenn man dann vielleicht zu dem Produkt überleitet, das ihr bei InsideOpt mit Seeker anbietet, ist es so, dass, wenn euch nur Optimierungstools zur Verfügung stehen, die keinerlei Unsicherheit berücksichtigen, alle Optimierungsprobleme, die ihr in Betracht zieht, per Design die sind, bei denen ihr die Unsicherheit in gewisser Weise – in einem paradigmatischen Rahmen – eliminiert habt.

Das ist meine Wunderwaffe, also brauche ich ein Problem, das passt. Und das hier ist es. Daher sehe ich oft die größte Herausforderung darin, überhaupt das Bewusstsein für die Existenz dieser Lösungsgruppe zu schaffen, damit die Leute überhaupt an diese Art von Problemen denken können. Ich weiß, ich werde hier sehr meta.

Conor Doherty: Nun, um darauf aufzubauen – es ist eine perfekte Überleitung, wenn auch vielleicht unbeabsichtigt, aber ich gebe dir trotzdem Anerkennung –, wenn du von First Principles sprichst, also vom Ansatz, beim Problem zu beginnen und dann zur Lösung überzugehen: In einer deiner Vorlesungen sprichst du über das Coffee Roastery Problem. Könntest du das bitte skizzieren? Es ist nämlich ein sehr anschauliches, sehr angenehmes Beispiel. Beschreibe, was das Problem ist, und erkläre dann, wie wir es stochastisch lösen könnten oder wie wir das Problem mithilfe stochastischer Optimierung lösen.

Meinolf Sellmann: Es ist tatsächlich ein sehr klassisches Problem in der Optimierung. Es heißt Produktionsplanung. Wenn du jemals einen Kurs über den Standardarbeitsgang besucht hast, auf den du gerade hingewiesen hast – der als Wunderwaffe für alles in der Optimierung gilt, nämlich Mixed-Integer Programming – bist du wahrscheinlich schon einmal auf ein Beispiel der Produktionsplanung gestoßen.

Also, was ist Produktionsplanung? Du hast begrenzte Ressourcen, um die Produkte herzustellen, die du produzieren möchtest, und du hast einen erwarteten Gewinn, der mit der Herstellung jeder Einheit eines jeden Produkts verbunden ist. Aber diese Produkte teilen sich die Produktionskapazitäten. Beispielsweise gibt es Maschinen, die mehrere verschiedene Produkte herstellen können, Verpackungslinien, Röstmaschinen im Falle von Kaffee – manchmal teilen sie sich sogar die Zutaten. Verschiedene Kaffeesorten können dieselbe Art von Bohnen verwenden. Meistens kommt eine Bohnenmischung zum Einsatz.

Also stellt sich die Frage: Was werde ich auf welcher Produktionskapazität und zu welchem Zeitpunkt produzieren? Das muss jeden Tag gemacht werden, um Kaffee zu produzieren. Es muss jemand da sein, der sagt: „Lass uns diese Rohbohnen hier rösten, und dann in jenem Silo lagern, weil du sie nicht sofort verwenden kannst. Sie müssen abkühlen, bevor du sie verpackst.“

Und dann holst du sie wieder heraus. Du musst auch entscheiden, wann du was aus welchem Silo entnimmst und es dann zu den Verpackungslinien bringst, die begrenzte Kapazitäten haben. Bis hierhin, so weit, so gut.

Würdest du jetzt genau wissen, wie lange es dauert, den Kaffee zu rösten, wäre das Leben deutlich einfacher. Auch wenn du genau wüsstest, wie lange es dauert, bis die Bohnen abkühlen, wäre das Leben einfacher. Das Problem ist, dass du für beides nur Schätzungen hast. Je nachdem, wie trocken die Bohnen sind, die in die Rösterei kommen, wird der Röstvorgang kürzer oder länger, um die Bohnen zur Perfektion zu bringen. Und das vermasselt natürlich alles, weil du den Röster nicht einfach unbeaufsichtigt lassen kannst.

Wenn du nichts länger als etwa 10 Minuten röstest, musst du die Maschine abschalten; und wenn du sie abschaltest, dauert es eine halbe Stunde, bis sie wieder betriebsbereit ist. Plötzlich hast du also diese Nichtlinearitäten, bei denen du denkst: „Okay, der Röster hat sich gerade selbst abgeschaltet – und jetzt viel Glück, wenn du in den nächsten 30 Minuten rösten willst.“

Jetzt könntest du sagen: „Na, was soll’s, wenn ich mit der nächsten Charge früher anfange zu rösten?“ Aber du weißt nicht, wo du das Produkt unterbringen sollst, weil die Silos voll sind und die Verpackung nicht mithält. Um also Platz für das nächste Produkt zu schaffen, das aus dem Röster kommt, musst du diese Kapazität freimachen – was wiederum zu Belastungen in einem anderen Teil des Systems führt.

Und nun sitzt du da und musst einen Plan ausarbeiten. Du stellst fest, dass die Röster tatsächlich für eine gewisse Zeit stillstehen – ganz einfach –, weil sie nicht wissen, wo sie das fertige, aber noch unverpackte Produkt lagern sollen. Und das belastet natürlich die Betriebskosten eines solchen Unternehmens enorm.

Joannes Vermorel: Ich denke, das spiegelt die Tatsache wider, dass man vor vereinfachter Modellierung gewarnt sein sollte. Es gibt einen Detailgrad im Geschäftsalltag, der sehr hoch ist, und das erfordert noch einen weiteren Punkt. Die meisten in der Literatur veröffentlichten Modelle und die meisten Ansätze in Kursen bieten eine direkte, mehr oder weniger ausgefeilte Lösung für ein schön reguläres Problem.

Also haben Sie ein Problem, das eine schöne Struktur aufweist – etwas, bei dem man als Lehrkraft an der Universität nicht zwei Stunden damit verbringen möchte, einfach alle Variablen aufzuschreiben. Also präsentieren Sie das Problem so, dass es maximal 10 Variablen hat und Sie nicht zwei Stunden damit verbringen müssen, alle Faktoren des Problems darzulegen. Sie wollen etwas, das höchstens 10 Variablen, maximal drei Gleichungen umfasst und damit abgeschlossen ist, sodass Sie weitermachen können.

Das ist irreführend, denn die Realität kommt mit vielen Details, und was bleibt Ihnen dann? Es bleibt Ihnen nichts anderes, als dass Ihnen eine Lösung, ein Modell, überreicht wird, was irgendwie nutzlos ist. Es ist nicht ausreichend, weil man seine Situation nie genau kennt. Man versucht, sie zu modellieren, entdeckt dann etwas und überarbeitet anschließend die Modellierung.

Und vielleicht sagen Sie: „Okay, das ist einfach zu komplex, um es zu modellieren – ich gebe auf.“ Aber ich muss diese andere Variable wieder einführen, die ich ignoriert habe, denn tatsächlich war es ein Fehler, sie zu ignorieren. Sie wirkt sich wirklich auf meinen Betrieb aus. Und so ist das Modell selbst – nochmal, wenn man die typische Perspektive der Wissenschaft betrachtet – als gegeben zu betrachten. Es wird einen Beweis geben, es wird etwas wie kanonische Formen und dergleichen geben.

Und genau das erhalten Sie mit Mixed Integer Programming, wo es eine Reihe von Problemen gibt, die mittels kanonischer Formen und dergleichen problemlos gelöst werden können. Aber die Realität ist, dass, wenn Sie es mit einer echten supply chain zu tun haben, sich das Problem ständig ändert, und Sie lernen, indem Sie das Werkzeug – was auch immer Sie haben – auf das Problem anwenden und es überarbeiten.

Und plötzlich stellen Sie fest, dass es vielmehr darauf ankommt, etwas zu haben, das wieder abstrakter ist, etwas, das Ihnen erlaubt, schnell und effizient von einem Problemfall zum nächsten zu wechseln und dies fortzusetzen. Das bedeutet allerlei Dinge. Es muss rechnerisch schnell sein, vielseitig, sodass Sie verschiedenartige Lösungen ausdrücken können. Es sollte recht bequem sein, es in den Rest Ihrer applicative landscape einzubinden.

Das bringt also eine Menge zusätzlicher Bedenken mit sich, die – wenn man die typische mathematische Optimierungsliteratur betrachtet – nicht einmal aufgelistet werden. Sie können von der ersten bis zur letzten Seite des Buches blättern, und nirgendwo wird erwähnt: „Übrigens, diese Methode ist super langsam, unpraktisch oder dieser Ansatz ist so starr, dass man bei der kleinsten Modellrevidierung alles verwerfen und neu anfangen muss.“

Oder dieser Ansatz ist so fehleranfällig, dass man es theoretisch so machen könnte, wenn man wie die NASA agiert, über superintelligente Ingenieure verfügt und ein Jahrzehnt Zeit hätte, sich dem Problem zu widmen. Aber in der Praxis, wenn Sie es eilig haben und ähnliches, wird es niemals funktionieren. Es gibt also eine Menge Meta-Bedenken, die sehr, sehr wichtig sind. Und nochmals, ich glaube, dass sich das auf die Art und Weise bezieht, wie Sie mit Seeker arbeiten und wie Sie über diese Art von Problemen nachdenken.

Meinolf Sellman: Ja. Und ich meine, wenn man sich anschaut – quasi zurück zu dem, was Sie vorher sagten –, dass wir hier immer nach der Wunderwaffe suchen, richtig? Also, Joannes, Sie haben absolut recht: Wenn Menschen das Geschäft modellieren – und genau daran ist vermutlich das Interesse des Publikums – dann heißt das: „Hey, wie erzielen wir bessere, greifbarere Ergebnisse für das Geschäft?“

Sie sind in gewissem Maße gezwungen, das reale Leben im Computer zu approximieren und sozusagen zu simulieren, oder? Denn auf die eine oder andere Weise kann man jedes Optimierungsmodell als eine Simulation dessen betrachten: „Hey, was würde passieren, wenn ich das tue?“ und dann berechnet man gewissermaßen, was passieren würde – ist das etwa immer noch etwas, das der Plan ausführen kann, was wir in der Optimierungsterminologie als machbar bezeichnen?

Also, erfüllt es alle Nebenbedingungen? Das ist ausführbar. Aber zweitens, wie gut ist es tatsächlich? Was die Zielfunktion angeht – also mit ihr messen wir den KPI, den wir zu optimieren versuchen – heißt es so. Wüssten Sie, also, das wäre besser. Aber der Punkt ist: Wenn Ihnen nur ein Hammer als Werkzeug bekannt ist, werden Sie irgendwann Nägel an Ihre Fenster hängen, um Ihre Vorhänge aufzuhängen.

Und das ist eine ganz, ganz schlechte Idee. Genau das machen die MIP-Typen, wenn sie sich mit Dingen wie supply chain und allgemeiner Optimierung unter Unsicherheit befassen. Denn sie verwenden ein Werkzeug, das für deterministische Optimierung entwickelt wurde – und dafür ist es absolut fabelhaft. Aber es zwingt Sie dazu, auf der einen Seite den Determinismus und auf der anderen Seite den Nicht-Determinismus bzw. die Unsicherheit zu approximieren, wobei Nicht-Determinismus in diesem Kontext eine andere Bedeutung hat.

Wenn man alles linearisiert, gibt es so viele Beziehungen in einem Unternehmen, die einfach nicht linear sind. Und dann stellt sich die Frage: Können Sie das irgendwie approximieren? Können Sie Ihrer nichtlinearen Funktion eine stückweise lineare Funktion anpassen? Können Sie Dinge binarisieren? Passiert das etwa?

Um das für das Publikum greifbarer zu machen: Wenn Sie ein Unternehmen führen, sagen wir, dass Sie der CEO eines Unternehmens sind – natürlich können Sie einfach zu Lokad gehen und sagen: „Hey, wir kaufen es von euch“, und sie kümmern sich um Sie. Aber nehmen wir an, Sie haben ein anderes Unternehmen, das das für Sie übernimmt, oder Sie haben eine eigene Abteilung, die das macht – was sollten Sie tun, um bessere Abläufe zu erzielen?

Also könnten Sie jetzt neugierig werden und sagen: „Oh, es gibt da noch so etwas, und 20% bessere Betriebskosten klingen fantastisch. Wie bekomme ich das?“ Das Erste, was Sie tun müssen, ist zu fragen: „Was ist unser Prozess? Handelt es sich um einen Predict-and-Optimize-Prozess?“ Aber zweitens auch: „Welche Freiheiten haben wir uns bei der Modellierung des realen Systems, mit dem wir tatsächlich zu tun haben, genommen? Wo approximieren wir?“

Und so sollten Sie für beides tatsächlich folgendermaßen vorgehen, um zu sehen, wo die Diskrepanz liegt: Sagen Sie: „Okay, schauen Sie, Ihr Optimierungsmodell hatte eine Zielfunktion. Es besagte, dass ich diese Lösung jener vorziehe, weil meine Zielfunktion, die den realen KPI approximieren soll, für diese Lösung besser ist als für jene. Nun sagen Sie mir: Was ist für die optimale Lösung mein erwarteter KPI?“

Und dann verfolgen Sie das, vergleichen es mit den tatsächlichen Lösungen und Ergebnissen in Ihrem System, die Sie tatsächlich erzielen. Wenn Sie also beispielsweise Kosten minimieren, verfolgen Sie die Kosten und schauen Sie sich den Unterschied an zwischen dem, was der MIP annahm, was die Kosten sein würden, und was Ihre echten Kosten tatsächlich sind. Oder, wenn Sie den Gewinn maximieren, verfolgen Sie eben diesen. Aber der Punkt ist: Verfolgen Sie es und betrachten Sie den Unterschied zwischen dem, was zur Entscheidungsfindung herangezogen wurde, und dem, was dann tatsächlich eintritt.

Und es gibt zwei Ursachen für jede Diskrepanz. Die eine ist, dass Sie gezwungen waren, Ihr System in einen zu restriktiven Modellierungsrahmen zu pressen – was schlecht ist. Oder die andere ist, dass Sie vollkommen ignoriert haben, dass es Unsicherheiten gibt, und von dort stammt die Diskrepanz. Wenn Sie dort einen Unterschied von mehr als 5% feststellen, sollten Sie mit einem von uns sprechen.

Joannes Vermorel: Und ich würde zu Ihrem Konzept hinzufügen – und ich stimme Ihrem soeben skizzierten Denkprozess zu – dass ich sogar etwas ergänzen würde, das ich typischerweise schon vor diesem Prozess empfehle. Also etwas, das ganz am Anfang steht, denn das Problem lag nicht nur bei den falschen Werkzeugen, sondern – noch vor dem – besteht das Problem, falsche Konzepte, falsche Ideen zu haben.

Um ein Beispiel zu geben: Das Konzept der Machbarkeit, wie es in der klassischen Optimierungsliteratur zu finden ist. Die Leute sagen: „Oh, es gibt eine Lösung, die machbar oder unmachbar ist.“ Nehmen wir ein konkretes Beispiel: Ist das wirklich so schwarz und weiß?

Um ein Beispiel zu geben: Wir befinden uns in einem Lager, und routinemäßig übermitteln wir Bestellungen an Lieferanten. Und das Lager hat eine begrenzte Kapazität für Wareneingänge. An einem beliebigen Tag, sagen wir, kann es maximal 1.000 Einheiten aufnehmen. Darüber hinaus geht es nicht. Und es türmen sich Dinge vor dem Lager, einfach weil die Leute die Kartons nicht einbringen können und so weiter.

Das Problem ist: Nehmen wir an, Sie übermitteln Bestellungen an ausländische Lieferanten. Sie kontrollieren die Liefertermine nicht exakt. Sie wissen, dass, wenn Sie alles richtig arrangieren, Sie im Durchschnitt Ihre Einschränkungen einhalten sollten. Aber trotzdem kann es passieren, dass Sie Pech haben – eine Bestellung wird verschoben, eine andere kommt etwas schneller – und dann, zack, erhalten Sie an einem Montag 2.000 Einheiten, die am selben Tag eintreffen. Dabei wurden diese Bestellungen etwa einen Monat im Voraus getätigt.

Hier sehen Sie, dass dies ein Szenario ist, bei dem für jede Entscheidung, die Sie treffen, eine Wahrscheinlichkeit besteht, in eine unmachbare Situation zu geraten. Es liegt nicht vollständig in Ihrer Kontrolle. Das ist also wieder ein Fall, in dem ich sage, dass falsche Konzepte sehr gefährlich sind, denn wenn Sie die Situation mit veralteten, zu starren oder unpassenden Konzepten analysieren, kommen Sie gar nicht in die intellektuelle Verfassung, um zu erkennen, was das bessere Werkzeug Ihnen tatsächlich bringen kann.

Also stecken Sie fest in der Einteilung in machbar und nicht machbar. Sobald Sie verstehen, dass Machbarkeit nicht vollständig in Ihrer Hand liegt – denn offensichtlich gibt es Dinge, die kollidieren – müssen Sie beispielsweise, wenn Sie Lieferanten aus derselben Region, am selben Tag, in derselben Menge mit denselben Häfen und so weiter bestellen, mit einer hohen Wahrscheinlichkeit rechnen, dass alles am exakt selben Tag eintrifft. Sie würden also die Bestellungen streuen, aber auch dort besteht ein gewisses Risiko.

Und das passiert in vielen, vielen Bereichen. Und das ist ein Beispiel. Hier sehen wir also, dass das, was als selbstverständlich gilt – Machbarkeit, eine machbare Lösung, eine unmachbare Lösung – nicht so eindeutig ist. Wie Sie sehen, weicht das Konzept ein wenig ab.

Ein weiterer Ansatz wäre service level. Die Leute denken in Begriffen des service level, ja, aber ist es wirklich das, was sie wahrnehmen? Genau hier setze ich mich typischerweise mit der Diskussion über die Qualität des Service auseinander. Und diese kann die Möglichkeit substitutiver Kannibalisierung oder sogar die Bereitschaft der Kunden, Aufschub in Kauf zu nehmen, beinhalten. Und plötzlich landen wir bei etwas völlig anderem.

Und wenn Sie direkt zum Problem mit den Konzepten übergehen, die Sie aus dieser Welt kennen, in der Unsicherheit nicht existiert, in der Ihr Optimierer immer klassisch, also nicht stochastisch, arbeitet, dann ist mein Eindruck, dass der von Ihnen vorgeschlagene Weg höchstwahrscheinlich unverständlich erscheinen wird. Deshalb ermutige ich meine Interessenten normalerweise dazu, einfach mal eine Pause zu machen, eine Briefing-Übung durchzuführen, die Welt durch andere Brillen zu betrachten und sich die Zeit zu nehmen, diese Dinge mit einem gewissen Bauchgefühl zu erwägen, bevor man in die technischen Details einsteigt, die sehr ablenkend sein können – weil sie etwas technisch sind, dazu Software, ein wenig Mathematik, und so weiter. Und das kann eine enorme Ablenkung darstellen, besonders wenn konkurrierende Anbieter auftauchen, die einen Haufen Unsinn in die Mischung werfen, wie: „Oh, Sie wollen das alles machen? Wissen Sie was, ich habe die Antwort für Sie – LLMs. Und wissen Sie was, Sie hatten diese Unsicherheit, aber wir haben LLMs, Large Language Models. Die Prognosen werden so gut sein, dass Sie es nicht glauben werden. Und die Optimierung mit LLMs – die ist so gut.“

Ist das so? Offensichtlich, wenn die Leute denken: „Okay, ich bin ja nur …“ Ja, ich meine, denn zumindest bei Lokad, wenn wir mit Interessenten sprechen, ist das Problem, dass wir nie allein mit dem Interessenten sprechen. Es gibt etwa ein halbes Dutzend anderer Anbieter, die ebenfalls ihr Zeug anpreisen, und häufig preisen sie jede Menge Unsinn an. Und so sind die Interessenten einfach überwältigt von all den glänzenden Dingen und diesen sensationellen Versprechungen.

Conor Doherty: Nun, mir fällt auf, dass Sie beide im Grunde eines der Hauptprobleme skizziert haben, wie man Menschen für stochastische Optimierung und andere Black-Box-Technologien gewinnt – sei es probabilistische Prognose oder generell alles, was mit Mathematik zu tun hat – nämlich dass es bis zu einem gewissen Grad eine Eintrittsbarriere gibt. Und so, Meinolf, zurück zu Ihnen: Wie bringen Sie Ihrer Erfahrung nach, da Sie sehr gut unterrichten, die Leute dazu, sich mit der Art von Unsicherheit anzufreunden, über die wir nun schon eine Stunde gesprochen haben?

Meinolf Sellman: Es könnte momentan eine kognitive Diskrepanz beim Publikum geben, bei der sie sagen: „Okay, Sie haben uns erzählt, dass die Fluggesellschaften am Tag des Betriebs ihr Hemd verlieren, aber warum, wenn sie diese Technologie seit Jahrzehnten verwenden, nutzen sie dann nicht das, worüber Lokad und InsideOpt sprechen?“ Und der Grund ist genau der, auf den Sie anspielen.

Wenn Sie für etwas wie eine Fluggesellschaft stochastische Optimierung durchführen wollten, würden Sie die Größe des Problems so weit erhöhen, dass Sie es einfach nicht mehr lösen können. Die Leute, die in der Flugbranche arbeiten und dort optimieren, sind sehr versiert und wissen natürlich um die stochastische Optimierung sowie die traditionelle, aber diese basierte stets auf MIP.

Ich möchte hier nicht zu technisch werden, aber im Wesentlichen gibt es zwei Vorgehensweisen bei der Suche nach etwas: Die eine ist zu sagen: „Oh, ich habe etwas gefunden, das bereits gut ist. Mal sehen, ob ich es noch besser machen kann.“ Die andere ist zu sagen: „Ich werde hier drüben niemals etwas finden.“ MIP funktioniert, indem gesagt wird: „Oh, ich muss hier nicht suchen. Es kann nicht hier sein“, und dann wird woanders gesucht.

Nun, wenn Ihr Suchraum riesig ist und dieses Konstrukt, das Ihnen sagt „Hier nicht suchen“, nicht gut funktioniert – sozusagen: „Ja, es sieht nicht danach aus, aber ich kann es auch nicht ausschließen“ – dann suchen Sie überall weiter, und es wird viel effektiver, dort zu suchen, wo bereits nach ansprechenden Lösungen gesucht wird, sozusagen.

Also, wenn Sie versuchen, stochastische Optimierung mit Mixed Integer Programming durchzuführen – das ja in der Weise funktioniert, dass Sie sagen: „Oh, ich weiß, dass es dort nichts geben kann“ – werden Ihre sogenannten Dual Bounds niemals gut genug sein, um die Suchbasis so weit einzuschränken, dass Sie es sich tatsächlich leisten können, die Suche durchzuführen. Und genau da sind die Leute seit 20-25 Jahren stecken geblieben.

Und jetzt gibt es diese neue Art, Dinge zu tun, die im Wesentlichen auf KI-basierter Suche beruht, die sagt: “Schau, es ist mir egal, ob ich irgendeine Art von Qualitätsgrenze für die Lösung erhalte, die ich bekomme, aber stattdessen versichere ich dir, dass ich meine ganze Zeit damit verbringen werde, die bestmögliche Lösung innerhalb der mir zur Verfügung stehenden Zeit zu finden.” Es ist sehr pragmatisch und praktisch, und das existiert jetzt.

In diesem Rahmen befreist du dich plötzlich auch von all den anderen Fesseln, mit denen du dich zuvor herumschlagen musstest, wie zum Beispiel dass du alles linearisieren und binarisieren musst. All diese Dinge sind weg. Du kannst eine nicht-differenzierbare, nicht-konvexe Optimierung mit einem Tool wie InsideOpt Seeker durchführen, und das Modellieren dieser Probleme ist tatsächlich kein großes Problem mehr.

Es gibt noch ein paar weitere Vorteile, die du tatsächlich daraus ziehst, nämlich die Parallelisierung der gemischt-ganzzahligen Programmierung. Dieser Branch-and-Bound-Ansatz ist sehr schwierig durchzuführen. Die Geschwindigkeitssteigerungen, die du erzielst, sind begrenzt. Du hast Glück, wenn du auf einer einigermaßen großen Maschine eine fünfmalige Beschleunigung erreichst. Diese KI-basierte Suche profitiert wirklich davon, 40-100 Kerne in ein Problem zu stecken.

Und so geht das auch mit der Entwicklung der Hardware einher, dass dies tatsächlich die bessere Technologie sein könnte. Aber letztlich ermöglicht es den Nutzern, durch die Verwendung einer anderen Art, diese weiten Räume zu durchsuchen, das reale System viel komfortabler zu modellieren, anstatt sich mit einer groben Annäherung zufriedenzugeben.

Und gleichzeitig Dinge wie die Multi-Objective-Optimierung zu handhaben. Es geht selten nur um einen einzigen KPI, sondern um mehrere. Es geht darum, so etwas zu handhaben wie: “Oh, ich möchte, dass diese Regel hier überwiegend eingehalten wird, aber es ist in Ordnung, wenn sie ab und zu verletzt wird.” Es ist also in Ordnung, wenn es ein Szenario gibt, in dem diese Sichtbarkeit nicht gegeben ist. Das kannst du sehr einfach modellieren.

Und natürlich kannst du stochastische Optimierung durchführen, nicht nur im Sinne der Optimierung erwarteter Renditen, sondern du kannst sogar aktiv optimieren, beschränken und das Risiko minimieren, das mit deinen Lösungen einhergeht. Und das ist der Paradigmenwechsel. Das ist es, was meiner Meinung nach Lokad und InsideOpt antreibt, zu sagen: “Schau, es gibt ein völlig neues Paradigma, dem wir folgen können, das uns all diese Dinge ermöglicht, die in den letzten drei Jahrzehnten einfach noch nie gehört wurden.”

Conor Doherty: Joannes, dieselbe Frage.

Joannes Vermorel: Danke. Ja, und ich möchte auch darauf hinweisen, dass in den frühen 2000er-Jahren, als ich mit meiner Promotion begann – die ich nie abgeschlossen habe – der interessante Punkt war, dass sich der Glaube der Machine-Learning-Community und der Optimierungs-Community hinsichtlich der grundlegenden Probleme der Optimierung als völlig falsch herausstellte.

Als ich promovierte, war man der Meinung, dass der Fluch der Dimensionalität gilt. Wenn man ein extrem hochdimensionales Problem hat, kann man nicht optimieren. Und jetzt, mit deep learning-Modellen, beschäftigen wir uns mit Modellen, die Milliarden oder sogar Billionen von Parametern haben. Offensichtlich können wir Probleme also problemlos optimieren.

Anschließend dachte man, wenn es nicht konvex ist, kann man nichts tun. Es stellt sich heraus, dass man tatsächlich eine Menge tun kann, selbst wenn es nicht konvex ist. Und zwar, auch wenn wir keinerlei Beweis haben, ändert es nichts daran, dass etwas, das nach anderen Kriterien ziemlich gut und nützlich ist, nicht unbedingt bewiesen optimal sein muss – solange man andere Wege hat, die Lösung zu begründen, und sagen kann: “Nun, ich kann die Optimalität nicht beweisen, aber ich kann dennoch argumentieren, dass es eine exzellente Lösung ist, auch wenn ich den mathematischen Beweis nicht habe.”

Und das gab es in einer Reihe von Dingen, bei denen auch die Idee im Spiel war, dass über einen langen Zeitraum hinweg, als ich die stochastische Optimierung betrachtete, die Leute sagen würden: “Oh, das war es, was du bezüglich der Erweiterung der Dimension erwähnt hast. Also, du wirst eine Tausend Szenarien ausformulieren und diese tausend Szenarien als nur eine Situation darstellen, die du gleichzeitig optimieren möchtest.”

Es ist einfach eine Makroerweiterung. Du nimmst dein Problem, erweiterst es einfach makroskopisch in tausend Instanzen, und das ergibt ein Problem, das tausendmal größer ist. Und dann sagst du: “Okay, jetzt bin ich wieder am Ausgangspunkt. Ich kann das tatsächlich einfach optimieren.” Aber dadurch hattest du bereits mit den alten Branch-and-Bound-Paradigmen eine schreckliche Skalierbarkeit.

Wenn also dein erster Schritt darin besteht, dein Problem um den Faktor 1.000 zu erweitern, wird es absolut dramatisch langsam. Und was, glaube ich, die Deep-Learning-Community beispielsweise so sehr überraschte, war die unglaubliche Effizienz des stochastischen Gradientenabstiegs, bei dem du einfach Situationen beobachten und die Parameter jedes Mal ein wenig anpassen kannst, wenn du etwas beobachtest.

Und es gab viele Erkenntnisse. Und das Interessante, was ich in den letzten zwei Jahrzehnten gesehen habe, ist, dass Machine Learning und Optimierung Seite an Seite fortschreiten, meist indem sie alte Überzeugungen zerstören. Das war ein sehr interessanter Prozess.

Die meisten Durchbrüche im Deep Learning entstanden durch bessere Optimierungswerkzeuge, einen besseren Einsatz von linearer Algebra und GPUs, speziellen Computerhardware-Typen und mathematischer Optimierung. Immer häufiger werden auch Methoden aus dem Machine Learning eingesetzt, bei denen man nicht zufällig suchen will.

Es gibt Stellen, an denen du sagst: “Nun, diese Dinge hier, ich kann nichts beweisen, aber sie sehen extrem schlecht aus.” Und wenn es schlichtweg schlecht aussieht, ist das gesamte Umfeld wie totaler Schrott, also muss ich woanders nachsehen. Und es gibt auch andere Überlegungen wie: “Ich habe bereits viel Zeit damit verbracht, in diesem Bereich zu suchen, also sollte ich, selbst wenn es im Allgemeinen ein guter Bereich ist, vielleicht woanders nachschauen, weil ich dort schon so viel Zeit investiert habe.”

Und das ist diese Art der Optimierungstechnik, die, würde ich sagen, stark am Denken des Machine Learning orientiert ist. Meiner Meinung nach könnte es in vielleicht 20 Jahren sogar einen Bereich geben, in dem sich beides vermischt hat – eine Art Machine Learning-Optimierung, bei der man nicht mehr zwischen den beiden unterscheidet.

Es ist eines der Dinge, die ich über zwei Jahrzehnte hinweg im Blick hatte, und mit jedem Jahr, das vergeht, sehe ich diese allmähliche Konvergenz. Und es ist sehr faszinierend, weil ich das Gefühl habe, dass noch Konzepte fehlen.

Meinolf Sellman: Ja, und ich möchte einen Punkt, den du angesprochen hast, noch vertiefen. Machine Learning ist großartig, wenn man wiederholte Spiele hat. Es ist wie das Kartenzählen im Blackjack. Du kannst nicht garantieren, dass du gewinnen wirst, es besteht immer die Möglichkeit, dass die Vorhersage danebenliegt, aber wenn du dieses Spiel wiederholt spielst, hast du plötzlich einen großen Vorteil.

Und genau deshalb sagte ich schon vorher: “Schau, verfolge deine operativen Ergebnisse, deinen Gewinn, deine Kosten oder was auch immer du über einen bestimmten Zeitraum machst.” Denn an einem beliebigen Tag kann die von dir ausgeführte Lösung unzutreffend sein. Es ist ein bisschen so, als würde jemand sagen: “Oh, ich werde diesen Würfel werfen, und wenn er eine Vier zeigt, verlierst du und musst mir einen Dollar zahlen, um zu spielen. Aber wenn er irgendetwas anderes zeigt als eine Vier, gebe ich dir eine Million Dollar.” Und dann gibst du ihnen den Dollar, und du würfelst, und es kommt eine Vier. Es war die richtige Entscheidung, das so zu machen, oder? Denn wenn du dieses Spiel wiederholt mit der Strategie spielst, dieses Spiel zu akzeptieren, weil der erwartete Wert natürlich so hoch ist und der Verlust in jeder Hinsicht machbar ist, erzielst du plötzlich einen echten Vorteil. Und genau das ist es, wenn man Machine Learning in der Optimierung einsetzt. Das ist genau dieses Paradigma der KI-basierten Suche. Wir nennen es hyperreaktive Suche. Ich weiß nicht, wie ihr das bei Lokad nennt, aber es ist genau diese Idee, oder?

Kann ich für deine Probleme, also das treibt im Wesentlichen InsideOpt Seeker an. Das ist es, was der Solver für dich tun wird, sobald du weißt, was dein Modell ist und welche Probleme du löst. Und was jetzt jeden Tag, bei denen du diese operativen Probleme entscheiden musst. Was werde ich heute wo rösten? Wie viel Bestand werde ich heute verlagern und wohin? Und du hast diese Instanzen, die du über viele verschiedene Wochen und Produktionstage hinweg bearbeiten musst.

Dann gehst du hin und fragst den Solver: “Hey, schau mal, wie deine Strategien aussehen, wie du diesen Raum tatsächlich durchsuchst. Hättest du bessere Lösungen finden können, wenn du anders gesucht hättest?” Und dann wird er genau auf Laufzeitmerkmale achten, wie das, das du erwähnt hast, Joannes, so: “Oh, wie lange ist es her, dass ich woanders gesucht habe?” Es scheint also, als hätte ich diese gesamte Idee hier gründlich durchforstet. Mal sehen, ob ich etwas anderes machen kann.

Und andere ähnliche Faktoren, oder? Und diese Laufzeitmerkmale beeinflussen dann weitere Entscheidungen, wie viele Dinge ich gleichzeitig ändern möchte, oder? Soll ich tatsächlich eine Untersuchung durchführen? Wenn ich also erst sehr kürzlich in einen Suchraum gekommen bin, könnte es eine sehr, sehr gute Idee sein, sehr gierig zu sein und zu sagen: “Hey, jeden Verbesserungszug werde ich sofort nutzen, um in diesem Raum eine gute Lösung zu finden.”

Aber dann, nachdem man eine Weile dort gewesen ist, denkst du: “Nun, ich muss meinen Horizont hier ein wenig erweitern, weil ich möglicherweise in etwas feststecke, das nur lokal optimal ist, während ich global andere Variablen viel besser hätte setzen können, sodass ich insgesamt hier eine bessere Lösung gefunden hätte.” Und genau das ist im Moment der Paradigmenwechsel, oder? Es geht also weg von dem Gedanken, “Kannst du schnell feststellen, dass hier nichts ist?” hin zu “Kann ich lernen, besser zu suchen?” Und das ist die Revolution.

Joannes Vermorel: Um auf die KI-Suche einzugehen: Ja, absolut. Und besonders bei der Art von Problem, die Lokad für unsere Kunden löst, können die meisten supply chain umfassend gierig angegangen werden – nicht vollständig, aber in weiten Teilen. Und es gibt gewissermaßen darwinistische Gründe dafür. Wenn du supply chain-Situationen hättest, die wirklich, würde ich sagen, dem gierigen Ansatz entgegenstehen, wären sie bereits ausgesiebt, eliminiert worden, weil Unternehmen nicht den Luxus hatten, super ausgeklügelte Optimierungstools zu besitzen.

Also brauchten sie – und das war sehr oft tatsächlich ein gestalterisches Kriterium –: “Kann ich meine supply chain und meine Prozesse so aufstellen, dass ich in die richtige Richtung voranschreiten und trotzdem in Ordnung sein kann?” Das war in der Regel das Leitprinzip auf Design-Ebene. Und dann, wenn man in die Details geht, stellt man fest, dass ja, man kann in einigen schlechten Situationen stecken bleiben, selbst wenn man directionally noch gut aufgestellt ist.

Typischerweise verlässt sich Lokad also umfangreich auf die gierige Perspektive, selbst wenn man, sofern Gradienten vorhanden sind, diese komplett nutzt. Und dann, in der Endphase, wenn du die Mikroanpassungen vornehmen und vielleicht ein wenig resilient werden möchtest, führst du die lokalen Anpassungen durch. Falls du also eine Anpassung vornehmen kannst, die dich kaum etwas kostet, dir aber erheblich mehr Spielraum im operativen Bereich verschafft, würde das das Ganze für das Publikum konkreter machen.

Nehmen wir zum Beispiel an, du betreibst ein Lager. Du denkst, dass die Wahrscheinlichkeit, dass dir Verpackungskarton ausgeht, um deine Waren zu versenden, bei etwa 0,1 % liegt. Es mag wie ein unwahrscheinliches Ereignis erscheinen, aber andererseits ist es sehr unsinnig, das Lager alle paar Jahre stillzulegen, nur weil es an einem super billigen Karton fehlt. Also würdest du sagen: “Okay, es ist so gering, dass wir einfach ein paar Monate Extra-Karton einplanen sollten.”

Weil sie gefaltet sind, nehmen sie so gut wie gar keinen Platz ein und sind super billig. Das ist genau der Fall, bei dem ein wenig zusätzliche Optimierung dazu führen würde, dass die Leute sagen: “Oh, wir haben eine dreitägige lead time für diese Kartons. Wir haben bereits einen Monat auf Lager.” Die Leute würden sagen: “Oh, das reicht. Wir müssen nichts weiter tun.” Und dann führst du die Simulation durch und sagst: “Weißt du was? Du hast immer noch dieses 0,1 %-Risiko. Das ist ziemlich dumm. Du solltest etwa drei Monate einplanen.”

Und du sagst: “Okay, es ist sehr billig, aber es wirkt wie wirklich viel.” Aber du sagst auch: “Nun, es ist super billig. Es nimmt kaum Platz ein. Und warum das Risiko eingehen?” Weißt du, das sind die Art von Dingen, die ein wenig kontraintuitiv sind und bei denen du feststellen würdest, dass es – ja, dieses Ereignis tritt nur alle paar Jahre auf. Aber dann gibt es noch viele andere Dinge, die ebenfalls nur alle paar Jahre passieren.

Und genau hier kommt eine gute Optimierung ins Spiel, die es dir ermöglicht, solche Ereignisse abzudecken, die so selten sind, dass sie dem menschlichen Verstand wie ein Ereignis aus einem anderen Leben erscheinen. Ich meine, Menschen wechseln ihre Arbeitsplätze. Sie bleiben selten zwei Jahrzehnte lang im selben Job. Also hat der Lagerverwalter wahrscheinlich noch nie etwas erlebt, das nur alle drei Jahre passiert. Die Teams, das meiste Personal erinnert sich nicht einmal daran, so etwas gesehen zu haben.

Es gibt also eine Grenze dafür, was du wahrnehmen kannst, wenn etwas unterhalb der Wahrnehmungsschwelle liegt, weil es zu selten vorkommt. Und dennoch ist es extrem. Es gibt so viele verschiedene Dinge, dass, wenn du sie zusammenzählst – es sind 0,1 % plus noch ein weiteres, das 0 ist, plus ein weiteres – und du addierst Dutzende und Aberdutzende davon, am Ende des Tages ein solches Resultat herauskommt, bei dem jeden Monat eines dieser Probleme auftritt, das hätte verhindert werden können, wenn du das Risiko wirklich berücksichtigt hättest.

Aber es ist ein wenig kontraintuitiv, weil es bedeutet, dass etwas mehr an verschiedenen Stellen ausgegeben wird. Warum das Extra? Nun, das Extra ist notwendig, weil man, auch wenn es selten vorkommt, fast sicher in Schwierigkeiten gerät, wenn man es nicht tut.

Meinolf Sellman: Ja, und genau in diese Falle tappst du, wenn du tatsächlich eine nachweislich optimale Lösung hast. Es klingt, als würde man sagen: “Okay, schau, das ist meine nachweislich optimale Lösung, und ich habe gute Prognosen.” Aber wenn die Prognosen dann auch nur leicht danebenliegen, ist diese nachweislich optimale Lösung, weil sie den letzten Groschen aus der Lösung herausgepresst hat, extrem brüchig. Und rechts und links von dieser Prognose sinkt die Leistung und ist miserabel.

Und du möchtest eine Technologie, die es dir ermöglicht zu sagen: “Schau, ja, dein erwarteter Gewinn ist um 80 Cent geringer, aber dafür wird dein Risiko, das Lager schließen zu müssen, um 75 % reduziert. Gutes Geschäft, oder?” Es ist ein gutes Geschäft. Und genau das sind die Art von Trade-offs, die du von der Technologie finden lassen möchtest, denn es ist sehr, sehr schwierig zu sagen: “Okay, schau, lass mich das eine einschränken und das andere optimieren”, weil du dann in eine weitere trade-off Falle läufst.

Du möchtest sagen können: “Schau, ich habe all diese Bedenken. Versuche, einen guten Kompromiss zu finden. Finde mir die günstigste Versicherung gegen ein bestimmtes Ereignis.” Und das schließt irgendwie den Kreis zu dem, womit wir angefangen haben – nämlich wie schwer es sein kann, sich mit Entscheidungsfindung und Unsicherheit auseinanderzusetzen.

Aber im Wesentlichen ist das, was es ist. Das Missverständnis besteht darin, dass wenn du eine Lösung hättest, die für eine prognostizierte Zukunft optimal ist, sie wahrscheinlich auch für Zukünfte, die nur geringfügig davon abweichen, einigermaßen gut funktioniert. Und das ist einfach nicht wahr. Du musst aktiv nach einem großartigen, kompromissbereiten Operationsplan suchen, der für eine große Wahrscheinlichkeit eintretender Zukünfte funktioniert. Dabei soll dein Risiko gegen deine erwarteten Erträge in angemessener Weise abgewogen werden.

Conor Doherty: Korrigiert mich, falls ich falsch liege, aber das ultimative Ziel der stochastischen Optimierung wäre es, glaube ich, den optimalen Kompromiss bzw. die optimale Entscheidung zu finden, die alle Zwänge und alle abzuwägenden Kompromisse in Einklang bringt. Und das ist nicht die perfekte Entscheidung, sondern würde den besten Kompromiss darstellen, um alle Entscheidungen oder alle einzelnen Probleme zufriedenstellend zu lösen, oder?

Meinolf Sellman: Richtig. Mathematisch ließe sich das so formulieren, aber ich möchte die Leute nicht in diese Richtung führen. Der Punkt ist folgender: Hättest du exakt gewusst, was passieren würde, gäbe es meist eine bessere Lösung, die du hättest umsetzen können. Aber ohne das perfekte Wissen über die Zukunft – und ich meine wirklich perfekt, nicht nur, weißt du, 99,9 % – musst du einen Kompromiss fahren, der im Grunde für alle möglichen Ereignisse gut funktioniert.

Und genau das bewirkt die stochastische Optimierung für dich. Damit wird die Fragilität beseitigt. Man könnte sagen, es handelt sich um robuste Optimierung, aber das ist ein eigener technischer Begriff, den wir eigentlich nicht verwenden können. Aber das ist gemeint, oder? Du willst Brüchigkeit vermeiden, du willst die Fragilität in deinen Abläufen beseitigen. Du erhältst sehr zuverlässige, beständige, wiederholbare Ergebnisse. Das ist es, was dir die stochastische Optimierung liefert. Und gleichzeitig werden deine erwarteten Gewinne tatsächlich über das hinaus steigen, was du für möglich gehalten hast.

Denn wenn du dich allein auf die Leistung der Kreuzvalidierung und auf beweisbare Optimalität stützt, verfehlst du den eigentlichen Kern der Sache. Es gibt das, was du als Kosten dafür ansiehst, die Zukunft nicht perfekt zu kennen – nämlich die Kosten der Annahme in der Optimierung, dass du die Zukunft perfekt kennst. Genau das macht sie anfällig: Du gehst davon aus, dass diese Vorhersage zu 100 % korrekt war. So funktioniert die traditionelle Optimierungstechnologie, und du musst sie verwerfen und stattdessen mit moderner Technologie arbeiten, um diese 20 % an Betriebskosten einzusparen, die du sicherlich senken kannst.

Conor Doherty: Nun, danke. Ich glaube, wir kommen langsam zum Ende. Joannes, ich gebe dir noch einen letzten Kommentar und übergebe dann an Meinolf zum Abschluss. Möchtest du noch etwas hinzufügen?

Joannes Vermorel: Ich meine, ja, das Faszinierende ist, dass die beste supply chain – so wie sie aussieht – und die besten, risikoadjustierten Entscheidungen diejenigen sind, bei denen das Unternehmen kontinuierlich und ruhig vor sich hin arbeitet, ohne dass eine, würde ich sagen, absolut kritische, katastrophale Entscheidung getroffen wird, die alles gleichzeitig zum Einsturz bringt.

Und da würden die Leute erwarten, dass der genialste supply chain Plan aller Zeiten darin bestünde, genau jenes Produkt zu identifizieren, das vom Markt völlig ignoriert wurde, und zu sagen: “Weißt du was, wir müssen bei diesem supernischigen Produkt voll einsteigen” – und zack, eine Million Einheiten verkaufen, während niemand auch nur hinschaut. Ich sage, das ist Magie. Nein, ich meine, vielleicht gibt es Unternehmer à la Steve Jobs, die das schaffen, aber es ist einfach fast unmöglich.

Also die Vorstellung, dass du die Zukunft ergreifen, das goldene Nugget, die bitcoin-ähnliche Chance identifizieren und darauf alles setzen und dadurch ein Vermögen machen kannst, ist völlig absurd. Wie es aussieht, besteht exzellentes Management der supply chain darin, dass sie ruhig und beständig läuft. Du triffst risikobewusste Entscheidungen, sodass, wenn es schlecht läuft, es tatsächlich nur mäßig schlecht ist. Wenn es gut läuft, ist es meist sehr gut, sodass es sehr solide profitabel ist. Und wenn es schlecht läuft, ist es begrenzt und nicht katastrophal.

Und wenn du eine Entscheidung noch einmal überdenkst, gehst du zurück in der Zeit und schaust sie dir an – ja, wenn ich es gewusst hätte, hätte ich es anders gemacht. Aber wenn ich die ehrliche Übung mache, mich wieder in die Situation hineinzudenken, in der ich mich damals befand, merke ich: Es war damals eine vernünftige Einschätzung. Man muss nicht zulassen, dass der Rückblick das eigene Urteil vernebelt, denn das kann sehr schädlich sein.

Und ich weiß, dass einige unserer Kunden – die solche Verfahren heute nicht mehr anwenden, aber in der Luftfahrt zum Beispiel – nach jedem einzelnen AOG (Aircraft on Ground)-Vorfall, wenn also ein Teil fehlt und das Flugzeug nicht mehr fliegen kann, eine vollständige Postmortem-Untersuchung durchführen. Aber in Wirklichkeit, wenn du etwa 300.000 SKUs auf Lager haben musst, um das Flugzeug ständig flugfähig zu halten – und wenn dann Teile nicht immer sofort verfügbar sind, vor allem bei Komponenten, die pro Stück einen Preis von über einer halben Million Dollar haben – ist es in gewisser Weise akzeptabel, wenn sie nicht ständig vorrätig sind.

Wir haben also festgestellt, dass diese AOGs beispielsweise genau den Erwartungen entsprachen, basierend auf der Risikostruktur ihrer Bestände. Es machte also keinen Sinn, irgendeine Untersuchung durchzuführen. Mein abschließender Gedanke wäre, dass das wohl schwierigste Verkaufsargument für die stochastische Optimierung darin besteht, dass sie ziemlich unspektakulär ist. Sie ist einfach etwas, das leise vor sich hin summt. Die Probleme sind wesentlich weniger gravierend, die Erfolge zwar weniger extrem, aber weitaus häufiger.

Aber noch einmal: An was erinnerst du dich? Erinnerst du dich an ein Fußballteam, das in den letzten 30 Jahren konstant 60–70 % seiner Spiele gewinnt? Oder an jenes eine Team, das normalerweise alle Spiele verliert, aber in einer Serie 10 Spiele gegen die renommiertesten Mannschaften gewinnt? Offensichtlich bleibt dir diese absolut extreme Erfolgsserie im Gedächtnis – du denkst: “Oh, das war unglaublich” – und die eher unspektakuläre, durchschnittlich exzellente Bilanz gerät in Vergessenheit.

Siehst du, so ist meine Stimmung. Und ich denke, es gehört dazu, zu akzeptieren, dass das, was du aus der stochastischen Optimierung bekommst, ruhige, unspektakuläre Entscheidungen sind, die sich im Durchschnitt als ziemlich gut erweisen. Wenn sie schlecht sind, sind sie nur leicht schlecht – nichts, worunter man wirklich leidet. Es wird viel Schadenskontrolle betrieben.

Und so – das Interessante ist, dass wir bei Lokad, wenn wir mit unseren Kunden sprechen, nachdem wir einige Jahre in Produktion sind, tatsächlich wenig zu berichten haben. Weißt du, das beste Lob, nicht das schlechteste, lautet: “Weißt du was, es läuft so ereignislos, dass wir die supply chain in unserer Liste der Bedenken etwas herunterstufen.” Es ist, als hätte man ständigen Zugang zu fließendem Wasser – es ist ereignislos, sodass man ihm nicht allzu viel Aufmerksamkeit schenken muss, es funktioniert einfach. Und das ist in Ordnung – das heißt nicht, dass wir überragend sind; offensichtlich sind supply chains noch nicht so ereignislos wie die Wasserversorgung, aber es herrscht eben diese Stimmung.

Conor Doherty: Nun, danke Joannes. Meinolf, wie üblich geben wir dir das Schlusswort. Das Wort liegt bei dir, und danach schließen wir bitte ab.

Meinolf Sellman: Ja, nochmals vielen Dank, dass ich dabei sein durfte, Conor und Joannes. Nur kurz zu dem, was Joannes gesagt hat: Wir stellen häufig fest, dass unsere operativen Teams überrascht sind, während ihre Kunden es nicht sind. Und genau das will man. Die operativen Teams sind erstaunt, dass plötzlich alles so reibungslos läuft, wo es vorher fast wöchentlich einen Tag der Hölle gab – und dann, nach etwa zwei Monaten, läuft einfach alles, ohne verrückte Zwischenfälle, ohne Ausraster.

Aber noch wichtiger ist, dass ihre Kunden nicht mehr überrascht sind, weil sie nicht plötzlich ohne Service dastehen oder Ähnliches erleben. Dafür existiert schließlich dein Geschäft, und deshalb solltest du genau diese Art von Technologie einsetzen, um deine Abläufe zu steuern, denn du möchtest deine Kunden nicht unerwartet im Stich lassen. Und dann kannst du eine ganz unspektakuläre Margarita auf einer schönen Insel trinken und deine durchschnittlichen Erträge mit sehr niedriger Varianz genießen.

Conor Doherty: Nun, meine Herren, ich habe keine weiteren Fragen. Joannes, vielen Dank für deine Zeit. Meinolf, es war mir ein absolutes Vergnügen, und danke, dass du dabei warst. Und danke an alle fürs Zuschauen. Wir hoffen, euch beim nächsten Mal wiederzusehen.