00:00:00 Diskussion über die Bedeutung von Prognosen und Skepsis.
00:00:40 Vorstellung der Gäste Jonathon Karelse und Joannes Vermorel.
00:01:37 Inspiration hinter dem Schreiben von “Geschichten der Zukunft” und die Bedeutung, Prognosemethoden zu hinterfragen.
00:05:49 Definition von Prognosen und ihre Ursprünge im frühen 20. Jahrhundert.
00:08:53 Debatte über die Sinnhaftigkeit, Messreihen zu erweitern, um die Zukunft vorherzusagen.
00:09:40 Klassische Prognoseperspektive des 21. Jahrhunderts und deren Bindung an Zeitreihen.
00:10:33 Neuausrichtung der Erfolgsmessung in der Prognose und den Fokus darauf legen, im Geschäft Geld zu verdienen.
00:13:25 Newtonsche Prinzipien und ein deterministischer Ansatz in der Prognose sowie ihr Einfluss auf das wirtschaftliche Denken.
00:16:55 Europäische Fortschritte in Mathematik und Statistik und deren Einfluss auf nordamerikanische Prognosemethoden.
00:18:25 Anpassung an die inhärenten Ungenauigkeiten der Prognose und die Akzeptanz, dass sie nie vollkommen genau sein kann.
00:19:29 Das Problem deterministischer Prognosen und die Hinwendung zu probabilistischen Ansätzen.
00:20:36 Frühe Denker über KI und ihre Vorhersagen bezüglich ihrer Fähigkeiten.
00:21:55 Der Einfluss der Verhaltensökonomie auf Prognosen und den klassischen Ansatz.
00:23:00 Die Irrationalität der Menschen und das Aufkommen der Verhaltensökonomie.
00:26:34 Heuristiken, ihre evolutionären Vorteile und die Nachteile bei der Dateninterpretation.
00:28:55 Untersuchung menschlichen Verhaltens bei datenbasierten Entscheidungen.
00:29:37 Wie die Einbettung von Daten in eine Geschichte die Entscheidungsfindung beeinflusst.
00:31:13 Die Auswirkungen organisatorischer Verzerrungen auf Prognosen.
00:33:00 Das Problem des übermäßigen Optimismus in der Prognose von Promotionen.
00:36:23 Logik über der Irrationalität anwenden und das Potenzial menschlicher Genialität.
00:38:53 Die Bedeutung, sich nicht zu sehr auf komplexe Modelle für operative Strategien zu verlassen.
00:39:48 Die Gefahren von “nackten Prognosen” und die Notwendigkeit greifbarer Verbindungen zum Geschäft.
00:42:34 Wie bürokratische Prozesse und supply chains anfällig für Probleme in der Prognose sind.
00:45:31 Verhaltensökonomie und menschliche Verzerrungen im Prognoseprozess.
00:47:53 Maximierung des Wertes menschlichen Urteilsvermögens in der Prognose durch das Verstehen von Verzerrungen.
00:48:39 Die Bedeutung, Verzerrungen anzuerkennen und ihre Rolle in der Prognose zu verstehen.
00:50:40 Einschränkungen der Zeitreihen-Perspektive in der Prognose.
00:52:00 Menschliche Probleme in der Prognose, die über Verzerrungen hinausgehen.
00:54:53 Die Zukunft der KI-Entwicklung und ihre Rolle bei der Unterstützung oder dem Ersatz menschlicher Prognostiker.
00:57:01 Die Bedeutung menschlicher Genialität und das Stellen der richtigen Fragen.
00:58:47 Diskussion über numerische Rezepte und die menschliche Rolle in der Automatisierung.
01:01:58 Zukünftige Automatisierung im supply chain management.
01:04:11 Mögliche Themen für ein zweites Buch.
01:05:22 Nutzung der Verhaltensökonomie in C-Level-Meetings.
01:08:46 Einschränkungen der Prognose im Luftverkehr und Einzelhandel.
01:09:30 Fokus auf Entscheidungen und die merkwürdige Natur prädiktiver Modellierung.
01:10:27 Der Vergleich der Absonderlichkeit zukünftiger Vorhersagen mit der Quantenmechanik.
01:11:12 Jonathons Rat an supply chain Praktiker.
01:11:56 Fazit und Dank an die Gäste.
Zusammenfassung
In einem Interview diskutieren Joannes Vermorel, Gründer von Lokad, und Jonathon Karelse, CEO von NorthFind Management, die Bedeutung des Verstehens und Hinterfragens des Zwecks von Prognosen in Unternehmen. Sie befürworten einen skeptischen Ansatz und betonen, dass accuracy nicht das einzige Erfolgskriterium sein sollte. Prognosen sollten als diagnostisches Instrument betrachtet werden, um Fehler zu identifizieren und anzugehen, um kontinuierliche Verbesserungen zu erzielen. Beide Experten sind sich einig, dass Verzerrungen die Prognosen beeinflussen können und sich Unternehmen auf Techniken konzentrieren sollten, die greifbare Auswirkungen haben. Sie diskutieren auch die Rolle von KI in der supply chain optimization, wobei betont wird, dass, obwohl KI unterstützen kann, menschliche Genialität unerlässlich bleibt.
Erweiterte Zusammenfassung
In diesem Interview spricht Moderator Conor Doherty über Prognosen mit Joannes Vermorel, dem Gründer von Lokad, und Jonathon Karelse, dem CEO von NorthFind Management. Karelse erklärt, dass sein Ansatz bei Prognosen darauf ausgerichtet ist, deren Einfluss auf Unternehmen zu verstehen. Viele Organisationen erstellen Prognosen, weil es “soll” getan werden, ohne wirklich zu hinterfragen, warum sie prognostizieren oder ob es Möglichkeiten gibt, den Prozess zu verbessern. Er betont die Bedeutung eines gesunden Maßes an Skepsis und das kontinuierliche Hinterfragen von Praktiken, um Prognosen zu optimieren.
Karelse teilt die Inspiration für sein Buch, “Geschichten der Zukunft”, das aus seinem Wunsch entstand, den historischen Kontext von Prognosen und die Gültigkeit bestimmter Prognoseprinzipien zu untersuchen. Er verweist auf die Arbeit von Bruno LaTour, der die Gewissheit wissenschaftlicher Prinzipien infrage stellte und dafür plädierte, den historischen Kontext zu verstehen, in dem sie entstanden sind. Dieser Ansatz inspirierte Karelse dazu, einen ähnlichen Blickwinkel auf das Gebiet der Prognosen anzuwenden.
Auf die Frage, wie man Prognosen definiert, sagt Karelse, dass es im Wesentlichen ein Vermuten darüber ist, wie die Zukunft aussehen könnte. Obwohl diese Vermutung wissenschaftlicher und geleiteter werden kann, ist es wichtig, nicht aus den Augen zu verlieren, dass Prognosen letztlich auf uncertainty basieren. Vermorel fügt hinzu, dass die klassische Prognoseperspektive, die bis ins frühe 20. Jahrhundert zurückreicht, sich auf time series und das Ausweiten von Messungen über die Zeit konzentriert. Er glaubt jedoch, dass im 21. Jahrhundert weiterhin neue Ansätze, die Zukunft zu betrachten, auftauchen werden.
Karelse betont, dass die Genauigkeit von Prognosen nicht das einzige Erfolgskriterium sein sollte. Stattdessen sollte die Prognosegenauigkeit als diagnostisches Maß betrachtet werden, das helfen kann, die Ursachen von Fehlern und Suboptimalitäten zu identifizieren, um daraufhin neu kalibriert und für kontinuierliche Verbesserungen optimiert zu werden. Das Ziel von Prognosen ist es, Geld zu verdienen, und das Verständnis der spezifischen Bedürfnisse und Erwartungen eines Unternehmens ist der Schlüssel zur effektiven Nutzung von Prognosen.
Vermorel stimmt zu, dass Prognosen nicht immer mit Skepsis betrachtet wurden. Frühere Befürworter wie Roger Babson glaubten an die absolute Macht der Wissenschaft, die Zukunft vorherzusagen und zu modellieren. Karelse und Vermorel plädieren jedoch für einen skeptischeren Ansatz, der das konventionelle Wissen hinterfragt und darauf abzielt, forecasting methods auf eine Weise zu verbessern, die den Unternehmen zugutekommt.
Die Diskussion beginnt mit einem kurzen Abriss der Geschichte von Prognosen, insbesondere den kulturellen und geografischen Aspekten, die zu ihrer Entwicklung beigetragen haben. Anschließend wendet sich das Gespräch dem klassischen Ansatz der Prognose zu, der auf einer deterministischen Philosophie basierte und sich auf mathematische und wissenschaftliche Prinzipien stützte, um zu genauen Schlussfolgerungen zu gelangen. Es werden die Grenzen dieses Ansatzes erörtert, einschließlich der Tatsache, dass Menschen nicht immer rational handeln und dass unbewusste Verzerrungen decision-making beeinflussen können. Das Konzept der Heuristiken wird eingeführt, und die Vor- und Nachteile, sich auf diese zu stützen, werden diskutiert. Auch das Phänomen der Überkonfidenz, das als Vorbote einer Diskussion über Verhaltensökonomie dient, wird beleuchtet. Das Gespräch wendet sich dann der Bedeutung probabilistischer Prognosen zu und wie diese Organisationen dabei helfen können, die Grenzen ihrer Vorhersagen besser zu verstehen. Die Diskussion schließt mit einer kurzen Erwähnung von artificial intelligence und ihrem Potenzial, bei Prognosen zu unterstützen, sowie der Notwendigkeit, zu akzeptieren, dass es letztlich Grenzen für unser Verständnis gibt.
Das Problem des positiven Bias in Prognosen, insbesondere in Organisationen mit kulturellen und geschäftlichen Neigungen zu Wachstum und positiven Ergebnissen. Selbst ohne offensichtliche Verzerrungen zeigt die Forschung, dass Menschen viermal häufiger positive Anpassungen an einer Prognose vornehmen als negative. Dieser Bias wird auf unsere evolutionären Tendenzen zur Risikoaversion und zur Realisierung von Aufwärtspotenzialen zurückgeführt.
Joannes Vermorel teilte seine Erfahrungen mit Kunden im Einzelhandel, bei denen die Tendenz zu einem positiven Anstieg bei promotions vorherrschte, was zu unsinnigen Prognosen führte. Seine Lösung war, Prognosen als eine von vielen Techniken zu betrachten und nicht als den Kernansatz. Das bedeutet, ausschließlich numerische Methoden zu verwenden, die einen greifbaren Einfluss auf das Geschäft ermöglichen – sei es durch die Produktion von etwas, den Transport von etwas von Ort A nach Ort B oder die Verwendung von Daten, die direkt mit etwas Greifbarem verbunden sind. Vermorel bestand darauf, Prognosen als eine von vielen Techniken zu behandeln und keine naked forecasts zu erstellen, die nicht mit etwas Greifbarem verknüpft sind.
Jonathon Karelse trug zur Diskussion bei, indem er hinzufügte, dass alle Modelle falsch sind, aber einige Modelle nützlich, und dass das ultimative Ziel darin besteht, auf Schlichtheit und Modellselektion zu setzen. Er warnte auch vor dem Mikromanagement von Prognosen, da dies Zeit verschwendet, wenn die Prognosegenauigkeit bei einem Horizont von sieben oder acht Monaten bereits erschreckend gering ist. Er schlug vor, die unendliche Kapazität für Einfallsreichtum in speziellen Anwendungen einzusetzen, in denen die Wahrscheinlichkeit eines Aufwärtspotenzials am größten ist.
Sie schlossen mit der Feststellung, dass Prognosen nur eine von vielen Techniken sind und nicht der einzige Weg, um an die Zukunft heranzutreten. Sie waren sich einig, dass ein besseres Verständnis der Verhaltensökonomie innerhalb einer Organisation Prognosen verbessern kann. Indem man die Verzerrungen erkennt, die Prognosen beeinflussen können, können Unternehmen unsinnige Prognosen vermeiden und sich auf Techniken konzentrieren, die einen greifbaren Einfluss auf das Geschäft haben.
Die Diskussion dreht sich um den Einsatz von KI und Prognosen in der supply chain optimization. Es werden die Quellen und Ausprägungen von Verzerrungen im menschlichen Urteilsvermögen und deren Auswirkungen auf den Prozess untersucht. Vermorel argumentiert, dass der Fokus auf der Entwicklung numerischer Rezepte liegen sollte, die in großem Maßstab arbeiten und vernünftige Entscheidungen generieren. Er erklärt, dass solche Rezepte im täglichen Ablauf vollständig automatisiert werden sollten, während sich die Menschen auf längerfristige Entscheidungen konzentrieren sollten, die mehr geistige Kapazitäten erfordern. Karelse stimmt zu, dass KI Menschen bei Prognosen unterstützen kann, sie aber nicht ersetzen wird, und dass menschlicher Einfallsreichtum weiterhin unerlässlich ist, um interessante und wichtige Fragen zu stellen, die KI lösen kann. Die Diskussion endet mit Karelse’ der Hoffnung, dass Organisationen das Potenzial menschlicher Einsichten mit der Verletzlichkeit, die jeden aufgrund der Unvollkommenheit unserer Denkweise betrifft, in Einklang bringen können.
Die Zukunft der supply chain optimization. Vermorel brachte seine Überzeugung zum Ausdruck, dass mit besseren Werkzeugen und Techniken große Teams im supply chain management überflüssig werden könnten, und beschrieb seine Erfahrung, Menschen dabei zuzusehen, wie sie trotz gegenteiliger Beweise stur irrationale Dinge tun. Karelse stimmte Vermorel zu und fügte hinzu, dass er die Verhaltensökonomie nutzt, um C-Level-Führungskräften zu helfen, zu verstehen, warum ihre Prozesse fehlerhaft sind und wie sie den Geschäftswert messen können. Vermorel ist der Meinung, dass die Fokussierung auf prädiktive Modellierung im supply chain management zunehmend befremdlich werden wird, und Karelse empfahl, dass Praktiker niemals zufrieden sein sollten, einfach nur zu wissen, sondern immer nach dem Warum zu fragen. Das Interview endete mit Karelse’ der Empfehlung von Vermorels Buch, und beide Gäste bedankten sich bei Doherty für seine Zeit.
Vollständiges Transkript
Conor Doherty: Willkommen zur Show. Ich bin Ihr Gastgeber Conor. Heute habe ich Joannes Vermorel, Mitbegründer von Lokad, bei mir, und einen besonderen Gast, Jonathon Karelse, CEO und Mitbegründer von NorthFind Management. Er ist ein veröffentlichter Forscher im Bereich des unbewussten Bias und hat dieses schöne Buch “Geschichten der Zukunft” geschrieben. Jonathan, vielen Dank, dass du heute dabei bist.
Jonathon Karelse: Danke, dass ich hier sein darf.
Conor Doherty: Richtig, Jonathan, ich hoffe, du bist bereit für ein Meer an Schmeicheleien, denn ich habe das Buch tatsächlich gelesen. Es hat mir sehr gut gefallen. Ich glaube, ich gehöre in der Tat zu deiner Zielgruppe, weil ich gebildet bin, aber auch weil ich an diesen Themen interessiert bin, wie etwa Wirtschaft, Geschäft und Verhaltensökonomie. Allerdings habe ich keine formale Ausbildung in diesem Bereich; mein Hintergrund, wie wir bereits besprochen haben, ist Musik und Philosophie. Also habe ich beim Durcharbeiten der Geschichte der Prognosen eine Menge gelernt. Dein Schreibstil ist sehr angenehm, zugänglich und lesbar – vielen Dank also. Beginnen wir am besten ganz am Anfang: Was genau war die Inspiration, ein Buch über die letzten 100 Jahre der Prognosen zu schreiben?
Jonathon Karelse: Nun, mein Ansatz bei Prognosen und in der Praxis war immer, zu verstehen, was einen Einfluss auf das Geschäft haben wird – und das mag zwar offensichtlich erscheinen. Aber in vielen Organisationen werden Prognosen erstellt, weil es “erwartet” wird, und es wird nicht unbedingt viel darüber nachgedacht, warum überhaupt prognostiziert wird. Infolgedessen wird viel überliefertes Wissen von Generation zu Generation im Unternehmen weitergegeben, und die Menschen durchlaufen einfach den monotonen Prozess der Prognose, ohne wirklich zu verstehen, welche Elemente des Prozesses das Geschäft positiv beeinflussen. Gibt es Dinge, die wir tun könnten, um es zu verbessern, und vor allem, warum?
Die “Warum”-Frage ist etwas, wobei ich mich selbst vielleicht nicht als Querdenker bezeichnen würde, aber ich denke, es ist immer gut, ein wenig gesunden Zynismus oder Skepsis zu haben. Ich habe oft gefragt, warum, und ein Buch, das bei mir wirklich Anklang fand, als ich Wirtschaftsstudent war, wurde von Bruno LaTour geschrieben. Er gehört zur Familie LaTour. Er ist im Grunde das schwarze Schaf der Familie, weil er nicht den Wein herstellt, aber Bruno LaTour hat einen Ph.D. in Erkenntnistheorie von Le Cole de Mine, was, falls ihr damit vertraut seid, ihr wisst, dass es keine halbwegs schlechte Universität ist. Er verbrachte viel Zeit damit, die Lernmodi und die Wissensmodi zu erforschen, und er schrieb ein Buch namens “Science in Action.”
Dieses Buch “Science in Action” untersucht einige der Black-Box-Grundlagen der Wissenschaft, Dinge wie die Doppelhelixstruktur der DNA, und führt sie zurück auf den Zeitpunkt, bevor sie Fakten waren, bevor sie blackboxed wurden, und hilft uns, den historischen Kontext zu verstehen, in dem sie entstanden sind. Dabei verdeutlicht er wirklich, dass viele dieser wissenschaftlichen Gewissheiten weitaus weniger sicher sind, als wir denken, dass sie sind. Es ist praktisch
Conor Doherty: Also, wenn du den Begriff forecasting verwendest, was genau meinst du damit?
Jonathon Karelse: Das ist eine tolle Frage. Im Grunde genommen bedeutet forecasting, eine Schätzung darüber abzugeben, wie die Zukunft aussehen wird. Diese Schätzung kann wissenschaftlicher werden und von Prinzipien der Unsicherheit geleitet werden, aber letztendlich raten wir. Es ist wichtig, diesen Umstand nicht aus den Augen zu verlieren, denn er beruht auf Unsicherheit.
Conor Doherty: Das ist ein interessanter Punkt. Und Johannes, ein grundlegendes Prinzip von Lokad ist es, Unsicherheit anzunehmen, oder?
Joannes Vermorel: Ja, aber um die Frage zum forecasting zu beantworten, glaube ich, dass es eine klassische Forecasting-Perspektive gibt, die bis zum Beginn des 20. Jahrhunderts zurückreicht und von Leuten wie Roger Babson und Irving Fisher populär gemacht wurde. Diese Perspektive nähert sich dem forecasting mittels Zeitreihen. Man hat Messungen, die über die Zeit durchgeführt werden, wie etwa die produzierte Menge an Stahl oder die Zahl der geernteten Kartoffeln. Man erhält eine Abfolge von Messungen, die man als Zeitreihe darstellen kann. Das Naheliegende ist, die Kurve fortzusetzen und zu sehen, wohin sie als Nächstes führt. Das ist das Wesen der klassischen Forecasting-Perspektive, die zu Beginn des 20. Jahrhunderts entstand. Allerdings ist das nur eine Art, es zu betrachten.
Die eigentliche Frage ist, ob es sinnvoll ist, sich der Zukunft zu nähern, indem man einfach eine Reihe von Messungen fortführt. Es ist nicht unbedingt falsch, aber es ist eine meinungsbetonte Herangehensweise an die Zukunft. Dieser Ansatz war sehr typisch für das 20. Jahrhundert, in dem Methoden im Laufe des Jahrhunderts weiterentwickelt und verfeinert wurden. Allerdings werden wahrscheinlich neue Wege auftauchen, die Zukunft zu betrachten, von denen einige viel seltsamer sein könnten als der klassische Ansatz.
Conor Doherty: Johannes, zu dem Punkt des klassischen Ansatzes des forecasting möchte ich die Frage an Jonathon zurückgeben. Etwas, das deine gesamte Arbeit durchzieht, ist eine Neukalibrierung, wie man den Erfolg einer Prognose misst. Deine These scheint zu sein, dass es nicht um die Prognosegenauigkeit per se geht. Könntest du das bitte näher erläutern?
Jonathon Karelse: Ich hoffe, dass wir im Weiteren auf die Idee des klassischen Ansatzes versus verschiedener Forecasting-Philosophien eingehen. Aber in der Zwischenzeit irritiert es mich, wie oft die Rede davon ist, dass man weiß, dass die Prognose immer falsch sein wird, als wäre es eine Freikarte aus dem Gefängnis. Man sagt: “Du bittest mich um eine Prognose. Ich werde mein Bestes geben, aber die Prognose ist immer falsch, also gib mir nicht die Schuld, wenn es so kommt.”
Conor Doherty: …aber dann kalibrieren sie dennoch ihre operativen Strategien und in der Tat auch finanzielle Strategien in der Hoffnung auf eine hoch genaue Prognose. Deshalb möchte ich ganz deutlich sein, denn ich habe letzte Woche auf ein paar Konferenzen in Amsterdam darüber gesprochen und hatte einige sehr wütende Leute, insbesondere Softwareanbieter in diesen Sessions, die sagten: “Wovon redest du? Forecasting spielt keine Rolle.” Und ich möchte klarstellen: Forecasting ist in bestimmten Anwendungen absolut wichtig, weil es Bereiche gibt, in denen es aus ROI-Sicht keine Rolle spielt.
Jonathon Karelse: Wenn du ein Maßschneider bist und drei Anzüge im Jahr herstellen kannst und deine Kunden bereit sind, 10 Jahre zu warten, musst du nicht viel Zeit mit der Prognose der Nachfrage verbringen. Du bist an deiner Kapazitätsgrenze. Der ROI wird minimal sein. Für alle anderen gibt es wahrscheinlich einen ROI, aber der Punkt ist, dass für mich die Prognosegenauigkeit nicht die Kennzahl ist. Prognosegenauigkeit ist nicht das Ziel. Sie ist ein diagnostisches Maß, mit dem wir die Ursachen von Fehlern und Suboptimalitäten identifizieren können, um dann neu zu kalibrieren und für kontinuierliche Verbesserung zu optimieren. Das Ziel des forecasting ist es, Geld zu verdienen, weil das Ziel eines Geschäfts darin besteht, Geld zu verdienen – außer man befindet sich in einem Geschäft, das das nicht tut. Und forecasting ist eines von mehreren Werkzeugen, die uns zur Verfügung stehen, um dies zu erreichen. In einigen Fällen, richtig eingesetzt, ist es das beste Werkzeug, das wir haben. In anderen Fällen ist es ein unterstützendes Werkzeug, und in wieder anderen Fällen wird es wahrscheinlich nicht viel Nutzen bringen. Aber es ist das Verständnis deines Geschäfts, das erklärt, was du von einer Prognose erwarten solltest, und das ist meiner Meinung nach sehr wichtig.
Joannes Vermorel: Die Prognose ist immer falsch, und jetzt nutzen die Leute das als eine Art “Freikarte aus dem Gefängnis”. Ich liebe diesen Ausdruck wirklich. Das Interessante ist, dass das nicht immer die vorherrschende Perspektive war. Du weißt, Roger Babson war ein riesiger Fan der Arbeit von Sir Isaac Newton, und selbst dann gab es diesen unglaublichen Glauben an die absolute Macht der Wissenschaft, dass man in der Lage sein würde, Dinge zu erfassen und eine Art numerische Modellierung zu besitzen, so wie man die Position des Mars in drei Jahrhunderten bis zur letzten Bogensekunde vorhersagen kann.
Jonathon Karelse: Beide glaubten – so wie ich letztlich auch – dass Mathematik allem zugrunde liegt und wenn wir die Kapazität und genügend Daten hätten, könnte Mathematik alles erklären. Aber in der Praxis sind wir noch nicht so weit. Und ich würde sagen, das war zu Beginn des 20. Jahrhunderts etwas, das nicht sehr gut verstanden wurde. Es gibt Größenordnungen an Schwierigkeiten, die einfach nicht vorhanden sind, und es ist also nicht so, als läge die ultimative Formel gleich um die Ecke.
Joannes Vermorel: Ich glaube, dass eine der wichtigsten Erkenntnisse des 21. Jahrhunderts darin besteht, zu erkennen, wie sehr es, bei all den wissensbezogenen Dingen, ganze Wissensgebiete gibt, die unserer Reichweite entgehen. Es geht nicht nur darum, etwas Äquivalentes zum Gravitationsgesetz zu finden, womit man in nur einer Gleichung eine enorme Anzahl von Dingen erklären kann. Das war die Art von Denken, die damals vorherrschte.
Conor Doherty: Für das Publikum: Wir sprechen über nordamerikanische Statistiker, die in dem Buch beschrieben werden und in den USA aufkamen, weil das Phänomen einer “Mitte” entstand…
Conor Doherty: Also, wer Aktien besitzt – nein, Aktienoptionen, Entschuldigung, ich meine Aktien – und sie wollten eine Prognose darüber haben, was ihnen die besten Renditen bringen würde. Sie waren sehr an all diesen Arten von Prognosen interessiert, und so war es etwas, das wirklich in den USA und in Nordamerika entstand. Die kulturelle Komponente beziehungsweise die geokulturelle Komponente spielt dabei eine Schlüsselrolle.
Joannes Vermorel: Das ist sehr wichtig, denn in Nordamerika war es nicht besonders statistisch getrieben. Wie du schon gesagt hast, liebte Babson Newton und alles Newtonsche. Er nahm ein ziemlich oberflächliches Verständnis der newtonschen Prinzipien und versuchte, es ohne den Vorteil eines statistischen Verständnisses auf das forecasting anzuwenden. Im Grunde genommen, wenn etwas eine Weile steigt, wird es auch eine Weile fallen, weil das die Wirkung der Schwerkraft ist.
Jonathon Karelse: Irving Fisher, der den ersten PhD in Volkswirtschaft Nordamerikas erwarb, versuchte, seinen mathematischen Hintergrund auf ein Gebiet anzuwenden, das bis dahin eine Sozialwissenschaft war. Er begann, einige der Statistiken – was, man muss sagen, in Europa vorangetrieben wurde und nicht in Nordamerika – mit dem nordamerikanischen Bereich der Volkswirtschaft zu verbinden. Aber tatsächlich ist es in Europa jener Zeit, wo wir all die Fortschritte in der Mathematik sehen, die letztlich im forecasting Anwendung finden würden.
Joannes Vermorel: Es gab diesen deterministischen Ansatz, bei dem die Leute glaubten, dass man die Zukunft auf mechanistische Weise modellieren könne. Dieses Denken hielt lange an. Sogar Science-Fiction-Werke in den 60er Jahren, wie Isaac Asimovs Foundation-Serie, griffen die Idee der Psychohistorie auf, einer Wissenschaft, die die Zukunft sehr mechanistisch vorhersagen kann.
Jonathon Karelse: Das ist sehr interessant, denn das ist die klassische Perspektive. Aber aufgrund der Tatsache, dass die Menschen seit Jahrzehnten mit ziemlich ungenauen Prognosen arbeiten, haben sie erkannt, dass die Prognose immer falsch ist. Allerdings haben sie sich noch nicht damit abgefunden, dass sie niemals vollständig richtig sein wird.
Joannes Vermorel: Das ist ein interessanter Punkt. Die Menschen haben moralisch akzeptiert, dass die Prognose immer falsch ist, und entlassen niemanden deswegen, was gut ist. Aber sollten wir diesen Aspekt der Prognose noch einmal eingehend hinterfragen, um ihn anzunehmen? Nicht wirklich.
Jonathon Karelse: Sehr interessant ist, dass du den Determinismus ein paar Mal erwähnt hast, und ich denke, das ist entscheidend. Viel von der Wissenschaft, die im 19. und frühen 20. Jahrhundert weltweit – nicht nur in Nordamerika – aufkam, entstand im Grunde aus dem Schwung, den wir in der Renaissance gewonnen haben. Wir sind aus dem Dunklen Zeitalter herausgekommen und haben begonnen herauszufinden, dass wir, indem wir wissenschaftliche Prinzipien anwenden, anfangen können, Licht in diese dunklen Bereiche zu bringen.
Conor Doherty: Es geht um Wissensbereiche und darum, uns selbst wirklich zu erhöhen, und ich denke, wir wurden ein wenig arrogant in dem Maß, in dem wir das tun könnten. Im 19. und frühen 20. Jahrhundert begannen wir zu glauben, dass es mit genügend Anstrengung wirklich nichts gibt, was wir nicht lernen können. Und das bringt zwei wirklich wichtige Themen im forecasting mit sich. Das erste ist, dass ein deterministischer Ansatz mit dieser Philosophie Sinn macht, weil es bedeutet, dass wenn ich hart genug arbeite und klug genug bin, ich zu einer genauen Schlussfolgerung gelangen werde, anstatt zu akzeptieren, dass es ein hoffnungsloses Unterfangen ist. Ich werde immer falsch liegen, und probabilistische Ansätze, was übrigens…
Jonathon Karelse: …und all das. Nun, Joannes Komagarov hat seine gesamte Arbeit in der Statistik ungefähr zur gleichen Zeit gemacht, als diese frühen deterministischen Ansätze entstanden. Es ist also nicht so, dass wir noch weitere hundert Jahre auf die Möglichkeit probabilistischer Ansätze warten mussten. Die Mathematik war vorhanden. Der zweite Aspekt ist der Glaube, dass man mit genügend Anstrengung und Fokus alles herausfinden könnte. Das führt uns zu dem, was heute ein sehr heißes Thema ist: KI. Die Idee, dass KI nicht-wertschöpfende oder routinemäßige Tätigkeiten für den Menschen lösen kann, ist nicht neu. Tatsächlich gab es in den 1950er Jahren am Dartmouth College eine Konferenz, auf der eine Gruppe der frühen KI-Denker zehn Dinge aufstellte, von denen sie annahmen, dass KI sie in den nächsten zehn Jahren erreichen könnte. Und 70 Jahre später haben wir keines davon umgesetzt. Das hält uns nicht davon ab, es zu versuchen, und ich denke, dass das Versuchen wichtig ist. Aber letztlich lautet die Lektion, dass wir akzeptieren müssen, dass es endgültige Grenzen für unsere Fähigkeit gibt, alles zu verstehen. Und sobald wir das verstanden haben, werden wir offener für andere Ansätze, wie zum Beispiel probabilistisches forecasting, das uns dann auf die Realität vorbereitet: Wir wissen, dass wir immer falsch liegen werden. Aber wenn wir das akzeptieren, lasst uns verstehen, wie das im Hinblick auf echte Geschäftsergebnisse aussieht, und unsere Strategien darauf kalibrieren, dass wir falsch liegen werden, statt darauf zu hoffen, dass wir irgendwie richtig liegen.
Conor Doherty: Es scheint, als hättest du zwei sehr interessante Punkte angesprochen – einer davon ist im Wesentlichen ein Vorläufer einer Diskussion über Verhaltensökonomie, ich glaube, du beziehst dich auf übermäßiges Selbstvertrauen, und der zweite Punkt betrifft KI. Ich dachte an Kapitel 6, ich glaube fünf oder sechs, also nehmen wir diese der Reihe nach, wenn es dir nichts ausmacht. Zunächst zur Verhaltensökonomie, von der ich weiß, dass sie ganz dein Fachgebiet ist. Könntest du ein wenig erläutern, wie Verhaltensökonomie das forecasting tatsächlich beeinflusst oder mit ihm interagiert?
Jonathon Karelse: Sicher. Also, Joannes, du hast früh in dieser Unterhaltung mehrmals den klassischen Ansatz des forecasting erwähnt. Und ich würde sagen, der klassische Ansatz des forecasting ist selbst eine Art Nebenprodukt der klassischen – oder genauer gesagt, neoklassischen – wirtschaftlichen Denkweise im Allgemeinen. Und das stammt wieder aus einer sehr aus dem 18. und 19. Jahrhundert stammenden Sichtweise, dass wenn wir hart arbeiten und mathematische sowie wissenschaftliche Prinzipien anwenden, wir verstehen können. Adam Smith schrieb 1776 das grundlegende Werk “The Wealth of Nations”, und einer seiner Schlüsselpunkte ist, dass im Grunde genommen der gesamte Handel durch das Grundprinzip verstanden werden kann, dass Menschen rationale Akteure sind, die, wenn ihnen klare wertbasierte Entscheidungen angeboten werden, sich von Natur aus zu der Option mit dem größten Nutzen hingezogen fühlen. Und das bedeutet nicht notwendigerweise das meiste Geld, sondern das, von dem sie den größten Nutzen in irgendeiner Form ziehen. Und intuitiv fühlt sich das richtig an. Das Problem ist, für alle Zuhörer, die Wirtschaft studiert haben, werdet ihr wissen, insbesondere in der Ökonometrie…
Conor Doherty: Zwar halten in der Anwendung Prinzipien der neoklassischen Ökonomie, aber wir müssen im weiteren Sinne verstehen, wie diese Systeme von Angebot und Nachfrage, Preisfestsetzung und letztlich Entscheidungsfindung von unbewussten Triebkräften beeinflusst werden – unbewussten psychologischen Treibern, die in einigen Fällen umweltbedingt, in einigen Fällen evolutionär verankert, aber in allen Fällen vorhanden sind. Egal, wie sehr man glaubt, frei von Vorurteilen zu sein, wie objektiv man sich auch fühlt, man unterliegt dennoch diesen unbewussten Verzerrungen, die eine Linse schaffen, durch die man Daten interpretiert.
Conor Doherty: Eigentlich, Entschuldigung, du hast im Buch gesagt, dass der durchschnittliche Mensch etwa 30.000 Entscheidungen pro Tag trifft, und ich meine, uns sind natürlich nicht alle bewusst. Das können wir unmöglich sein.
Jonathon Karelse: Nein, und genau darin liegt der Vorteil dieser heuristischen Prozesse, die wir haben. Ich meine, oft betrachten wir Heuristiken als abwertend, als wäre es eine Abkürzung. Als Joannes in den 70er und 80er Jahren erwähnte, als einige dieser komplexeren wissenschaftlichen oder statistischen Ansätze zur Prognose auftauchten, verachteten deren Befürworter wie George Box und Willem Jenkins – die viele Ihrer Zuhörer als Mitautoren der ARIMA-Methode kennen werden – die einfacheren Methoden wie einfaches exponentielles Glätten oder Holt-Winters-Dreifach-Exponentenglätten als zu simpel und als bloße Heuristik, eine Abkürzung.
Jonathon Karelse: Aber die ersten vier M-Wettbewerbe zeigten, dass es in vielen praktischen Fällen nicht unbedingt schlecht ist, eine Heuristik zu verwenden. Und psychologisch gesehen gibt es einen enormen Vorteil darin, aus evolutionärer Sicht sehr schnell Entscheidungen treffen zu können. Wenn ich merke, dass ein Tiger in meinem peripheren Blickfeld im Wald mich verfolgt, und ich anhalte, um alle meine Möglichkeiten zu bedenken, darüber nachdenke, was der Tiger alles tun könnte und welche verschiedenen Optionen ich habe, und dann versuche, die für mich passendste abzuwägen, werde ich wahrscheinlich von einem Tiger gefressen. Und das bedeutet, dass ich mich nicht fortpflanze und meine DNA nicht mehr existiert. Im Laufe der Zeit haben wir gelernt, dass es eine Reihe von heuristischen Prozessen gibt, die uns evolutionär zugutekommen.
Jonathon Karelse: Einer davon ist die Repräsentativitätsheuristik, also “das sieht aus wie etwas, das ich schon einmal gesehen habe, beim letzten Mal, als ich es antraf, hatte ich einen erfolgreichen Ausgang. Das ist das, was ich gemacht habe. Das werde ich wieder machen.” So müssen wir Babys nicht erst beibringen, sich von Dingen, die wie Schlangen aussehen, abzuwenden; es ist in ihnen verankert. Wir müssen nicht anhalten und darüber nachdenken, was zu tun ist, wenn wir einen Bus auf uns zukommen sehen; wir springen zurück. Und die 30.000 Entscheidungen, die wir täglich treffen müssen, werden größtenteils durch irgendeine Art Heuristik gesteuert. Wenn wir über alle objektiv nachdenken müssten, wären wir handlungsunfähig.
Jonathon Karelse: Der Nachteil von Heuristiken besteht darin, dass das, was wir für etwas Bekanntes halten, nicht immer tatsächlich das Gemeinte repräsentiert. Und besonders wenn es um die Interpretation von Daten geht, unterliegen wir oft etwas, das als der Cluster-Illusions-Bias bezeichnet wird. Wenn wir Menschen dafür bezahlen, Daten zu interpretieren und Prognosen zu erstellen, fühlen sie den Drang, einen Mehrwert zu schaffen. Wir bezahlen sie, um Muster zu finden, und sie finden Muster, selbst wenn diese in Wirklichkeit nicht existieren. Es ist natürlich, dass so etwas passiert; man kann ihnen nicht die Schuld geben. Aber es gibt eine Vielzahl von Verzerrungen, die unsere Fähigkeit beeinträchtigen, Daten rational und objektiv zu interpretieren.
Conor Doherty: Jonathan, zu diesem Punkt hast du tatsächlich ein Beispiel im Buch aus Forschungen, die du anderswo veröffentlicht hast. Du hast einer Gruppe von Menschen völlig bereinigte Zufallsdaten präsentiert und sie gefragt, ob die Linie nach oben, nach unten, statisch bleiben würde oder ob sie es nicht wissen. Kannst du das erklären und die Bedeutung dieser Erkenntnis erläutern?
Jonathon Karelse: Sicher. Das von uns vorgestellte Rahmenwerk zur Auswahl ist ein Spoiler für alle, die letztendlich unseren Bias-Test durchführen werden. Ein Großteil der präsentierten Daten ist stochastisch. Uns wurden eine Reihe von verschiedenen stochastischen Datensätzen zur Verfügung gestellt, und wir wollten sicherstellen, dass in keinem von ihnen versehentlich ein Trend oder Saisonalität vorhanden ist. Diese Datensätze sind so stochastisch, wie es nur geht; es ist unmöglich, dass irgendein Statistikpaket in diesen Datensätzen einen Trend, Saisonalität oder ein anderes Muster findet.
Als wir den unbearbeiteten, unkontextualisierten Datensatz präsentierten und die Leute fragten, wohin sie glaubten, die Nachfrage gehen würde, hatten wir einen ziemlich gleichmäßigen Anteil an “nach oben”, “nach unten” und “unverändert”. Nur wenige gaben an, dass sie es nicht wissen – was eine völlig angemessene Antwort wäre, da dies widerspiegeln würde, dass sie nichts darüber wissen, was die Daten bedeuten. Sie haben nicht einmal den Vorteil, ein Statistik-Tool darauf anwenden zu können, um zu sehen, ob es einen Trend oder Saisonalität gibt, und übrigens, man kann die Zukunft sowieso nicht vorhersagen. Das wäre die korrekte Antwort, aber nur wenige Menschen sagen das tatsächlich.
Später präsentierten wir denselben Datensatz erneut im Test, diesmal mit einer Reihe weiterer Fragen dazwischen, jedoch begleitet von einer kleinen Geschichte. Die Daten bleiben gleich, und die Geschichte enthält Informationen, die nützlich erscheinen mögen, in Wirklichkeit aber keinerlei Bezug zu den Daten haben. Was wir herausfanden, ist, dass etwa 70 Prozent der Menschen sich in ihrer Entscheidung sicherer fühlen. Jeder, der “weiß nicht” geantwortet hatte, verlässt typischerweise diese Gruppe, und die meisten derjenigen, die “unverändert” wählten, wechseln in die Kategorie “oben” oder “unten”.
Es hängt davon ab, wie wir es rahmen. Wenn wir einen positiven Rahmen setzen, sehen wir, dass sich viele Menschen in diese Richtung bewegen. Das ist eine wirklich wichtige Erkenntnis aus praktischer Prognosesicht, denn die Daten haben sich nicht verändert. Im ersten Beispiel ist das Ergebnis wahrscheinlich am ehesten das, was man von einem Menschen erwarten könnte. Ein Computer hätte die Entscheidung sofort getroffen. Aber sobald wir eine Geschichte hinzufügen, fliegen alle Logik und Rationalität aus dem Fenster, und wir erhalten eine extrem verzerrte Sicht auf die Daten.
Das Problem ist, dass es in der Praxis nicht so unterschiedlich ist. Wir bitten die Menschen, Nachfragepläne zu erstellen, aber sie tun dies im Rahmen einer größeren Organisation, die ihre eigenen kulturellen und geschäftsbezogenen Vorurteile gegenüber Wachstum und positiven Ergebnissen hat. Es ist also nicht wirklich überraschend, dass wir, wenn wir den Effekt menschlicher Eingriffe auf computerbasierte Prognosen messen, überwiegend eine positive Verzerrung feststellen. In einigen Fällen gibt es sogar einen deutlichen Druck innerhalb von Organisationen, eine positive Verzerrung zu haben, Druck zur Prognose, zur Planung und zum Erreichen bestimmter Ziele. Den Leuten wird im Grunde gesagt, sich anzupassen.
Conor Doherty: Die Prognose, aber selbst ohne diese offensichtlichen Verzerrungen zeigen einige Forschungen von Len Tashman und, äh, oh, ich werde all ihre Namen vergessen, Spheros Mocker Docus, ähm, Paul Goodwin, dass wir etwa viermal wahrscheinlicher positive Anpassungen an einer Prognose vornehmen als negative. Das macht keinen Sinn, wenn man mit einer statistisch getriebenen Prognose beginnt. Das Residuum sollte beidseitig normalverteilt um diese Prognose fallen. Wenn im Laufe der Zeit eine menschliche Anpassung notwendig wäre, sollten sich die Fehler ausgleichen. Aber aufgrund dieser unbewussten Verzerrung, bei der wir wesentlich risikoscheuer als renditeorientiert sind – und es gibt evolutionäre Gründe dafür – materialisieren wir Aufwärtspotenziale viel eher, als dass wir Abwärtsrisiken berücksichtigen, weshalb am Ende überall die Fingerabdrücke eines positiven Bias in der Prognose zu finden sind. Findest du, dass das auch bei euch der Fall ist, wenn ihr Prognosen erstellt?
Joannes Vermorel: Ja, ich meine, vor einem Jahrzehnt, als Lokad noch klassische Prognosen machte – wir starteten als Softwareanbieter mit klassischer Prognose – würde ich sagen, haben wir heute ein Element des Predictive Modeling im Werkzeugkasten, aber die Art und Weise, wie wir arbeiten, können wir besprechen. Es ist sehr, sehr seltsam und liegt außerhalb dessen, was als relevant für die Zukunft angesehen würde, sofern man nicht anfängt, über die Geschichte der Zukunft des 21. Jahrhunderts zu sprechen. Aber zurück zu diesen Erfahrungen: Es ist sehr interessant, denn wir hatten, äh, sehr ähnliche Erfahrungen, insbesondere mit unseren Kunden. Wir hatten eine Reihe von Kunden – und haben sie noch im Einzelhandel –, und wenn es um die Prognose von Promotionen ging, stellten wir häufig fest, dass der Anstieg durch die Promotion begrenzt ist. Wissen Sie, ja, es wird beispielsweise in einer Größenordnung – ein Hypermarkt, ja vielleicht – den Umsatz um 30–50 % steigern. Das ist viel, aber weit entfernt von dem, was die Leute erwarteten, nämlich so etwas wie “wir werden für dieses Produkt das 10-fache erreichen.”
Und das Interessante war, dass wir für diese Promotionen eine Art World Series of Benchmarks durchführten, bei denen Teams tatsächlich nur, wissen Sie, einen super simplen Anstieg für die Promotion modellierten, im Vergleich zu Leuten, die mikroadjustierend arbeiteten und sagten: “Ach, ich kenne genau diese Schokoladenmarke”, usw. Und sehen Sie, was in puncto Genauigkeit an der Spitze herauskam: ähm, ich würde sagen, lächerlich einfache Modelle, wissen Sie, in etwa der Komplexität von exponentiell gleitenden Durchschnitten – aber nur für den Anstieg durch eine Promotion, der einfach ein konstanter Faktor plus 50 ist, und fertig. Und das war tatsächlich besser, viel besser als die Modelle von Leuten, die mikroadjustierend arbeiteten. Und tatsächlich war die Verzerrung stark positiv ausgeprägt, wenn sie sagten: “Aber dir ist doch klar, dass diese Marke – es ist das erste Mal in den letzten 10 Jahren, dass sie beworben wird; sie werden das 10-fache erreichen!” Und wir dachten: “Ja, wahrscheinlich nicht. Es wird wohl eher plus 50, und ich weiß, dass du enttäuscht sein wirst.”
Aber dann gerät man in seltsame Situationen, in denen man zum Beispiel eine Prognose hat, die völlig unsinnig ist, wie: Man sagt, man werde das 10-fache erreichen, erreicht es aber nicht, und der Einkauf des 10-fachen ist tatsächlich die richtige Entscheidung, weil der Lieferant dem Einzelhändler einen enormen Rabatt gewährt. Im Grunde genommen ist es also eine Art Spekulation über den Wert des Inventars. Und wenn dein Lieferant dir einen 25%
Conor Doherty: …verkaufst du über die Zeit, könnte sich das als kluge Entscheidung herausstellen. Aber Sie sehen, dass etwas im Denken sehr bizarr war. Es war so, dass ich – wie früher – mit einer völlig unsinnigen Prognose anfing und dann, bedingt dadurch, dass ich bei Promotionen in der Regel den Lagerbestand zu einem enormen Rabatt vom Lieferanten erwerbe, um einen großen Preisnachlass auf den Listenpreis gewähren zu können, sich im Laufe der Zeit eine sehr gute Aktion daraus entwickelte.
Joannes Vermorel: Aber sehen Sie, die Analyse zeigt: Es gibt ein Element der Rationalität. Am Ende hat man aus den falschen Gründen Recht.
Jonathon Karelse: Genau, und das ist sehr interessant. Wissen Sie, das sind genau die Situationen, in denen – und nur weil Menschen irrational sein können, heißt das nicht, dass man nicht mit Vernunft versuchen kann, dieses Irrationale zu modellieren. Absolut, es ist irrational, aber es ist das nicht, und deshalb würde ich sagen, dass es keine Grenze für den menschlichen Einfallsreichtum gibt. Anscheinend ist das mein Glaube – kein Element der Wissenschaft. Mein Grundglauben ist, dass es keine Grenze für den Umfang menschlicher Einfallsreichtum gibt, aber lassen Sie sich nicht täuschen: Manche Aufgaben erfordern einen absolut immensen Einsatz an menschlicher Einfallsreichtum und wahrscheinlich Arbeiten, die sich über Jahrhunderte erstrecken. Wir müssen also in dieser großen Reise der Wissenschaft, die vor ein paar Jahrhunderten begann, sehr bescheiden bleiben. Das ist erst der Anfang, und es gibt wahrscheinlich ganze Wissensklassen, von denen wir noch nicht einmal den Verdacht haben, dass sie vielleicht existieren.
Joannes Vermorel: Also ja, und ich stimme dir voll und ganz zu, Jonathon. Das ist auch ein Kernüberzeugung von mir.
Jonathon Karelse: Ich glaube, es war Pascal, der sagte: “Wenn es existiert, kann es quantifiziert werden.” Und natürlich gibt es Einschränkungen in unserer Fähigkeit, das zu tun, aber ich glaube letztendlich, dass mit ausreichender Kapazität alles quantifiziert und verstanden werden kann. Aber offensichtlich ist das Problem, dass wir von dieser Kapazität so weit entfernt sind, dass es in der Praxis verrückt wäre, irgendeine Art von unternehmensbezogener Reise mit dieser Philosophie zu beginnen, weil wir zu weit vom Ziel entfernt sind. Aber es ist auch eine wichtige Folgerung aus der Idee, dass die Prognose immer falsch ist und aus dem Punkt, den Joannes bezüglich des Mikromanagements von Prognosen gemacht hat. Als George Box sagte: “Alle Modelle sind falsch, aber einige Modelle sind nützlich,” kam sozusagen die Aussage, dass die Prognose immer falsch ist. Er sagte noch zwei weitere Dinge, die die meisten ignorieren. Das Erste war: “Da alle Modelle falsch sind, aber einige nützlich, strebe bei der Modellauswahl nach Sparsamkeit.” Mit anderen Worten: Man liegt sowieso falsch, also wird es besonders Ökonomen, die ein riesiges, kompliziertes Modell bauen, letztlich immer zu einem gewissen Maß falsch liegen. Begründe also nicht das Bedürfnis nach einem riesigen, komplexen Modell, das dir Genauigkeit liefert, denn du wirst trotzdem falsch liegen. Aber das Zweite – und das ist in der Praxis für mich das Wichtige – lautet: “Kümmere dich nicht um die Mäuse, wenn Tiger in der Nähe sind.” Die Anzahl der Male, in denen wir mit Organisationen arbeiten, die behaupten, sie wüssten, dass die Prognose immer falsch ist, deren Prognosegenauigkeit in der Praxis katastrophal ist, und wir stundenlang über ein oder zwei Prozent bei einem Horizont von sieben oder acht Monaten bezüglich eines SKU diskutieren – das ist verrückt. Ihre Prognosegenauigkeit auf SKU-Ebene bei diesem Horizont liegt beispielsweise bei 30 Prozent.
Conor Doherty: Eine Anpassung um ein oder zwei Prozent ist unerheblich. Du wirst falsch liegen, und du wirst so falsch liegen, dass die Zeit, die du für diese ein oder zwei Prozent Anpassung aufwendest, völlig verschwendet ist. Du solltest dich nur darauf konzentrieren, diese letztendlich unendliche Kapazität für Einfallsreichtum anzuwenden, von der ich auch glaube, dass sie Menschen in spezifischen Anwendungsfällen besitzen, in denen die Wahrscheinlichkeit für ein Aufwärtspotenzial am größten ist. Und das ist dann der Fall, wenn A) du etwas mit absoluter Sicherheit über die Zukunft verstehst, das sich in der Vergangenheit nicht widerspiegelt, B) der Wert der Sache, mit der du zu tun hast, so hoch ist, dass eine Intervention gerechtfertigt ist, und letztlich C) das Ausmaß dieser Intervention so groß ist, dass es sich lohnt, sie vorzunehmen, denn sonst landest du immer noch innerhalb der Fehlermargen und hast Sicherheitsbestand oder einen anderen Mechanismus, der sich ohnehin darum kümmert.
Joannes Vermorel: Das ist sehr faszinierend, denn das spiegelt genau die Reise wider, die Lokad durchgemacht hat. Heutzutage besteht der Ansatz darin, zunächst nur die Vorwegnahme der Zukunft in Bezug auf ihre Konsequenzen zu betrachten. Deshalb gehört es inzwischen fast dogmatisch zum Lokad-Dogma, dass nackte Prognosen nicht erlaubt sind. Man darf sie also nicht erstellen – und das wird auch konsequent durchgesetzt. Ich kann das bei Lokad natürlich als CEO durchsetzen. Die Idee ist, dass, wenn man eine nackte Prognose erstellt, man per Definition von den Konsequenzen in der realen Welt abgeschirmt ist. Die Prognose an sich ist eine Abstraktion einer Messung für die Zukunft. Sie sagt nichts darüber aus, ob das Geschäft gut oder schlecht ist. Ja, man kann die Zahlen anpassen, aber letztlich ist sie nicht einmal wirklich mit der Realität verbunden. Es ist eine sehr abstrakte Angelegenheit.
Und wieder einmal sind Menschen nur bereit, sich auf diese Art von Übung einzulassen, weil die klassische Prognose inzwischen ziemlich rar geworden ist. Es gibt Menschen, die in ihrem Lebenslauf Prognoseerfahrung haben, wie: “Ich bin zertifiziert in der Durchführung von Prognosen.” Es gibt Prognosen, und demand planner ist eine Sache. Sie haben Positionen und Prozesse. Also, Sie sehen, dass diese sehr abstrakten Dinge, die einst einen Weg darstellten, die Zukunft anzugehen, durch Jobpositionen und Softwarekomponenten vergegenständlicht wurden. Man bezahlt Geld für Lizenzen, um sie zu erhalten – und wenn man für etwas bezahlt, existiert es sicherlich.
Und so war der Ansatz, wenn ich auf diese Idee der nackten Prognose zurückkomme, die Art von Antwort, die Lokad gab: Nein, wir müssen Prognosen als eine Technik unter vielen anderen behandeln – numerische Techniken, die es uns ermöglichen, Entscheidungen zu treffen. Es gibt Unmengen von Dingen, die einen greifbaren Einfluss auf das Geschäft haben. Die Idee ist, dass wenn Sie keine direkte Verbindung zu etwas haben, das sehr greifbar ist – wie zum Beispiel etwas zu produzieren, etwas von Ort A nach Ort B zu bewegen oder etwas zu fertigen, um Materialien loszuwerden und ein Ergebnis zu erzielen – dann dürfen Sie keine prädiktive Modellierung betreiben. Das ist das Verführerische an der Sache; sobald man eine Zeitreihe oder irgendeine Art von Daten hat, kann man immer ein Modell konstruieren.
Conor Doherty: Joannes, kannst du einige Einblicke in die Herausforderungen bei der Verwendung von Projektionen in der supply chain Optimierung geben?
Joannes Vermorel: Die Schönheit von Projektionen besteht darin, dass sie machbar sind, unabhängig davon, ob sie relevant oder weise sind. Das Problem ist jedoch, dass, wenn man einen Hammer in der Hand hat, alles wie Nägel aussieht. Wenn man eine Zertifizierung in Prognosetechniken hat, kann man jeden Datensatz nehmen und seine Modelle anwenden. Unsere Politik bei Lokad lautet “keine nackten Prognosen”, weil sie zu gefährlich sind. Verbindet man die Prognose nicht mit etwas sehr Realem, wird man intensiven Verzerrungen oder gar bürokratischen Problemen ausgesetzt. Sobald man eine Kennzahl definiert, kann es in der Organisation allerlei Initiativen geben, die darauf abzielen, diese erfundene Kennzahl zu optimieren. Angesichts der Tatsache, dass supply chains von Natur aus bürokratisch sind, ist die Abstimmung von Angebot und Nachfrage eine stark bürokratische Übung. Es geht darum, viele Menschen, Prozesse und Software zu synchronisieren. Gibt man der Sache noch Öl ins Feuer, kann das rasch zu etwas führen, das enormen Umfang annimmt. Supply chains sind menschliche Konstrukte, die aus vielen Menschen, Software und Prozessen bestehen – und das schafft einen fruchtbaren Boden für Probleme, besonders bei Prognosen.
Conor Doherty: Jonathan, wie verbessert ein tieferes Verständnis der Verhaltensökonomie innerhalb der Organisation den Prognoseprozess konkret?
Jonathon Karelse: Ich würde sagen, es gibt zwei grundsätzliche Wege, wie der Prozess verbessert wird. Erstens glauben viele Organisationen, dass Menschen keinen Einfluss auf den Prognoseprozess haben, weshalb sie versuchen, menschliche Urteile so weit wie möglich aus diesem Prozess herauszuhalten. Sie sind der Ansicht, dass sie dadurch besser gegen Verzerrungen und Machtspiele geschützt sind, die in dem stattfinden, was Joannes treffend als einen sehr bürokratischen Prozess bezeichnete. Ich würde jedoch argumentieren, dass selbst in Situationen, in denen wir glauben, die Menschen aus dem Prozess verbannt zu haben, immer noch ihre Fingerabdrücke überall zu finden sind. Es gibt menschlichen Einfluss bei der Auswahl der Daten, der Auswahl der Software und, am wichtigsten, bei den Maßnahmen, die wir infolge des Prognoseprozesses ergreifen.
Die Prognose selbst ist nur eine Idee, ein potenzielles Set von Anweisungen oder eine Landkarte. Wir müssen noch entscheiden, was wir anschließend damit machen – und das erfordert, dass Menschen in der supply chain aktiv werden. Das Verständnis dafür, in welchem Ausmaß und auf welche Weise wir voreingenommen sind, hilft uns, die potenziellen Fallstricke in unserem Prozess zu erkennen. Von den möglichen Ergebnissen rückwärts zum Prozess zu arbeiten – statt anzunehmen, dass uns der Prozess zu einem bestimmten Ergebnis führen wird – ermöglicht ein besseres Verständnis der Quellen und Ausmaße der Verzerrungen bei den beteiligten Personen.
Conor Doherty: supply chain und die Planung helfen uns dabei, mit noch größerer Einsicht zu verstehen, was diese Ergebnisse sein könnten. Höchstwahrscheinlich verfügt eine Organisation über einen Prognose- oder Demand Planning-Prozess, der einen gewissen Automatisierungsgrad und computergetriebene Elemente aufweist, aber von vornherein auch die Integration menschlichen Urteils beinhaltet. Ich glaube, dass – unter spezifischen Richtlinien – im Laufe der Zeit ein Mehrwert in der Integration von Urteilen entsteht, basierend auf bestimmten Kriterien. Man maximiert das Potenzial, dass dieser menschliche Sachverstand einen Mehrwert liefert, wenn man versteht, in welchem Ausmaß die Personen, die dieses Urteil abgeben, Vorurteile haben. In Organisationen, die entweder aktiv nicht daran glauben wollen, dass sie Vorurteile besitzen, oder sich der Tatsache nicht bewusst sind, dass sie Vorurteile haben, überträgt man höchstwahrscheinlich Verzerrungen in den Demand Planning-Prozess – sei es durch die aktive Integration von Urteilen oder durch diese allgegenwärtigen menschlichen Fingerabdrücke. Wenn man anfängt, die in der eigenen Organisation vorhandenen Verzerrungen zu erkennen, kann man Leitplanken schaffen, die ihre Auswirkungen abschwächen. Sie werden immer vorhanden sein. Menschliches Urteil wird immer fehlerhaft sein – es geht darum, das potenzielle Aufwärtspotenzial menschlicher Einsichten in Einzelfällen gegen die Gewissheit abzuwägen, dass mit diesen Einsichten auch die Gebrechen einhergehen, die uns alle aufgrund der Unvollkommenheit unseres Denkens treffen.
Joannes Vermorel: Ich stimme der Idee zu – was auch meiner Erfahrung entspricht –, dass wenn man nicht einmal anerkennt, dass man möglicherweise Vorurteile hat, das ein erprobtes Rezept ist, um die Anzahl der Verzerrungen zu maximieren, die man besitzt. Für Organisationen ist das genau meine eigene Erfahrung. Die Art von Dingen, bei denen ich sagen würde – und wenn ich diesen Ansatz, die Zukunft zu betrachten, weiter zerlegen muss – dass, wenn Menschen an diese Vorurteile denken, sie immer noch diese Zeitreihen-Perspektive im Kopf haben. Und es ist sehr schwierig, darüber nachzudenken, was ich bei meiner Prognosetätigkeit falsch mache, ohne den Lösungsansatz oder Mechanismus, mit dem ich es tue, vor Augen zu haben. Die Verzerrung bezieht sich darauf, dass manche Werte zu hoch oder zu niedrig sind – eine sehr eindimensionale Perspektive, die damit einhergeht, dass man mit einer Zeitreihe arbeitet.
Die Art von Problemen, die ich erlebt habe – und das war auch die technologische Entwicklung bei Lokad – ist, dass wenn man Informationen über die Zukunft vermitteln möchte, ganze Klassen von Dingen existieren, die sich nicht mit Zeitreihen ausdrücken lassen. Das heißt nicht, dass sie sich nicht mit Zahlen ausdrücken lassen; sie lassen sich einfach nicht in Zeitreihen abbilden. Zeitreihen sind eine sehr vereinfachte Methode – buchstäblich eine Abfolge von Messungen, die in die Zukunft reichen. Ein Beispiel: Wenn ich mir die Verkäufe eines Produkts anschaue, könnte ich mein Verkaufsvolumen prognostizieren, doch dieses Verkaufsvolumen ist abhängig von dem Preis, den ich setze – und der Preis ist keine Selbstverständlichkeit, sondern eine Entscheidung von mir. Selbst wenn ich also eine sehr genaue Prognose hätte, wäre sie dennoch unvollständig.
Conor Doherty: Etwas, das irgendwie seltsam wäre, müsste mathematisch eine Funktion sein, die besagt: Wenn ich diesen Preis ansetze, dann wäre das Ergebnis so. Damit berühren wir plötzlich die Tatsache, dass, selbst wenn wir aus dieser sehr deterministischen Perspektive blicken – in der es lediglich um Vorurteile und Ähnliches geht – ich darauf hinweise, dass es Elemente gibt, bei denen die Zeitreihen-Perspektive zu schwach ist, um sehr große Zusammenhänge adäquat zu berücksichtigen. Es geht nicht nur darum, dass etwas zu hoch oder zu niedrig ist, sondern es handelt sich beinahe um eine andere Dimension, die einfach nicht erfasst wird. Hier möchte ich also den Gedanken ausdrücken, das Ergebnis buchstäblich durch andere Maßnahmen formen zu können. Es geht nicht nur darum, die Bewegung der Planeten zu beobachten; ich kann handeln und die Zukunft des Ergebnisses modifizieren. Aber selbst wenn wir bei einem rein passiven Beobachter bleiben, gibt es Situationen, in denen Zeitreihen immer noch unzureichend sind.
Joannes Vermorel: Zum Beispiel, wenn ich in die Luftfahrt Wartung gehe, möchte ich meine Flugzeuginstandhaltungsreihen aufrechterhalten. Ich kann die Nachfrage nach Teilen prognostizieren, aber Tatsache ist, dass, wenn ich ein Flugzeug repariere, es eine Liste von Teilen gibt, die ich austauschen muss. Ich vereinfache das Schema: Ein Flugzeug kommt zur Wartung in den Hangar, es wird eine Diagnose durchgeführt, es gibt eine Liste von Teilen, die ausgetauscht werden müssen – und bis jedes einzelne dieser Teile gewechselt wurde, kann das Flugzeug nicht wieder fliegen. Es bleibt am Boden. Die Tatsache, dass ich jedes Teil einzeln prognostizieren kann, sagt mir nichts über die gemeinsame Verfügbarkeit aller Teile. Theoretisch, wenn alle meine Prognosen für alle Teile absolut perfekt wären, wäre auch das kombinierte Wissen perfekt. Aber sobald man auch nur eine minimale Unsicherheit bei jedem Teil hat – und man weiß, dass ein Flugzeug rund 300.000 unterschiedliche Teile besitzt – bedeutet schon eine sehr geringe Unsicherheit im Bedarf eines jeden Teils, dass die Unsicherheit über die gemeinsame Verfügbarkeit all jener Teile, die man zur Reparatur des Flugzeugs benötigt, absolut gigantisch ist.
Joannes Vermorel: Und das ist ein Beispiel dafür, dass die klassische Zeitreihen-Perspektive mathematisch schlicht nicht ausdrucksstark genug ist. Das ist also eine weitere Klasse von Problemen, bei denen – wenn wir auf Verzerrungen zurückkommen – nicht nur die Tendenz besteht, zu hoch oder zu niedrig zu prognostizieren, sondern auch andere Arten von sehr menschlichen Problemen vorkommen, die einfach nicht in die richtige Richtung blicken oder nicht einmal mit der nötigen Struktur, die eine relevante Antwort liefern würde, betrachtet werden. Und das ist, würde ich sagen, genau die Sichtweise des 21. Jahrhunderts, die viel rätselhafter ist.
Jonathon Karelse: Ich stimme absolut zu.
Conor Doherty: Nun, das führt uns, denke ich, letztlich dazu, über die Zukunft zu sprechen – oder die nächsten hundert Jahre, die Zukunft der Zukunft, die Zukunft der Zukunften. Also, Jonathon, ich fange bei dir an. Im Hinblick auf die Entwicklung und Technologie von KI: Siehst du das als Unterstützung für Menschen bei der Prognose oder letztlich als Ersatz für sie?
Jonathon Karelse: Wenn Daniel Kahneman gefragt wird, ob KI die Menschen ersetzen wird, ist er einerseits hoffnungsvoll, dass es
Conor Doherty: …wir so schlecht darin sind, objektive Urteile zu fällen, aber andererseits sind wir uns sicher, dass es niemals passieren wird. Und nochmals: Für mich zeigt das, wie wichtig es ist, das Theoretische oder Philosophische vom Praktischen zu trennen. Auf der theoretischen Seite sollte es irgendwann in der Zukunft geschehen – zu einem Zeitpunkt, an dem unsere Fähigkeit, Daten zu verarbeiten, und unser Verständnis dafür, wie menschliches Denken auf einem viel nuancierteren und detaillierteren Level funktioniert und was Intelligenz eigentlich ist, es uns erlauben, komplexe Systeme hervorzubringen, so wie die Typen auf der Dartmouth-Konferenz in den 50ern anstrebten, als sie glaubten, das menschliche Gehirn innerhalb weniger Jahrzehnte replizieren zu können. Das ist der theoretische Aspekt.
Im wirklichen Leben, in meiner Lebenszeit, in deiner Lebenszeit, glaube ich nicht, dass das passieren wird. Und ich kann das mit gewisser Sicherheit sagen, allein durch den Blick auf die Entwicklungen der letzten 70 Jahre der KI. Sicherlich lernen wir heute viel. Die Rechenleistung wächst exponentiell, ebenso wie die Menge der verfügbaren Daten – aber das hat bisher noch nichts in die Nähe des Durchbruchs der praktischen KI gebracht, der Menschen ersetzen würde. Kann sie uns unterstützen? Sicherlich. Es gibt heute allerlei Beispiele, bei denen der aufkommende Einsatz von KI in vielen verschiedenen Bereichen von Vorteil ist, aber die Kluft zwischen dem Ersetzen von Menschen und deren Unterstützung bleibt ein klaffender Abgrund.
Wenn ich auf etwas zurückkomme, das Joannes zu Beginn sagte und dem ich voll und ganz zustimme – nämlich, dass die menschliche Fähigkeit zur Einfallsreichtum jener Aspekt ist, von dem ich denke, dass er niemals durch Computer oder KI ersetzt werden kann – glaube ich, dass der Wert der Menschheit nicht darin liegt, komplexe Fragen beantworten zu können, weil wir Computer korrekt einsetzen können, um komplexe Probleme zu lösen. Vielmehr liegt unser höchster Wert darin, von vornherein interessante und wichtige Fragen zu stellen. Nur indem wir diese Fragen stellen, können wir die heutige Gesamtheit der Technologie dazu nutzen, Antworten zu finden – und es ist das Stellen dieser visionären Fragen, das den Menschen weiterhin zu einem kritischen Teil des Prozesses macht.
Möchtest du noch etwas hinzufügen, Joannes? Ich übergebe das an dich.
Joannes Vermorel: Meiner Ansicht nach ist das, was die Leute unter Prognose als menschliche Tätigkeit verstehen – im klassischen Sinne, wie etwa eine Armee von Sachbearbeitern oder Unternehmen, die ihre S&OP Prozesse von hunderten Menschen, die Tabellenkalkulationen verarbeiten und Zahlen generieren lassen – in meiner Lebenszeit hoffnungsvoll zu sehen, dass dies verschwindet. Die Art und Weise, wie wir es bei Lokad praktizieren, stimmt mich sehr zuversichtlich, denn für die Kunden, die wir bedienen, haben wir das praktisch eliminiert.
Aber die Art, wie wir es gemacht haben – und das ist das Produkt – geschah nicht durch die Eliminierung von Menschen oder durch irgendeine Art von künstlicher Intelligenz. Wir haben es erreicht, indem wir uns auf diese Entscheidungen konzentriert und schlaue Ingenieure eingesetzt haben, die numerische Rezepte entwickeln. Das ist der typische Begriff, den ich benutze, weil manche davon vielleicht Heuristiken sind, manche sogar noch alltäglicher – einfach Filter und dergleichen. Sogar das ist nicht einmal eine Heuristik, sondern etwas noch Grundlegenderes.
Conor Doherty: Also, numerische Rezepte zu entwickeln, die im großen Maßstab für diese Unternehmen funktionieren, den alltäglichen, banalen Kram, und die jetzt vollständig automatisiert werden können – heißt das, dass wir die Menschen aus dem Bild entfernt haben?
Joannes Vermorel: Nicht wirklich, denn erstens sind die numerischen Rezepte in hohem Maße ein menschliches Produkt. Es bedarf eines wirklich klugen menschlichen Ingenieurs, um sie zu entwickeln, und auch die Wartung erfolgt vollständig durch Menschen. Die numerischen Rezepte stellen sozusagen ein Know-how dar, welche numerischen Prozesse im großen Maßstab funktionieren, um vernünftige Entscheidungen zu generieren. Gibt es irgendeine Intelligenz in den numerischen Rezepten? Absolut nicht. Das numerische Rezept ist eine sehr mechanische Angelegenheit. Ja, es mag Elemente des maschinellen Lernens geben, aber das sind nur statistische Techniken. Sie sind von Natur aus immernoch unglaublich mechanisch.
Conor Doherty: Also, wo ist es sehr interessant?
Joannes Vermorel: Wenn Sie von dieser Perspektive ausgehen, erhalten Sie letztlich dennoch einen Prozess, der etwas automatisiert, das Hunderte von Menschen in großen Unternehmen beschäftigt. Dennoch haben Sie am Ende des Tages immer noch ein Team von Menschen, die die Verantwortung für diese numerischen Rezepte tragen, die nicht von selbst funktionieren. Der Schlüssel besteht darin, dass die Menschen die geistige Bandbreite besitzen, um zu denken, und wenn sie völlig in den minutengenauen Details superkomplexer Dinge im supply chain begraben sind, wird es schwierig.
Ein Beispiel für ein superkomplexes Ding im supply chain wäre, 50 Millionen SKUs zu haben, die irgendeine Form von Mikromanagement benötigen, bei der ich wählen muss, ob ich eine Einheit auf Lager haben möchte, zwei, drei, fünf usw. Und ich habe 50 Millionen dieser Lagerbestände, die tagtäglich mikromanaged werden müssen. Meine Hoffnung ist, dass die minutiösen Prognosen, die zur Steuerung dieser Art von Entscheidung benötigt werden, im Rahmen der täglichen Ausführung vollständig automatisiert werden. Aber für einen längeren Zeithorizont, etwa von einem Jahr zum nächsten, in dem sich das Unternehmen selbst entwickelt, in dem sich sein Markt entwickelt, in dem sich die richtigen Fragen weiterentwickeln, glaube ich nicht, dass wir in meiner Lebenszeit sehen werden, dass Maschinen diese beantworten.
Conor Doherty: Was bedeutet das in der Praxis für Unternehmen?
Joannes Vermorel: Ich glaube, dass diese Automatisierung jene Schichten des Ökosystems ersetzen wird, in denen Menschen Dinge tun, die nur sehr wenig Mehrwert liefern, besonders unter dem Dach von S&OP. Einige würden argumentieren, dass es vielleicht nicht das echte S&OP oder das gute S&OP ist, aber das ist nicht meine Debatte. Mein Punkt ist, dass ich in der supply chain-Branche beobachtet habe, dass es viele große Unternehmen mit erstaunlich großen Teams von Menschen gibt, die einfach nur Zahlen hoch und runter schieben, und ich vermute, dass das bald verschwinden könnte. Nicht weil wir über irgendein fantastisches Tool verfügen, das den Bedarf an Menschen eliminieren würde, sondern weil wir mit besseren Werkzeugen die Effizienz des supply chain management verbessern können.
Jonathon Karelse: Ich stimme Joannes zu. Während wir weiterhin bessere Werkzeuge und Technologien entwickeln, werden wir eine Verschiebung in den Rollen sehen, die Menschen im supply chain management übernehmen. Während die Automatisierung viele der alltäglichen und sich wiederholenden Aufgaben bewältigen kann, wird menschliche Expertise weiterhin entscheidend sein – sei es für Strategie, Innovation oder die Anpassung an sich wandelnde Marktbedingungen.
Conor Doherty: Und mit besseren Techniken können wir ein paar kluge Menschen haben, die Dinge entwickeln, die in sehr großem Maßstab operieren. Nun, wenn ich es einfach zurückwerfe, Jonathan, hast du etwas als Antwort darauf? Denn ich möchte dir das letzte Wort dazu geben.
Jonathon Karelse: Ich meine, ich kann das letzte Wort haben, aber im Großen und Ganzen stimme ich allem zu, was er sagt. Und ich werde mich auch nicht in die S&OP-Debatte hineinziehen lassen.
Conor Doherty: Dann machen wir weiter. Wenn du in die Zukunft blickst und eine zweite Ausgabe von “History’s Future Histories of the Future Part two of the 21st century” schreiben würdest, gibt es spezifische Ideen, auf die du dich konzentrieren würdest?
Jonathon Karelse: Nein, mein zweites Buch wird keine Fortsetzung dieses Buches sein. Mein zweites Buch wird erst nach meiner Pensionierung erscheinen, denn es wird die Geschichte all der verrückten Dinge sein, die ich im Laufe meiner Karriere in der supply chain gesehen habe, die Menschen tun. Die, die sich trotz all der Beweise für ihre Absurdität weiterhin durchboxen. Aber natürlich, all ihr aktuellen Kunden da draußen, keine Sorge, ihr werdet darin nicht auftauchen. Aber nein, ich meine, wir sind erst wenige Monate nach der Veröffentlichung dieses Buches, also glaube ich nicht, dass es irgendeines dieser neuen, wie Joannes sagte, noch unentdeckten Wissenssysteme oder Wissenschaftsarten gibt, über die ich anfangen müsste nachzudenken.
Conor Doherty: Nun, in diesem Zusammenhang – und das ist etwas, das ich vorher nicht zu fragen Gelegenheit hatte, Joannes – frage ich dich auch: Aus deiner Erfahrung bei NorthFind, wenn du in einem Raum mit C-Level-Führungskräften bist und versuchst, ihnen diese Ideen zu verkaufen, über die wir sprechen, und du auf jenes Maß an Widerstand stößt, das wir zuvor durch unbewusste Vorurteile thematisiert haben, wie nutzt du Verhaltensökonomie, um das durchzusetzen und zu vermeiden, dass es zu den verrückten Beispielen kommt, auf die du gerade angespielt hast?
Jonathon Karelse: Ich werde den Grundgedanken deiner Frage teilweise ablehnen. Ich glaube nicht, dass ich versuche, Verhaltensökonomie gezielt als Mittel einzusetzen, um in diesen Diskussionen zu einem gewünschten Ergebnis zu gelangen. Ich denke, ich bin in einer leichteren Position, dieses Terrain zu durchqueren, als beispielsweise ein Softwareanbieter. Denn für mich bedeutet Geschäftserfolg nicht, ein Stück Software zu verkaufen. Und um es klarzustellen: Ich sage nicht, dass Software unwichtig ist; sie ist absolut wichtig, sie ist ein kritischer Enabler. Aber da wir im Geschäft sind, Prozesse und Probleme zu evaluieren und letztlich Lösungen zu konzipieren, befinde ich mich selten in der Position, C-Level-Leute in eine bestimmte Richtung drängen zu wollen. Es geht vielmehr darum, zu verstehen, basierend auf der Kultur ihres Unternehmens und ihren verfügbaren Ressourcen – seien es Daten, Tools oder Menschen – was der wahrscheinlichste oder optimalste erste Schritt auf dem Weg zur Prozess-Transformation ist. Und wenn sie entschieden dagegen sind, ihren Griff an einer Prognose aufzugeben und wirklich wollen, dass 300 Vertriebsmitarbeiter jeden Monat Zeit damit verbringen, eine Prognose anzupassen, dann ist das nicht zwangsläufig ein Thema, für das ich einstehen muss. Ich meine, dann ist es in Ordnung. Wenn das unsere Realität bleibt, integrieren wir es in den Prozess, messen aber vor allem den geschäftlichen Nutzen dieser Aktivität. Und oft kommen sie dann selbst zu dem Schluss. Der Grund, warum es all diese verrückten Aktivitäten gibt, ist, dass
Conor Doherty: Das Erbe in diesen Organisationen ist irgendeine Art Messgröße, die es ihnen ermöglicht, fortzubestehen. Es ist eine Messung, die nicht offensichtlich macht, wie verrückt die Aktivität ist. Die Messgrößen selbst sind oft absurd, denn es erfordert eine absurde Messgröße, um einen absurden Prozess zu untermauern. Wenn man in eine Organisation geht und die Messgenauigkeit auf der obersten Ebene des Dollarwerts sieht, der über drei Monate gemittelt wird, weiß man, dass dies das Ergebnis davon ist, dass sie nicht wissen wollen, wie schlecht der Prognoseprozess ist. Denn wenn sie ihn für seinen eigentlichen Zweck verwenden würden – diagnostisch statt als Scorecard –, würde man niemals mehrere Monate aggregieren, und man würde niemals so hoch in einer Hierarchie aggregieren. Ich schweife ein wenig ab, aber letztlich versuche ich nicht, sie zu einem Ergebnis zu drängen, wenn sie an einem absurden Prozess festhalten. Wir helfen ihnen einfach, indem wir den Geschäftsnutzen dieses verrückten Prozesses messen – ob sie ihn fortführen oder nicht – und oft kommen sie dann selbst zu dem Schluss.
Joannes Vermorel: Offensichtlich ist mein Ansatz als jemand, der in der Rolle eines Softwaremodells agiert, ganz anders. Normalerweise versuche ich, Beispiele so einfach wie möglich zu skizzieren, bei denen die entsprechende Prognose schlichtweg nicht liefern kann, was erwartet wird. Manchmal gibt es sehr einfache Situationen. In der Luftfahrt, wenn man auf Teilebene arbeitet, liefert das trotzdem keinerlei Information darüber, ob das Flugzeug repariert wird. Wenn man in den Einzelhandel geht und behauptet, dass ein Geschäft Unmengen von Produkten hat, die sehr gute Substitute füreinander sind, trifft man auf eine ganz andere Problemklasse. Es wird mir überhaupt keinen guten Indikator liefern. Bin ich mit dieser Art von Organisation sehr erfolgreich? Ich weiß es nicht. Vielleicht ist dein eigener Ansatz, bei dem die Kunden ihren eigenen Weg gehen, effizienter. Es ist eine schwierige Reise. Einer der Aspekte, die die Erfahrung bei Lokad interessant machen – nicht unbedingt einfacher, aber interessant – ist, dass wir uns auf die Entscheidungen konzentrieren. Die Art der Prognosen, die am nützlichsten sind, werden zunehmend seltsamer. Ich vermute, dass die Zukunftsgeschichten des 21. Jahrhunderts sehr seltsam sein werden, ein wenig wie die Seltsamkeiten, die in der Quantenmechanik auftreten. Es ist ein ganzes Spektrum an Ideen, das absolut nicht intuitiv ist. Sie kommen mit einer Mathematik daher, die schlichtweg bizarr ist. Wendet man sie an, endet man mit noch bizarreren Ergebnissen als erwartet.
Jonathon Karelse: Nun, meine Herren, ich glaube, ich werde dem Ganzen ein Ende setzen. Aber bevor wir schließen, Jonathan: Wenn du allen im supply chain management oder allen supply chain-Praktikern da draußen einen Ratschlag geben könntest, welcher wäre das?
Jonathon Karelse: Kauf das Buch, erhältlich in den Geschäften. Das ist ein Rat, den vielleicht auch mein Buchhalter geben würde. Wenn es nur einen einzigen Ratschlag gäbe, dann wäre es: Frag immer nach dem Warum. Gib dich niemals damit zufrieden, nur etwas zu wissen – versuche zu verstehen, warum. Wir haben tatsächlich ein sehr schönes Zitat, und ich weiß nicht, ob du es verfasst hast, aber es lautet: “Ein schlechter Prognostiker mit Daten ist wie ein Betrunkener mit einer Laterne: Er nutzt sie zur Unterstützung, nicht zur Erleuchtung.” Also suche immer nach dem Licht.
Conor Doherty: Vielen Dank. Nun, Jonathan, vielen Dank für deine Zeit. Joannes, danke für deine. Und danke euch allen fürs Zuschauen. Wir sehen uns beim nächsten Mal.