00:00:00 Auswirkungen von Generative AI in supply chain
00:02:06 Die Realität von Promotionen in AI
00:03:35 Vergleich von gen AI’s Potenzial und Hype
00:04:56 Ausblick auf das Potenzial von AI
00:06:54 Risiken einer vorschnellen Technologieeinführung
00:08:21 AI nutzen für neugiergetriebenes Wachstum
00:10:14 Generative AI als moderne, smarte Wikipedia
00:11:34 Sprachmodelle bieten Einblicke in Prozesse
00:13:39 Erweiterung des Kundenfeedbacks durch LLMs
00:15:37 Weiterentwicklung von Benutzeroberflächen mit natürlicher Sprache
00:17:38 Dokumentenerstellung mittels LLM-Analyse
00:19:43 LLMs, die als Kollegen angesehen werden, verändern den Einfluss
00:21:37 Zukünftige Entscheidungsfindung mit digitalen Kollegen
00:26:46 Aufgaben weise an AI-Agenten delegieren
00:29:02 Effizienzgewinne in der Nachfrageplanung
00:30:58 Einblicke in die Dynamik von Prognosen und Preisen
00:32:51 Die Transkripte von Nachfrageüberprüfungen steigern die Reife
00:35:08 Joannes erforscht die potenzielle Zukunft von AI.
00:37:14 Die Verknüpfung von Besprechungsdiskussionen stellt für LLMs eine Herausforderung dar
00:40:26 Nachfrageüberprüfungsbesprechungen steigern die Leistung
00:44:34 AI-Tools verändern die Teilnahme an Besprechungen
00:48:49 Die Entwicklung der Kommunikation hebt Datenschutzprobleme hervor
00:52:39 Technologie beeinflusst Praktiken der Geschäftsgeheimhaltung
00:55:43 Generative AI erforscht Veränderungen in der Wahrnehmung
00:57:00 Die komplexe Realität von AI: Algorithmen versus GenAI
00:58:10 Generative AI als Nachfolger der Blockchain
00:59:45 Kulturelle Dysfunktion führt zu Geldverschwendung
01:00:38 Intuition verhindert finanzielle Verschwendung durch GenAI
01:03:00 Praktische supply chain-Lehren auf Vorstandsebene
01:05:39 Mechanisierung intellektueller Aufgaben in der modernen Ära
01:09:02 Perspektiven auf Produktivität durch Automatisierung
01:11:02 Abschließendes Interview mit einem Abschied
Zusammenfassung
Der Hype um GenAI übertrifft Bilanzen. Kurzfristige Gewinne sind moderat – beschleunigte Büroarbeit, intelligenteres Triage, Besprechungsdisziplin – mit Menschen im Prozess. Langfristig könnte es die Containerisierung erreichen, wenn die Anreize stimmen. Verbote verlagern die Nutzung lediglich auf Smartphones; Leitplanken sind wirksamer als Verbote. Die „Wertlücke“ stellt das Beschaffungstheater in den Fokus, nicht die Technologie; Führungskräfte benötigen mechanical sympathy und Beweise, nicht 600-Fragen-RFPs. LLMs lernen nicht; Kontext/RAG bleiben Engpässe, daher zählt die Kuratierung. Auf Vorstandsebene: Mechanisieren Sie intellektuelle Arbeit oder Sie werden überholt. Auf Werksebene: weniger Mühsal, bessere Standardwerte. Optimisten sagen fünf Jahre; Pessimisten zwanzig. So oder so lebt das heutige Spreadsheet-Theater auf geliehener Zeit.
Erweiterte Zusammenfassung
Generative AI hat mehr Hype erzeugt als Bilanzen. Das Panel ist sich einig, dass die kurzfristigen Effekte in supply chain zwar moderat, aber real sind: beschleunigte Büroarbeit, bessere Dokumenten-Triage und Entlastung bei repetitiven Aufgaben. Langfristig könnte die Veränderung ebenso folgenschwer sein wie die Containerisierung – sofern Unternehmen Anreize und Erwartungen in Einklang bringen. Der Hype verspricht „Lösungen“, während die Realität Kompromisse bietet.
Zwei Kräfte ziehen in entgegengesetzte Richtungen. Einerseits gibt es praktische Gewinne: Sprachmodelle fungieren als „intelligente Nachschlagewerke“, stabilisieren fragile RPA-Anwendungsfälle, extrahieren Signale aus freiem Kunden- und Lieferantenfeedback und ermöglichen konversationelles Dashboarding. Sie können auch als gecoachter, „digitaler Kollege“ dienen, der Besprechungen zu Aktion und Reife anregt – vorausgesetzt, ein Mensch bleibt im Prozess. Andererseits spielen technische Grenzen eine Rolle: Die heutigen LLMs lernen nicht wirklich; sie operieren innerhalb statischer Parameter und ständig wachsender Kontextfenster, die zur Ablenkung werden können. Das sogenannte „Knowledge Flywheel“ bleibt ein organisatorisches Problem, das sich als technisches tarnt. RAG hilft, aber Skalierung und Relevanzfilterung verursachen weiterhin Kosten.
Politische Entscheidungen haben Konsequenzen. Unternehmen, die versuchen, LLMs zu verbieten, werden Workarounds auf persönlichen Geräten finden, da die Zeitersparnis zu groß ist, um sie zu ignorieren. Vernünftige Leitplanken – Datenschutz, Datenverarbeitung und Ausgaben – sind effektiver als pauschale Verbote, die zu einer Schatten-IT anregen. Transparenz, wenn sie wohlüberlegt eingesetzt wird, kann die End-to-End Leistung verbessern; Geheimhaltung als Reflex bewahrt oft eher Funktionsstörungen als Vorteile.
Die „GenAI-Wertlücke“ sagt weniger über AI aus als über Beschaffungsrituale. Wenn Führungskräfte keine „mechanical sympathy“ für eine Technologie aufbringen, geben sie Pilotprojekte frei, die darauf ausgerichtet sind, „den Welthunger zu lösen“, und erklären dann das Feld als Enttäuschung. Die Lösung ist nicht ein weiteres Schlagwort, sondern bessere Governance: Machbarkeitsstudien mit realen Daten, messbaren Ergebnissen und einer Erzählung, die die Verfügbarkeit mit Umsatz und Marge verbindet – anstatt supply chain als Kosten-Silo zu behandeln.
Auf Vorstandsebene ist der Fall simpel: Das 21. Jahrhundert mechanisiert intellektuelle Arbeit, so wie das 20. die physische Arbeit mechanisierte; Wettbewerber, die bürokratische Armeen automatisieren, werden schneller und fehlerärmer agieren. Auf Werksebene muss der Ansatz praktisch sein: Werkzeuge, die mühsame Arbeit eliminieren, bessere Standardwerte hervorbringen und Planer effektiver machen – ohne Systeme in Blackboxes zu verwandeln.
Zeitpläne spalten Optimisten und Pessimisten. Wenn Modelle den Umgang mit Kontext verbessern und Organisationen lernen, Wissen zu kuratieren, könnten bedeutende Gewinne innerhalb von fünf Jahren erzielt werden; wenn Kultur und Prozesse hinterherhinken, sind zwanzig realistischer. So oder so wird der Status quo – Wände aus Dashboards, Tabellenkalkulations-Mühsal und theatralische Auswahlprozesse – dem Kontakt mit kumulierender Effizienz nicht standhalten.
Vollständiges Transkript
Conor Doherty: supply chain wird seit mindestens zwei Jahren von Gesprächen über generative AI durchdrungen. Allerdings hat sich der Ton im September 2025 ein wenig verändert. Nun stellen die Leute eine leicht andere Frage: Welchen Unterschied hat es gemacht? Und die darauf folgende Frage: War dieser Unterschied positiv oder negativ?
Heute gesellt sich unser Gast, Knut Alicke, zu Joannes und mir im Studio in Paris, um genau dieses Thema zu besprechen. Knut ist Partner Emeritus bei McKinsey. Er lehrt seit über 25 Jahren supply chain management und ist – was am beeindruckendsten ist – ein hervorragender Saxophonist.
Bevor wir in die Diskussion einsteigen, wisst ihr, wie es läuft: Wenn euch gefällt, was wir bei Lokad machen, und ihr uns unterstützen möchtet, folgt uns auf LinkedIn und abonniert unseren YouTube-Kanal. Und damit präsentiere ich euch das heutige Gespräch mit Knut Alicke.
Knut, danke, dass du bei uns bist. Es ist großartig, dich im Studio zu haben. Ich glaube, dies ist dein dritter Auftritt bei LokadTV.
Knut Alicke: Ja, das denke ich auch, und es ist das erste Mal, dass ich persönlich hier bin, also wirklich großartig, hier zu sein. Und du bist tatsächlich die erste Person, die auf der neuen Lokad-Couch Platz nimmt – du und Joannes, die sie natürlich professionell einweihen.
Um anzufangen, Knut, ich bin sicher, viele Menschen kennen dich bereits. Du bist Partner Emeritus bei McKinsey; du hast supply chain science und supply chain management seit 25 Jahren gelehrt. Also, meine erste Frage, um den Rahmen abzustecken: Wo findest du auch die Zeit, Saxophon zu spielen?
Rückblickend habe ich das Saxophonspielen wirklich genossen, und ich verbrachte meine Zeit in der Armee in einer Band. Dort wurde ich dafür begeistert, deutlich mehr zu üben als die normalen Studierenden. Ich versuche, mein Niveau zu halten; das bedeutet, nachts oder am Wochenende zu üben und sicherzustellen, dass man immer eine Band hat, die einen beschäftigt.
Conor Doherty: Nur um es festzuhalten: Du hast in der Armee Musik gemacht. Du hast also tatsächlich so einiges erlebt. Beeinflusst das tatsächlich, wie du an Business und supply chain herangehst?
Knut Alicke: Ich glaube nicht. Ich war damals zu jung, um davon beeinflusst zu werden. Ich war 19 und habe einfach ein Jahr lang von morgens bis abends geübt und dann sehr schöne Konzerte in Hamburg genossen. Dort ging ich gerne zu vielen Jazzkonzerten und habe mich verbessert.
Conor Doherty: Ich denke, wir sind hier alle Jazz-Fans, aber auch Fans von generative AI, was uns meines Erachtens ins Studio gebracht hat. Joannes, gleich wende ich mich an dich, aber zuerst, Knut, leg den Grundstein. Ich werde dir eine Aussage präsentieren und dann eine Frage, und dann kannst du antworten.
Die Aussage lautet: supply chain – und ich würde sagen, auch die Welt insgesamt – ist seit mindestens, sagen wir, zwei Jahren von generative AI durchdrungen. Es hat die Landschaft der supply chain verändert. Das ist die Aussage. Und die Frage lautet: Stimmst du dem zu? Und wenn ja, hat es sie verbessert oder verschlechtert?
Knut Alicke: Ich würde sagen, es hat sich noch nicht maßgeblich verändert. Was ich sehe, ist, dass GenAI die Art und Weise, wie wir supply chains verwalten und betreiben, erheblich verändern wird. Ich vergleiche es immer mit der Erfindung des Frachtcontainers: Etwas, das den globalen Warenfluss veränderte, ihn effizienter, leichter und standardisierter machte. Genau das sehe ich jetzt mit GenAI; wir befinden uns an einem ähnlichen Punkt in der Zeit.
Gleichzeitig wird es heutzutage offensichtlich gehypt. Die Leute überschätzen immer die kurzfristigen Auswirkungen einer neuen Technologie und unterschätzen sie langfristig. Wenn man sich anschaut, was heutzutage mit GenAI möglich ist – wir alle nutzen ChatGPT – und darüber nachdenkt, was in supply chain möglich ist, um die Leistung zu verbessern und das Leben von Planern zu erleichtern, werden wir in den nächsten Jahren vieles sehen. Aber wir müssen auch sagen, dass es noch am Anfang steht; es sind erst zwei Jahre vergangen und die Modelle verbessern sich rasant. Es wird sich verändern, und ich bin sicher, später werden wir detailliertere Beispiele besprechen.
Conor Doherty: Joannes, stimmst du Knut zu? War es besser oder schlechter geworden?
Joannes Vermorel: Ich würde sagen, ganz klar zum Besseren, auch wenn es noch sehr klein ist. Die kleinen Einzelteile sind sehr gut; diese Werkzeuge sind extrem nützlich. Im Moment sprechen wir davon, dass Menschen GPT nebenbei nutzen, um etwas superschnell zu erledigen, was eine sehr bürokratische Aufgabe gewesen wäre, und das ist sehr gut.
Die Modelle haben sich enorm weiterentwickelt. Die Tatsache, dass man einen größeren Kontext hat, bedeutet, dass man ziemlich lange Dokumente hochladen und sagen kann: „Bitte finde in diesem Vertrag, ob ein Begriff existiert, der spezifisch für dies und das ist.“ Früher hätte das Durchsuchen eines 50-seitigen Dokuments eine Stunde gedauert, um herauszufinden, ob dieser Teil behandelt wird; hier kann man es in einer halben Minute haben. Also ist es definitiv etwas Gutes.
Was die Zukunft betrifft, werden wir sehen – ich stimme deiner Aussage über die kurzfristigen versus langfristigen Auswirkungen zu. Im Moment, wie wir lehren, ist eine der Herausforderungen mit dieser generativen AI, dass Studierende heutzutage buchstäblich ihre gesamte Hausarbeit komplett betrügen können. Es gibt so etwas wie studentische Hausaufgaben nicht mehr; ChatGPT wird sie einfach erledigen. Für einen Professor ist es fast unmöglich, das auseinanderzuhalten, außer indem er sagt: „Ich werde allen Studierenden, die mir eine fehlerfreie Kopie vorlegen, eine schlechte Note geben“, denn wenn es keine Rechtschreibfehler gibt, gehe ich davon aus, dass sie von ChatGPT geschrieben wurde.
Dass Menschen möglicherweise falsch ausgebildet wurden, weil diese Lücke besteht, könnte zu Problemen führen. Aber für Unternehmen, was generative AI betrifft, sind diejenigen, die wirklich Risiken mit diesen Technologien eingehen, eher die Unternehmen, die beim Vibe Coding voll dabei sind. Das ist die Art von Sache, die in supply chain noch gar nicht begonnen hat.
Nach meinem Verständnis nutzen die Menschen es immer noch sehr oberflächlich. Bei den wenigen Anwendungen, in denen es eingesetzt wird, handelt es sich um wirklich massive, leicht erreichbare Erfolge, schnelle Gewinne, ohne Frage. Die gefährlicheren, ausgefeilteren und wirkungsvolleren Anwendungen, soweit ich das verstehe, haben noch nicht einmal begonnen.
Knut Alicke: Lass mich dazu ein paar Anmerkungen machen. Wenn man 25 Jahre zurückblickt, als das Internet begann, gab es viele Unternehmen, die das Internet im Grunde blockierten. Ihren Mitarbeitern war es nicht erlaubt, das Internet zu nutzen, weil man befürchtete, dass sie Nachrichten lesen und ihre Arbeit vernachlässigen oder private Dinge erledigen würden. Heutzutage ist das normal und es bringt einen enormen Mehrwert.
Viele große Unternehmen blockieren heute auch ChatGPT oder andere Large Language Models. Das ist das Schlimmste, was man tun kann. Man muss sicherstellen, dass man seine Mitarbeiter darin schult, wie man diese Modelle nutzt. Man muss ein Umfeld bieten, in dem sie es verwenden können, ohne Geheimnisse hochzuladen und so weiter. Am Ende möchte man eine neugierige Organisation, die lernt und die Chancen ergründet.
Gleiches gilt für Studierende: Wenn ich lehre, bitte ich meine Studierenden: „Bitte löst diese Frage auch mit ChatGPT und findet dann heraus, wo es richtig läuft und wo es falsch läuft“, um sie zu befähigen und sogar zu ermutigen, es zu nutzen. Andernfalls werden wir nie erfahren, was möglich ist.
Joannes Vermorel: Ich denke, Unternehmen, die LLMs blockieren, werden wieder entdecken, was in den frühen 2000er Jahren passierte, als die Leute einfach über ihr mobiles Gerät und die damalige EDGE-Verbindung ins Internet gingen – einfach, weil sie irgendwann die Einschränkung umgehen würden, da sie so nervig ist. Die Leute würden das einfach mit ihrem Handy machen. Wenn man es auf Unternehmensebene blockiert, verwenden die Leute ihr persönliches Konto auf ihrem Smartphone, weil bei bürokratischen Aufgaben der Produktivitätsgewinn so groß ist, dass es extrem schwerfällt, dem zu widerstehen.
Es ist sehr schwer, jemandem zu erklärbaren, dass diese Person drei Stunden mit einer übermäßig mühsamen Aufgabe verbringen sollte, wenn es ein Werkzeug gibt, das es in fünf Minuten erledigen kann. Sobald sich diese Person moralisch berechtigt fühlt, dies zu tun, ist die Versuchung groß, es für alle anderen Aufgaben zu nutzen.
Conor Doherty: Das führt zurück zur Kurzfrist-/Langfristperspektive. Kurzfristig, Knut, was siehst du als die primären positiven Auswirkungen, die generative AI im supply chain-Bereich hatte?
Knut Alicke: Was wir häufig sehen – und das funktioniert bereits – ist, dass wenn man etwas nicht versteht, man es als eine Art sehr intelligente Wikipedia verwendet. Man sucht Dinge nach und lernt dazu. Wir sehen Fälle, in denen sehr administrative, repetitive Aufgaben mit dem, was ich als intelligente Robotic Process Automation bezeichnen würde, angegangen werden können. RPA hatte Schwierigkeiten, wenn sich Prozesse ein wenig änderten; man musste den Prozess neu programmieren. Hier sieht man erste Erfolge.
Wenn ich ein wenig vorwärts gehe, dann wäre die Vision, die ich für eine GenAI-Anwendung hätte: typische Prozesse in der supply chain sind gut definiert – aus algorithmischer Sicht klar definiert – aber dann erzählt die Realität eine andere Geschichte. Die Menschen finden Wege, um herumzukommen: manuelle Änderungen von Zahlen, mangelndes Vertrauen, was auch immer. Das Ergebnis entspricht nicht den Erwartungen.
Hier kommt die Kraft von Sprachmodellen ins Spiel: In den Daten sieht man nicht, warum Prozesse nicht funktionieren. Man sieht nur, dass die forecast accuracy sinkt. Warum ist das so? Weil diese Person die Zahlen verändert hat – und man versteht nicht warum. Warum also keinen „supply chain avatar“, einen digitalen Joannes, im Gespräch mit jener Person einsetzen, die die Zahl geändert hat, und dann langsam herausfinden, was vor sich geht? Der wahre Grund könnte sein, dass sie dem Planer nicht vertrauen; sie wollen ihren Kunden dienen; in der Vergangenheit hatten sie fehlbestand. Dann behebt man das, indem man Vertrauen aufbaut oder das Inventar erhöht. Genau hier können die Modelle einen großen Mehrwert bieten.
Conor Doherty: Das ist fast wie ein Werkzeug, um einen Prozess indirekt zu verbessern – eine diskursive Interaktion: „Warum hast du das gemacht?“ Joannes, gibt es noch andere Beispiele dafür, LLMs einzusetzen, sodass sie einen Prozess weitgehend unbeaufsichtigt verändern?
Joannes Vermorel: Ja. Zum Beispiel, wenn man sich die Servicequalität anschaut: Viele Unternehmen haben verschiedene Varianten des Net Promoter Score. Sie befragen ihre Kundschaft einmal pro Woche, einmal im Monat; im B2C-Bereich könnte man eine Stichprobe nehmen. Die traditionelle Methode sind Multiple-Choice-Fragen – sehr niedrig aufgelöst. Warum macht man das? Weil man, wenn man es anders handhabt, am Ende 200–500 Freitextantworten erhält und es schwer ist, damit etwas anzufangen.
Mit LLMs muss man die Kundschaft plötzlich nicht mehr dazu zwingen, Feedback in vorgefertigten Kategorien zu geben. Vielleicht beschwert sich der Kunde über etwas, wovon man nicht einmal wusste, dass es ein Problem war: „Ich habe ein Gerät mit einem amerikanischen Stecker statt einem britischen erhalten. Ich habe es gelöst, aber es war ärgerlich.“ Ihre Checkliste „War das Produkt beschädigt? Ja/Nein?“ ergibt zwar Nein – dennoch ist es ein Problem.
Traditionell war alles, was in Freitextform vorlag, mühsam. Gleiches gilt für Lieferanten. Mit LLMs kann man sich Systeme vorstellen, bei denen Partner Freitext-Inputs geben und LLMs diese in Statistiken umwandeln, ohne starre Annahmen, die das Problem in schmale Kategorien zwängen. Das ermöglicht es, einen Prozess wirklich gründlich zu überdenken.
Knut Alicke: Um darauf aufzubauen, alles rund um die Erstellung von Dashboards. Wenn man ein neues System implementiert, besteht ein großer Teil der Zeit darin, zu definieren, was man sehen möchte, und dann wird es hardcodiert. Jeder hat neue Ideen. Stell dir eine Welt vor, in der du mit deinem System – deinem LLM – sprichst und sagst: „Ich möchte dies und das sehen. Bitte hebe dies auf der x-Achse, das auf der y-Achse hervor“, und dann siehst du es. Wenn es dir gefällt, wird es zum Standard; wenn nicht, verfeinerst du es.
Die Benutzeroberfläche wird eine Schnittstelle in natürlicher Sprache sein, bei der man findet, was man braucht. Außerdem sollte das System Dinge bereitstellen, die man übersehen hat. Man fragt nach dem einen KPI und dem anderen, aber der Servicelevel fehlt – super wichtig. Dann könnte dieser digitale Joannes sagen: „Interessant, dass du dir diese beiden ansiehst, aber hast du auch den Service betrachtet? Hast du untersucht, wie der Service mit dem Inventar korreliert? Braut sich etwas zusammen?“
Joannes Vermorel: Bei Lokad betrachten wir dasselbe Problem, aber auf sehr unterschiedliche Weise. Das typische Problem mit Dashboards ist, dass man in Unternehmensumgebungen sehr schnell mit Metrik-Wänden – Unmengen an Zahlen – konfrontiert wird. Dann stellt sich die Frage: Was schaue ich mir eigentlich an?
Nehmen wir zum Beispiel die lead time, gemessen in Tagen. Sind es Geschäftstage oder Kalendertage? Entfernen wir Ausreißer? Wenn etwas nie geliefert wurde, zählt das als unendlich? Oder als tausend? Es gibt unzählige Konventionen. Unser Ansatz besteht nicht in der dynamischen Zusammenstellung eines Dashboards, sondern darin, extrem detaillierte Dokumentationen on the fly zu generieren, indem das LLM sich den gesamten Code ansieht, der zu dieser Zahl geführt hat, und in Englisch die relevanten Informationen zusammenstellt. Was ist der Umfang? Was haben wir gefiltert? Wie weit in die Vergangenheit?
Wir ertrinken in Dashboards und Zahlen, und die Semantik ist schwierig. Das ist der Kampf, den wir führen.
Knut Alicke: Lassen Sie mich eine weitere Idee einbringen, die ich mit einem Kunden erforscht habe: Aus dem Lean Manufacturing kennen wir die Five Whys – oder jeder, der Kinder erzieht, kennt die Five Whys. Man fragt, warum etwas passiert, dann fragt man erneut „warum“, bis man zur Grundursache gelangt. Das ist unglaublich mächtig. Aufbauend auf deinen KPI-Wänden: Wenn etwas schiefgeht, nutze das LLM, um tiefer, tiefer, tiefer zu gehen, bis du wirklich den Grund findest und feststellen kannst, wo ein Parameter – zum Beispiel das Inventar – geändert werden muss, um die Leistung zu verbessern.
Joannes Vermorel: Absolut. Wiederum wird jede neue Technologie, insbesondere KI, oft als Werkzeug betrachtet. Aber die Art, wie du darüber sprichst, Knut, stellt sie als einen Kollegen dar, mit dem man interagiert – ein digitales Teammitglied.
Conor Doherty: Wäre das eine zutreffende Beschreibung?
Knut Alicke: Ja, das ist es. Stellen wir uns vor, wir stellen einen neuen Kollegen direkt von der Universität ein. Er oder sie kommt an, wird geschult; wir haben einen Mentor, einen Coach. Der neue Kollege führt zunächst einfache Aufgaben aus, dann komplexere. Am Anfang könnten sie beschließen, Dinge für 10 Euro zu kaufen; im Laufe der Jahre sind es dann 100.000 Euro. Wir entwickeln diesen Kollegen. Niemand erwartet von einem Neuling, dass er alles weiß.
Interessanterweise erwartet der Planer, wenn wir ein Planungstool implementieren, dass das Tool Wunder vollbringt und alles weiß. Warum also keinen GenAI-Bot als digitalen Kollegen einsetzen? Wir müssen ihn ebenfalls schulen: Geschäftskontext, Besonderheiten eines bestimmten Kunden, der sich immer beschwert, dass wir nicht nach dem Prinzip „loudest shout first serve“ vorgehen, und so weiter. Wir trainieren das Modell, um unseren spezifischen Kontext zu verstehen.
Das Modell bringt enorme Geschwindigkeit mit – die Fähigkeit, Daten zu verarbeiten und zu analysieren, wie es für Menschen nicht möglich ist. Kombinieren wir das mit spezifischem Wissen, haben wir einen echten digitalen Kollegen. Ich sehe eine Zukunft, in der erfahrene Geschäftsleute mit diesem Modell wie mit einem Kollegen sprechen und die Qualität ihrer Entscheidungen erheblich verbessern. Sie müssen nicht die langweiligen Dinge erledigen – Kopieren in und aus Excel – und sie bekommen die Frage gestellt: „Hast du an dies gedacht? Hast du das untersucht?“ Dann kommen sie, unter Einbeziehung ihrer Erfahrung, zu einer viel besseren Entscheidung.
Conor Doherty: Ich mag diese Metapher – oder vielmehr den Vergleich. Wenn man das Beispiel eines Mentors betrachtet: Man wählt nicht irgendwen aus. Es ist ein bestimmter Kompetenzmix erforderlich, um effektiv zu lehren. Welche wichtigen Fähigkeiten braucht ein Mentor, um ein LLM zu trainieren? Muss man ein Experte im Programmieren oder in der Informatik sein?
Knut Alicke: Man muss offen, neugierig, transparent sein. Ein guter Mentor ist nicht nur am Trainieren, sondern auch offen für Feedback – ein Geben und Nehmen. Ich habe angefangen, eine digitale Kopie von mir zu trainieren – einen digitalen Knut. Irgendwann war ich super frustriert, weil ich das Gefühl hatte: „Dieser digitale Knut weiß gar nichts. Er kennt mich nicht.“ Dann wurde mir klar: Wäre das ein echter Kollege, wäre ich auch frustriert, würde aber weiterhin coachen und mich entwickeln. Bei einem digitalen Kollegen muss auch mein digitales Selbst weiterentwickelt werden. Das Gleiche.
Joannes Vermorel: Damit stoßen wir auf eine tiefgreifende Einschränkung von GenAI: Momentan lernen LLMs nichts. Technisch gesehen handelt es sich um ein vortrainiertes Modell – man speist einen erheblichen Teil des Internets, Wikipedia und mehr in das Training ein, und man erhält ein statisches Modell. Die Parameter ändern sich nicht. ChatGPT hat überhaupt kein Gedächtnis; es ist zustandslos. Das Einzige, was man anpassen kann, ist der Kontext.
Glücklicherweise sind die Kontexte im letzten Jahr enorm gewachsen. Das neueste Modell – zum Beispiel GPT-5 auf API-Ebene – bietet ein Kontextfenster von 400.000 Tokens. Das ist enorm. Man kann nicht alles als Eingabe verwenden; so viel wie 270.000 Tokens können als Eingaben genutzt werden; der Rest wird für das logische Schließen verwendet, weil dafür Platz benötigt wird.
Aber das Schwierige am aktuellen Paradigma ist, dass wir Modelle haben, die eine Art kristallisierte Intelligenz besitzen, aber sie ist statisch. Man kann den Kontext erweitern, aber das Modell wird dadurch nicht wirklich intelligenter; es bleibt so intelligent wie am ersten Tag. Man kann den Kontext anreichern.
Wer wird diesen Kontext pflegen? In technischen Begriffen spricht man von einem Wissensflywheel. Wer pflegt es? Ist es das LLM selbst, das das Flywheel aufrechterhält – indem es Nuggets aus seiner eigenen Informationsbank hinzufügt oder entfernt? ChatGPT macht das, wenn man es lässt – es wird Nuggets über dich aufzeichnen und wieder einfügen. Aber zu viele Dinge im Kontext zu haben, wird zur Ablenkung. Man kann Hunderte von Seiten Kontext hinzufügen, aber das LLM muss, um auf jede Frage zu antworten, diesen Kontext laden, und das kann die Leistung mit irrelevanten Details verschlechtern.
Um also einen LLM-Agenten als echten Kollegen zu haben, besitzt man in mancher Hinsicht eine Superintelligenz und in anderen ist er extrem dumm, weil er niemals etwas lernen kann – zumindest im aktuellen Paradigma.
Conor Doherty: Selbst wenn man beide Aussagen wörtlich nimmt, gibt es immer noch Aufgaben, die man diesem digitalen Kollegen anvertrauen könnte, und Aufgaben, die man den Menschen überlässt. Knut, zuerst: Welche Aufgaben würdest du dich wohl fühlen, schnell an einen digitalen Kollegen zu delegieren, und welche würdest du in den Händen von Menschen behalten?
Knut Alicke: Ich bin mir nicht sicher, ob ich 100%ig etwas delegieren würde. Ich würde trotzdem den Menschen im Prozess behalten – das ist super wichtig. Um ein Beispiel zu geben: Wenn wir Diagnosen durchführen, sammelt man Daten, macht Analysen; in der supply chain befragt man dann Leute, um die Prognose, die Nachfrageüberprüfung, S&OP und so weiter zu verstehen. Das sagt nicht unbedingt die ganze Wahrheit aus. Es ist wie ein Gemba-Walk in der Produktion: In einem Besprechungsraum erklären sie den schönen und glänzenden Prozess; auf dem Shopfloor sieht es anders aus.
Hier sehe ich, dass GenAI einen großen Mehrwert bietet, indem es den Prozess beobachtet. Stell dir ein Demand Review Meeting vor. Oft ist die Präsentation nicht gut vorbereitet, die Agenda wird nicht eingehalten, es werden keine Aktionen definiert. Viele Leute verbinden sich mit ausgeschaltetem Video, ausgeschaltetem Mikrofon, tragen nicht bei; nur wenige sprechen. Wenn dein GenAI-Bot zuhört und dem Moderator Feedback gibt – „Mach das, hier stimmt etwas nicht“ – kannst du das auch massiv parallelisieren. Wenn du 200 Nachfrageplaner hast, kannst du alle 200 coachen: „Schau, hier könnt ihr es besser oder anders machen.“ So coacht man Menschen.
Wo wir heute Anwendungen sehen: Beschaffung. Agenten können bereits einen Mehrwert bieten bei Long-Tail-Ausgaben, bei denen es viele kleine Kategorien oder Produkte gibt, die aufgrund von Zeit- und Personalmangel nie richtig überprüft werden. Wenn ein Agent die Analyse durchführt, Vergleiche anstellt und eine Neuverhandlung der Preise anstößt – das kann als Low-Hanging Fruit heute einen Mehrwert bieten. Es ist auf relativ unbeaufsichtigte Weise mit einem geringen Budget für den Long Tail möglich; das würde man für hochpreisige Artikel nicht machen, aber beim Long Tail fängt es an, und dann geht es in andere Kategorien über.
Conor Doherty: Das Beispiel, das du beschrieben hast – dein AI-Bot, der Meetings überwacht – im Gespräch hast du ein Experiment erklärt, das genau das simuliert. Du meintest, du hättest es etwa 20 Mal mit verschiedenen Austauschen gemacht. Kannst du das noch einmal erklären?
Knut Alicke: Ich habe einen synthetischen Datensatz – ein synthetisches Unternehmen – erstellt, um mit realitätsnahen Daten zu experimentieren. Ich habe Analysen durchgeführt: „Was passiert mit dieser Prognose? Kannst du auch eine Prognose erstellen? Was passiert bei der Preisgestaltung? Korrelation zu Promotionen?“ Anschließend habe ich auch manuelle Inputs erstellt: Ich habe zwei Nachfrageplaner herangezogen. Einer erhöhte die Prognose; der andere verbesserte die Prognose. Der klassische KPI, Forecast Value Add, war beim ersten sehr schlecht; beim zweiten war er gut.
Anschließend habe ich im Sprachmodus mit ChatGPT gesprochen und behauptet, ich sei der erste Nachfrageplaner, weil ich verstehen wollte, wie das Modell reagieren würde. Das Modell hatte den gesamten Kontext über das Unternehmen, SKUs, Kunden, Schwankungen, die positive Voreingenommenheit des ersten Planers. Ich habe mich beschwert, dass die supply chain Leute mich nicht verstehen, dass die Produktionsmitarbeiter nie liefern, was ich möchte, und deswegen müsse ich die Prognose erhöhen. Ich habe es ein wenig übertrieben, aber es spiegelte die Realität wider.
Was geschah, war interessant: Der Bot hörte zu und begann langsam, Empfehlungen auszusprechen, was man anders machen sollte. Er sagte nicht sofort: „Deine Prognose ist dumm; du erhöhst sie immer um 30%.“ Er begann langsam und vorsichtig mit Hinweisen, Tipps und Tricks.
Ein weiteres Experiment: Ich habe 20 Transkripte eines Demand Review Meetings erstellt – fiktiv, mit Problemen wie ausgeschaltetem Mikrofon, ausgeschaltetem Video, keiner Beteiligung. Ich habe das Modell trainiert, indem ich erklärte, wie ich ein best-in-class Demand Review Meeting sehen würde, was drin sein sollte, was nicht, typische Probleme. Dann bat ich das Modell, zu bewerten, was schief läuft und definierte ein Reifegradmodell von sehr einfach bis hin zu best-in-class. Ich bat das Modell, den Reifegrad des Transkripts zu bewerten. Die Bewertung war sehr gut; die Ergebnisse waren konsistent – wahrscheinlich dieselben Ergebnisse, die ich hätte, weil ich das Modell trainiert habe.
Wenn du dir jetzt vorstellst, ein Bot hört echten Meetings zu und reflektiert, was er gehört hat, dann entsteht ein enormer Effizienzgewinn. Stell dir vor, 20 Personen sind verbunden und 15 haben Video und Mikrofon ausgeschaltet – sie müssen sich gar nicht einwählen. Was kann man mit der eingesparten Zeit machen? Es gibt viel zu verbessern. Man führt nicht nur eine Diagnose durch; da man bereits den Kontext hat, kann man sofort in die kontinuierliche Verbesserung einsteigen.
Joannes Vermorel: Ich glaube, dass in irgendeiner Form eine Zukunft wie diese Wirklichkeit werden wird. Ob es nun mit dem aktuellen Paradigma der LLMs ist, das Hauptproblem bleibt das Daten- oder Wissensflywheel: Das LLM kann nicht lernen, also muss das LLM entscheiden, wie es Wissensfragmente aufteilt und für den späteren Gebrauch speichert. Dieses Problem ist nicht richtig gelöst. Morgen könnten wir einen Nachfolger oder eine alternative Theorie zu LLMs in Betracht ziehen, bei der das Lernen integriert ist.
Zurück zum Fall: Passives Mithören im Unternehmen, automatische Archivierung und Organisation – der Austausch von Ideen, Automatisierung, die deine Bibliothek von Erkenntnissen und dem Verständnis für die aktuelle Mindmap des Unternehmens aktualisiert – das hätte einen gigantischen Wert.
Derzeit haben wir Annäherungen: Zwei Stunden Meetings aufzeichnen und sehr saubere Meetingnotizen erstellen. Das ist nützlich; es spart Zeit. Aber es ist nichts, worauf man später sofort zurückgreifen kann. Das LLM müsste alles erneut durchsuchen, um festzustellen, ob ein bestimmter Punkt besprochen wurde. Wenn du es nicht fragst, wird es von selbst keine Verbindungen zwischen „das wurde besprochen“ und „das wurde auch in zwei verschiedenen Meetings besprochen; wir haben Widersprüche“ herstellen.
Uns fehlt das Lernen. Es ist nicht vorhanden. Es gibt keine „Aha“-Momente für das Modell. Es verarbeitet das Kontextfenster linear mit einer statischen, starren Intelligenz, die in sehr unhumanen Weisen extrem fähig ist – aber Lernen geht sehr tief und bringt Einschränkungen mit sich.
Eine Sache ist seltsam: Für das Datenmanagement vermute ich, dass Modelle sich automatisch verbessern werden, unabhängig von der Technologie, da sie mehr Beispiele aufnehmen. Wenn du ChatGPT jetzt bittest, einen Prompt zu erstellen, ist es viel besser als vor zwei Jahren. Warum? Nicht weil sich die Kerntechnologie in dieser Hinsicht weiterentwickelt hat, sondern weil es jetzt Unmengen von Beispielen für gute Prompts im Web gibt, die wieder in das Modell eingespeist werden. Hunderttausende von Menschen haben Tipps und Tricks gepostet; ChatGPT nimmt diese im Rahmen des Trainings wieder auf.
Auch im Wissensmanagement: Wenn genügend Menschen Tipps posten, die als gute kleine Wissenshäppchen zählen, werden diese Tools besser, weil sie viele Heuristiken integrieren.
Knut Alicke: Aufbauend auf deinem Beispiel der Meeting-Notizen – ich würde nicht erwarten, dass der Bot alles weiß. Deshalb, zurück zur Idee der digitalen Crew – digitaler Joannes oder digitaler Conor oder digitaler Knut – startest du als Mensch in der Schleife. Du hast das Transkript; du markierst, “Hier läuft es schief, hier läuft es schief.” Du baust den Kontext immer weiter auf. Nachdem du das zehnmal gemacht hast, kann das Modell bereits 80% der Sachen erkennen. Das ist das klassische 80/20-Prinzip. Nach meiner 25-jährigen Erfahrung ist 80% immer dasselbe; das kann man trainieren. Dann gibt es spezielle Fälle, in denen du zusätzlichen Kontext hinzufügst.
Ich würde zustimmen, dass es beispielsweise nicht herausspuckt: “Brauchen wir dieses Demand Review Meeting überhaupt?” Das wäre kein Ergebnis. Aber um Struktur und Ergebnisse zu verbessern – und damit eine besser funktionierende supply chain – wird dies bald möglich sein.
Joannes Vermorel: Bei Lokad fügen wir in einigen der Prompts, die wir beim Zusammenfassen von Planungssitzungen verwenden, Hinweise ein, wie zum Beispiel: “Immer wenn ein Datum oder ein Preis in Dollar oder Euro genannt wird, isolieren Sie diesen und prüfen Sie, ob dem Datum eine Handlungsaufforderung beigefügt ist.” Wir machen das in zwei Durchgängen, um ein hochwertiges Memo zu erstellen: Scanne die Diskussion, halte bei Daten inne, erfasse Handlungsaufforderungen; dasselbe gilt für finanzielle Beträge – was steht auf dem Spiel? Wir geben dem LLM im Rahmen des Prompts Tipps, um die wirklich nützlichen Dinge zu identifizieren.
Das ist das Lokad-Rezept. Stell dir nun vor, Lokad veröffentlicht das im Web, und hunderttausende Menschen veröffentlichen ebenfalls ihre Tipps. “Für diese Meetings, hier die Liste der Dinge, um eine sehr effektive Zusammenfassung zu erhalten.” Deshalb sage ich, dass Wissensflywheels Fortschritte machen werden, weil die Menschen Tipps und Tricks posten.
Aber das Kernproblem, das noch nicht gelöst ist, ist, wie man Wissen in großem Maßstab verwaltet. Die nächstliegende Annäherung ist RAG (Retrieval-Augmented Generation), aber es ist immer noch crude und skaliert nicht sehr gut. In einem großen Unternehmen überschreitet man schnell die Kapazität des LLM. Selbst wenn man das Token-Fenster – jetzt sehr lang – nicht überschreitet, erhält man keine sehr gute Leistung, wenn man Hunderte von Seiten quasi-irrelevanter Inhalte hineinwirft. Man braucht etwas Besseres.
Es gibt Möglichkeiten, die Situation notdürftig zu überbrücken: lineare Scans, Mehrfachdurchläufe. Der erste Durchgang entfernt irrelevante Inhalte – aber all das ist nur Notklebeband um die Tatsache, dass Lernen im aktuellen Paradigma ein Bürger zweiter Klasse ist.
Conor Doherty: Zurück zur menschlichen Seite: Manche Menschen sind unglaublich angenehm, wenn man abseits der Kamera mit ihnen spricht, aber wenn man eine Kamera und ein Mikrofon vor sie stellt und sie wissen, dass sie aufgenommen werden, werden sie schüchtern. Das ändert die Bereitschaft, sich zu engagieren, weil es einen dauerhaften Beleg gibt. Übertrage das auf ein Demand Planning Meeting, bei dem die Leute wissen, dass ein KI-Tool zuhört, aufzeichnet, analysiert, archiviert und möglicherweise Leistungskennzahlen bestimmt. Siehst du das als ein Problem für die Zustimmung und Teilnahme?
Knut Alicke: Beim ersten Meeting, ja. Beim zweiten Meeting, zur Hälfte. Dann lässt es nach. Im Lean-Bereich, bei der Gemba-Walk, wenn du die Montage beobachtest, zeigt die erste Beobachtung, dass die Leute versuchen, alles bestmöglich zu machen. Kommst du am nächsten Tag zurück, und am darauffolgenden – das Befolgen des Prozesses lässt nach und sie kehren zu ihren normalen Gewohnheiten zurück. Der fünfte Tag zeigt mehr Probleme.
Als Berater, der diese Meetings begleitet, verläuft das erste Meeting relativ gut; dann knüpfst du erneut Kontakte, und die Leute merken: “Oh, das ist normal,” und du siehst, was vor sich geht. Noch unklar ist, wie man die Menschen davon überzeugt, dass dieser Bot nicht schlecht arbeitet.
Eine Möglichkeit könnte sein, einen supply chain Avatar zu erstellen – du bist ein gut aussehender Mann, also würde er wie du aussehen – und dann bauen die Leute Vertrauen auf und fangen an, normal mit dem Avatar zu sprechen. Es wird immer noch Menschen geben, die nicht bereit sind zu sprechen; das wäre ihr Verlust.
Conor Doherty: Was die Sicherheitsvorkehrungen angeht – Technologie einzubinden und gleichzeitig Sicherheit und Schutz zu gewährleisten. Ein zentrales Beispiel sind Kundengespräche, Demand Planner, Diagnostik: Es werden viele sensible Informationen besprochen – Zahlen, Daten, Werte. Die Leute könnten Bedenken hinsichtlich Sicherheit und Schutz haben.
Joannes Vermorel: Absolut. Eines der Dinge, die ich meinen Informatikstudenten vor fast 20 Jahren beigebracht habe, als E-Mail noch etwas Neues war: Behandle jede E-Mail, als würde sie für immer öffentlich gemacht werden. Sobald du eine E-Mail sendest, hast du keine Kontrolle mehr. Sie kann weitergeleitet werden. Ich sagte: “Gehe davon aus, dass all deine E-Mails ins Usenet geworfen werden” – damals das Äquivalent zu Reddit – und schreibe dementsprechend.
Wir betreten eine sehr seltsame Welt, in der es in den nächsten 20 Jahren sehr schwer sein wird, passiven Abhörwerkzeugen zu widerstehen, die alles aufzeichnen. Ich sehe so viele Produktivitätsgewinne; es wird schwer sein, dem zu widerstehen. Ein Unternehmen wird das annehmen und erkennen, dass es viel Zeit spart. Ich spreche von 20 Jahren, nicht von zwei.
E-Mails, wie wir sie heute praktizieren, würden den Menschen in den 70ern seltsam vorkommen. Die Vorstellung, dass ein privates Gespräch ständig in Gefahr ist, an die nationale Presse weitergeleitet zu werden, hätte verrückt geklungen. Die Vorstellung, dass eine von dir geschriebene E-Mail an Dutzende von Personen weitergeleitet wird, passiert ständig. Die Menschen empfinden nicht, dass man um Erlaubnis fragen muss, um eine E-Mail weiterzuleiten. Ein Brief per Post war privat; ihn an Dritte weiterzuleiten, war nicht in Ordnung.
Knut Alicke: Zurück zum Training: Stelle sicher, dass die Menschen wissen, was geteilt werden sollte und was nicht. Ein weiteres Beispiel aus unserem Buch: Ein Beitragender erzählte die Geschichte, dass er in seinem S&OP-Prozess die drei wichtigsten Lieferanten einladen wollte. Alle beklagten sich, “Das können wir nicht; sie werden unseren Produktionsplan erfahren.” Er sagte: “Genau das möchte ich teilen, damit sie sich vorbereiten können.” Es sind die drei wichtigsten, nicht tausende.
Mit Transparenz kann man besser werden. Es gibt oft die Befürchtung: “Wenn sie wissen, was wir tun…” Ja, aber wenn sie es wissen, können sie sich besser vorbereiten und die gesamte supply chain wird dadurch besser. Dasselbe gilt für diese Modelle – aber offensichtlich, wenn es ein wirkliches Geheimnis gibt, möchtest du es nicht am nächsten Morgen in der Presse sehen.
Joannes Vermorel: Meiner Ansicht nach verändert es die Organisation. Zum Beispiel die Generation meiner Eltern, die bei Procter & Gamble arbeitete: Sie hatten intern eine quasi-militärische Struktur; die Hierarchie war extrem streng; Privatsphäre und Geheimhaltung hatten oberste Priorität; Informationen wurden nur nach dem Need-to-know-Prinzip verteilt. Das hat sich enorm entwickelt. Heutzutage ist Procter & Gamble nichts wie vor 50 Jahren.
Diese Technologie wird den Markt in Richtung Unternehmen verschieben, die sagen: “Wenn alles öffentlich ist, haben wir wenig zu verbergen, weil unser Wettbewerbsvorteil nicht davon abhängt.” Ja, manchmal ist es von Vorteil, Karten nah an der Brust zu halten, aber man kann ein Geschäft haben, in dem Geheimnisse unwichtig sind. Es wird Unternehmen in diese Richtung verlagern.
Es wird schwierig sein, diese Tools wirklich zu sichern. Zum Beispiel, wenn ich Audits von technologischen Startups mache, tue ich das ohne jegliches Gerät – nur mit Stift, Papier, Notizbuch – damit ich nichts versehentlich preisgebe. Alles ist analog; das Leaken der Daten bedeutet, mein Notizbuch zu stehlen, und ich habe eine sehr unleserliche Handschrift, sodass es zusätzlich halbverschlüsselt ist.
Insgesamt haben Unternehmen mit E-Mails mehr Offenheit angenommen; sie können nicht mehr so wie vor 50 Jahren mit Geheimnissen operieren. Jetzt kann jeder ein Video drehen und auf TikTok hochladen; das schafft Komplikationen. Wenn es Dinge gibt, die die Öffentlichkeit nicht sehen sollte, sollten wir sie vielleicht gar nicht haben, da irgendwann jemand ein Video hochladen wird: Arbeitsbedingungen, eine schmutzige Küche. Diese Technologie wird das weiter vorantreiben und verkomplizieren, was dein Wettbewerbsvorteil in einer Welt mit sehr wenigen Geheimnissen ist. Das ist eine andauernde Diskussion über 20 Jahre, denn diese Technologien werden Zeit brauchen, um eingeführt zu werden.
Conor Doherty: Sicherheitsvorkehrungen sind facettenreich: Sicherheit und Ausgaben. Einige argumentieren, dass generative AI die supply chain zum Schlechteren verändert hat und verweisen auf die “generative AI value gap” – enorme Investitionen mit geringem Ertrag; Pilotprojekte im Niemandsland. Verändert das aus eurer jeweiligen Sicht eure Wahrnehmung der transformativen Wirkung von GenAI?
Knut Alicke: Wie bereits besprochen, sind wir noch nicht dort. Wir befinden uns noch in der frühen Phase. Ich habe einen klugen Kollegen sagen hören: Wenn du ein Pilotprojekt durchführst, frage den CEO oder Geschäftsbereichsleiter, ob er oder sie ChatGPT täglich nutzt. Damit wissen sie, was möglich ist und was nicht. Ich fand das super faszinierend.
Wenn der Chef eine Vorstellung davon hat, was möglich ist, dann gibt es entweder gar kein Pilotprojekt, weil es zu früh ist, oder das Pilotprojekt wird mit dem richtigen Umfang und den richtigen Erwartungen eingerichtet. Andernfalls werden Pilotprojekte aufgesetzt, um den Welthunger zu lösen, und können nur scheitern.
Viele Leute spielen immer noch herum und verwechseln GenAI mit AI und digital und Algorithmen. Es fühlt sich an, als wäre es das neue Schlagwort, das man immer benutzen sollte, und dann ist alles, was man macht, plötzlich GenAI – das stimmt nicht. Reduziere es auf das, was Mehrwert bringt und was möglich ist; dann werden wir in den nächsten paar Jahren echte Auswirkungen sehen.
Ein weiterer Gedanke: Sehr oft ist die Vorstellung von Auswirkung zu lokal begrenzt. In der supply chain ist der größte Effekt guter Arbeit immer noch die Verfügbarkeit. Verfügbarkeit bedeutet höhere Marge, höhere Einnahmen. Dennoch sind viele der Meinung, dass die supply chain nur aus Kosten und Inventar besteht. Führe alles von Anfang bis Ende zusammen, betrachte deinen Einfluss, und dann wirst du einen Anstieg der Gesamtleistung feststellen.
Joannes Vermorel: Ich denke, es ist ein perfekter Ersatz für Blockchain. Ernsthaft: Wie bei allen Schlagworten gibt es meist einen technologischen Aspekt, der echt ist. Aber als Teil der Welt der Enterprise software vendors, sind die Beschaffungsprozesse großer Unternehmen für Unternehmenssoftware miserabel. Viel Geld wird verschwendet. GenAI ist letztlich das Schlagwort, auf das das Geld verschwendet wird. Wenn es GenAI nicht gäbe, würde das Geld für ein anderes Schlagwort verschwendet werden.
Die Ursächlichkeit ist nicht “GenAI schafft die Verschwendung.” Die Kausalität ist: “Der Beschaffungsprozess ist dysfunktional; daher wird Geld verschwendet,” und die Verschwendung landet beim Schlagwort des Tages. Vor zwei oder drei Jahren war es Blockchain; vor fünf Jahren Big Data; vor 10 Jahren Data Mining.
Dein Punkt bezüglich des Chefs, der mit ChatGPT spielt: Der Schlüssel ist mechanical sympathy. Kannst du in deinem Innersten fühlen, was das Ding kann und was nicht? Gleiches gilt für Blockchain/Krypto: Hast du jemals Bitcoin gekauft oder genutzt? Weißt du, wie es funktioniert? Wenn du die Technologie nicht durchdringen kannst, ist das nicht gut.
Leider sind wir wieder bei dem miserablen Prozess angelangt, der in einer Ausschreibung mit 600 Fragen endet. Wir sind die Empfänger und erhalten Fragen wie, “Ist der Raum, den Sie für Ihr Faxarchiv nutzen, feuerfest?” – eine Frage, die wir vor einem Monat erhalten haben.
Knut Alicke: Ich stimme zu, und noch eine Beobachtung: Der Auswahlprozess von Software ist so seltsam. Ich frage die Kunden immer: “Warum brauchen Sie diese 500 Spezifikationen?” Alle Softwareunternehmen streichen standardmäßig alles ab, denn ein Softwareunternehmen verkauft eine Vision, nicht die Realität. Dann gehst du in glänzende Meetings, in denen sie alles versprechen.
Nehmen wir an, du möchtest ein neues Auto kaufen. Kauft man es, indem man ein 30-sekündiges YouTube-Video anschaut? Wahrscheinlich nicht. Du möchtest im Auto sitzen, es anfassen, es fahren. Warum machst du das nicht auch mit deiner Software? Warum führst du nicht einen Proof of Concept durch, bei dem du beweist, dass sie funktioniert?
Das führt zurück zur Fähigkeit: Die Menschen müssen grob verstehen, was darin steckt. Wir alle lehren, also müssen wir eine noch praxisnähere supply chain lehren und dies ins Board bringen. Deshalb haben wir unser Buch “Source to Sold” gemacht, um all das auf Vorstandsebene zu kommunizieren und sicherzustellen, dass sie die Erzählung verstehen – was funktioniert, was nicht und wo der Einfluss liegt.
Conor Doherty: Nur zur Information, ich hatte “JV—mechanical sympathy” notiert. Ich wusste, dass du das sagen würdest. Wir kennen uns ja schon eine Weile.
Das bringt uns dem Ende näher – zwei zentrale Fragen. Eine betrifft die Vorstandsebene; die andere die Mitarbeiter vor Ort. Knut, fang mit dem Board an: Wie präsentierst du den transformativen Wert auf Vorstandsebene, um zu überzeugen, und wie präsentierst du ihn dann auf der Ebene der praktischen Umsetzung?
Knut Alicke: Auf Vorstandsebene, denke an die Sprache, die der Vorstand spricht: Vision, Wachstum, Marge. Du musst deine Geschichte so aufbauen, dass sie unterstützt, dass diese neue Technologie hilft, deine Vision umzusetzen – besser für den Kunden, für den Verbraucher zu sein, um profitabler zu werden.
Auf der Werksebene: Alles ist wahr, was du dem Vorstand erzählt hast, aber du musst das Einverständnis der Mitarbeiter gewinnen, dass dies ihnen im Alltag hilft. Wenn es nur ein weiteres Werkzeug ist, das wie eine Black Box aussieht und das Leben erschwert, wird es nicht funktionieren. Es muss das Leben erleichtern und den Menschen helfen, zur Gesamtleistung beizutragen.
Wenn du den Gemba in einem warehouse durchführst, haben die kommissionierenden Mitarbeiter immer 5.000 Ideen zur Verbesserung. Es ist nicht so, dass sie dumm sind oder nicht wollen; sie wissen es, aber sie werden oft nicht gefragt. Das gilt auch für Planer. Du musst die Geschichte erzählen: “Hier haben wir etwas, das dir hilft, ein besserer Planer zu sein, dein Leben erleichtert und deine Arbeit interessanter macht, weil es neue, coole Dinge zu entdecken gibt.”
Joannes Vermorel: Präsentiert man dem Vorstand: Das 21. Jahrhundert ist das Jahrhundert der Mechanisierung geistiger Arbeit. Das 20. war die Mechanisierung körperlicher Arbeit. Wenn du nicht deine Armeen von Angestellten – Büroangestellte – mechanisierst, werden es deine Wettbewerber tun. Sie werden mit weniger Menschen schneller mehr leisten. Wenn du weniger Mitarbeiter hast, kannst du schneller sein.
Man muss sich ansehen, was Armeen von Büroangestellten tun. In der supply chain Planung haben viele Unternehmen Hunderte von Mitarbeitern, die täglich dieselben Tabellenkalkulationen durchgehen – Zehntausende von Zeilen. Die größte Herausforderung ist: Wann werden diese Jobs vollständig robotisiert sein? Es ist nicht die Frage “ob”, sondern “wann.” Wir können uns uneinig darüber sein, ob es fünf oder 50 Jahre dauert.
Conor Doherty: Das sollte meine letzte Frage sein – danke.
Joannes Vermorel: Ich gehöre zur optimistischen Seite. Ich weiß, dass Knut denkt, dass es eine lange Zeit dauern wird, bis sich das Leben dieser Menschen verbessert. Aber wir können uns einig sein, dass der Status quo unbefriedigend ist. Irgendein Unternehmen wird es schaffen, besser abzuschneiden als der Status quo.
Für operativ orientierte Menschen: Bei Lokad robotisieren wir, was eine harte Diskussion ist. Bist du bereit, etwas anzunehmen, das deine Arbeit herausfordernder, aber auch interessanter macht? Die Monotonie der Tabellenkalkulationsarbeit ist zwar eine Art Komfort, aber sie ist unglaublich langweilig.
Wenn du dich in einer extrem langweiligen Aufgabe zu wohl fühlst, ist das nicht gut. Wenn du die Bereitschaft hast, dich herauszufordern und deine Arbeit zu steigern, ist dies die Gelegenheit deines Lebens, Teil der Revolution der mechanisierten Arbeit zu sein. Du wirst zu den Menschen gehören, die wesentlich intelligentere Dinge auf einer Ebene oberhalb der alltäglichen Automatisierung tun.
Das ist ein Teil der Lokad-Vision: Die Aufgabe zu robotisieren und Menschen die Automatisierung überwachen zu lassen. Es gibt ein anderes Lager – nimm die Menschen und mache sie weitaus produktiver. Zwei valide Perspektiven, um den Status quo der langweiligen Tabellenkalkulationsarbeit aufzubrechen.
Conor Doherty: Knut, es ist üblich, dem Gast die abschließenden Gedanken zu überlassen. Könntest du deine Perspektive etwas näher erläutern? Joannes scheint anzudeuten, dass die Übernahme des Entscheidungsfindungs-prozesses durch KI möglicherweise abrupter erfolgen könnte als deine Sichtweise. Für diejenigen, die mit deiner Position nicht vertraut sind: Wie siehst du die kurzfristige und mittelfristige Entwicklung?
Knut Alicke: Meine Hoffnung – ich gebe zwei Versionen: optimistisch und pessimistisch. Das Optimistische: Die Modelle werden besser sein; sie werden in der Lage sein, durch Kontext oder neue Erfindungen zu lernen. Damit werden wir das Leben der Planer viel einfacher machen und die Entscheidungsqualität deutlich verbessern, was dazu führt, dass sie intellektuell viel stärker gefordert werden – was nicht jedem gefallen wird. Das wird wahrscheinlich in den nächsten fünf Jahren geschehen.
Das Pessimistische – Pessimisten sind erfahrene Optimisten: Rückblickend, vor 25 Jahren, noch vor McKinsey, arbeitete ich in einem Startup, das Planungssoftware für Konsumelektronik entwickelte. Die Qualität der Software und der Entscheidungen, die wir damals trafen, war im Nachhinein erstaunlich. Ich habe immer noch viele Kunden, die diesem Standard nicht einmal annähernd nahekommen. Vor diesem Hintergrund würde ich sagen, dass der Pessimist meint, wir werden es schaffen, aber wahrscheinlich in 20 Jahren.
Conor Doherty: Also, wir hatten das Optimistische, das Pessimistische; das Apokalyptische wäre Skynet morgen – nächste Woche – wäre das passend?
Knut Alicke: Skynet wird nicht passieren – jedenfalls nicht als ein Ereignis.
Conor Doherty: Falls ihr das in der Zukunft seht, schickt mir eine Nachricht; lasst es mich wissen. Ich habe keine weiteren Fragen, meine Herren. Joannes, danke, dass du bei mir warst. Knut, du warst wunderbar. Vielen Dank, dass ihr im Studio bei uns wart. Und an alle anderen sage ich: Macht euch wieder an die Arbeit.