00:00:00 Einführung der Show und der Einfluss der KI auf Bürojobs
00:02:20 Einführung der Large Language Models (LLMs)
00:03:27 Joannes’ Erkenntnis über generative KI und GPT-4
00:05:44 LLMs als universelle Vorlagemaschine
00:07:05 Joannes über das Automatisierungspotenzial und den Wandel seiner Perspektive
00:10:38 Herausforderungen in der Automatisierung der Lieferantenkommunikation
00:12:24 Zusammenfassung der Auswirkungen von LLMs
00:14:11 Alltägliche Probleme in der Automatisierung
00:15:59 Ausmaß eines Massenaussterbe-Ereignisses
00:17:48 Das Verständnis der KI für branchenspezifischen Jargon
00:19:34 Auswirkungen der KI auf Jobs in Frage gestellt
00:21:52 Automatisiertes Antwortsystem und die Bedeutung der End-to-End-Automatisierung
00:28:08 Unternehmen, die Prozesse bereits automatisieren
00:30:36 Effizienzsteigerung und Erlangung von Wettbewerbsvorteilen durch KI
00:34:28 Marktreife für KI
00:36:27 Ursprünge der KI-Entwicklung
00:38:55 Automatisierung schwieriger Bereiche im supply chain
00:41:36 Die Gesellschaft wird reicher durch Jobautomatisierung
00:44:23 Zukunft des Studiums der supply chain Wissenschaft
00:46:54 Übergang zu den Fragen des Publikums
00:50:12 Überdenken der technologischen Roadmap von Lokad
00:52:29 Die Q&A-Session beginnt
00:55:00 Finanzielle Perspektive in supply chain
00:58:46 Frage zu Preisgestaltung und Auswirkungen auf das Ergebnis
01:01:00 LLMs für kleine, alltägliche Probleme und Aufgaben
01:07:17 Allgemeine Intelligenz und Aussterbe-Ereignisse
01:09:49 Auswirkungen der KI auf kleine und mittlere Unternehmen
01:13:02 Vorteile der Automatisierung bei Lokad
01:17:55 Vorhersage von Aussterbe-Ereignissen für Nicht-Adoptierende
01:20:32 Paris als Beispiel für Fortschritt durch Automatisierung
01:22:20 Frage zur erfolgreichen Zusammenarbeit von KI und Mensch
01:26:19 Einschränkungen der hohen menschlichen Intelligenz
01:28:31 Frage zum Einsatz von KI in den supply chains kleiner Länder
01:32:25 KI als Gleichmacher für Entwicklungsländer
01:34:05 Die Einfachheit von Nähmaschinen und deren Einfluss
01:35:31 Evolution, keine Revolution
01:36:19 Abschließende Gedanken

Summary

In einem Gespräch zwischen Conor Doherty und Joannes Vermorel von Lokad prognostiziert Vermorel, dass artificial intelligence (KI) bis 2030 zu einem Massenaussterben der Back-Office-Bürojobs führen wird, viel früher als frühere Vorhersagen. Er führt dies auf den Erfolg der Large Language Models (LLMs) zurück, von denen er glaubt, dass sie alle Back-Office-Jobs betreffen werden, insbesondere in supply chain. Vermorel argumentiert, dass das Ziel die vollständige Automatisierung repetitiver Jobs sein sollte, um erhebliche Produktivitätssteigerungen freizuschalten. Er prognostiziert, dass viele Unternehmen innerhalb weniger Monate beginnen werden, Menschen aus diesen Positionen zu entfernen. Vermorel schlägt vor, dass Aufgaben, die ein hohes Maß an menschlicher Intelligenz erfordern, wie strategische Entscheidungen, nach wie vor die Fähigkeiten der LLMs übersteigen.

Extended Summary

In einem kürzlichen Gespräch zwischen Conor Doherty, Leiter der Kommunikation bei Lokad, und Joannes Vermorel, CEO und Gründer desselben Unternehmens, diskutierten die beiden die Implikationen von Künstlicher Intelligenz (KI) und supply chain optimization. Vermorel äußerte seine Überzeugung, dass KI ein Massenaussterben der Back-Office-Büroangestellten zur Folge haben wird. Er bezog sich auf frühere Prognosen, wonach KI bis 2050 90% der white-collar jobs eliminieren würde, glaubte jedoch, dass dies viel früher geschehen wird, nämlich bis 2030.

Der entscheidende Wendepunkt, so Vermorel, ist der Erfolg der Large Language Models (LLMs), die nahezu alle Back-Office-Bürojobs betreffen werden, insbesondere jene im supply chain. Vermorel gestand, dass er die Revolution der LLMs zunächst verpasst habe und ihr Potenzial erst vor etwa 18 Monaten erkannte, als er begann, mit generativer KI zu arbeiten. Er teilte seine Erfahrungen mit GPT-4, einem Modell von OpenAI, und wie ihm klar wurde, welches produktionsreife Potenzial diese Technologie besitzt. Er erklärte, dass GPT-4 um eine Größenordnung intelligenter ist als GPT-3.5, und dass, sobald man versteht, wie es funktioniert, man es auch an GPT-3.5 anpassen kann.

Vermorel beschrieb LLMs als eine universelle Vorlagemaschine, die unglaublich mächtig und gegen Störungen resilient ist. Er berichtete, dass er die gesamte Roadmap von Lokad vor mehr als einem Jahr neu geschrieben hat und dass sie im letzten Jahr eine Aufgabe nach der anderen automatisiert haben. Er äußerte seine Verwunderung über das enorme Ausmaß dessen, was durch Automatisierung erreicht werden kann, und die Schwierigkeit, Probleme zu finden, die nicht automatisiert werden können. Er erwähnte, dass Lokad den schwierigsten Teil, die quantitativen Entscheidungen, bereits vor einem Jahrzehnt automatisiert hat, und dass der Rest in den letzten 12 Monaten mit Hilfe moderner LLMs automatisiert wurde.

Vermorel erklärte, dass Automatisierung, insbesondere bei sprachlichen Aufgaben, die menschlichen Fähigkeiten und die Intelligenz in Bezug auf Geschwindigkeit und Genauigkeit bereits übertroffen hat. Er gab ein Beispiel, wie Large Language Models (LLMs) gut darin sind, gängige Fehler zu vermeiden, wie die Fehlinterpretation der Farbe im Namen eines Produkts als tatsächliche Farbe des Produkts. Vermorel verglich LLMs mit einem Dienstboten, der mit der Terminologie und dem Fachjargon jeder Branche vertraut ist, was sie einem durchschnittlichen Menschen, der möglicherweise nicht mit spezifischen Fachbegriffen vertraut ist, überlegen macht. Er erklärte, dass die eigentliche Frage darin besteht, was nicht automatisiert werden kann, da bisher alles, was sie ausprobiert haben, funktioniert hat.

Vermorel widersprach der Ansicht, dass KI als Copilot fungieren werde, um Menschen bei Entscheidungen zu unterstützen, und argumentierte, dass das Ziel die vollständige End-to-End-Automatisierung repetitiver Jobs sein sollte, was erhebliche Produktivitätssteigerungen freisetzen kann. Er entgegnete, dass nicht-repetitive Jobs überleben würden, aber viele Aufgaben, die im Tagesablauf nicht repetitiv erscheinen, über das Jahr hinweg tatsächlich repetitiv sind. Er bestätigte, dass der Zeitrahmen für die Automatisierung stark komprimiert sein wird und dass viele Unternehmen bereits schnell in Richtung Automatisierung voranschreiten.

Vermorel erläuterte, dass frühere technologische Revolutionen auf bestimmte Branchen beschränkt waren, während Large Language Models auf fast alle Back-Office-Bürojobs Anwendung finden, insbesondere auf solche im supply chain. Er erklärte, dass der Markt langsamer voranschreiten wird als das Back Office in Bezug auf die Automatisierung, da die Erwartungen des breiteren Publikums das Tempo bestimmen. Er betonte, dass es den Kunden egal sei, ob die Ausführung der Produktion vollständig automatisiert oder von Angestellten durchgeführt wird.

Vermorel prognostizierte, dass die Automatisierung der White-Collar-Jobs eine Überraschung sein wird, wies jedoch darauf hin, dass Blue-Collar-Jobs in den letzten 150 Jahren ähnlichen Veränderungen unterworfen waren. Er nannte als Beispiel die Wasserträger in Paris, ein Beruf, der mit der Einführung der Rohrleitungen ausstarb. Er erörterte, wie die Automatisierung bereits bestimmte Aufgaben überflüssig gemacht hat, wie beispielsweise den Vergleich von Vertragsentwürfen Zeile für Zeile – eine Aufgabe, die heute von Microsoft Word übernommen wird. Er beschrieb das Tempo dieser Veränderungen als allmählich, bis die LLMs eingeführt wurden, was sich anfühlt, als würde man 20 Jahre in die Zukunft gehen – in nur einem Jahr.

Als Antwort auf eine Frage zur Zukunft der supply chain Wissenschaft stellte Vermorel fest, dass die Grundlagen, die in seinen supply chain Vorlesungen vermittelt werden, nicht automatisiert werden können. Er forderte dazu auf, sich auf diese fundamentalen Fragen zu konzentrieren und nicht auf die Nebensächlichkeiten, die von LLMs automatisiert werden. Er fasste zusammen, dass LLMs ein Aussterbe-Ereignis für Back-Office-Unternehmensfunktionen darstellen und prognostizierte, dass viele Unternehmen beginnen werden, Menschen aus diesen Positionen zu entfernen. Er beschrieb dies als einen Prozess, der sich innerhalb weniger Monate vollziehen wird, und forderte zu schnellem Handeln auf.

Als Antwort auf eine Frage, welche Jobtitel obsolet werden könnten, nannte Vermorel Supply and Demand Planner, Inventory Analyst und Category Manager. Er schlug vor, dass Rollen wie Supply Chain Scientist, die sich mit dem Entwerfen von numerical recipes und strategischem Denken befassen, nicht automatisiert werden können. Vermorel erklärte, dass Lokad nicht nur grundlegende Entscheidungen wie Planung, Terminierung, Einkauf, Produktion, Zuteilung und Preisaktualisierungen automatisiert hat, sondern auch die umgebenden Prozesse wie Stammdatenmanagement, Kommunikation sowie Benachrichtigungen an Kunden und Lieferanten.

Als Antwort auf eine Frage zu Ratschlägen für junge Menschen, die in den supply chain Bereich einsteigen, schlug Vermorel vor, sich auf strategisches Verständnis, kritisches Denken und Programmierkenntnisse zu konzentrieren. Er ist der Ansicht, dass LLMs diese Fähigkeiten nicht ersetzen, sondern die Produktivität steigern werden. Vermorel prognostizierte, dass KI-gesteuerte supply chain Lösungen einen ausgeprägteren Effekt auf kleinere Unternehmen haben werden als auf größere. Er erklärte, dass die hohe Produktivität dieser Werkzeuge die Automatisierung für kleine Unternehmen zugänglich macht, sodass sie mit größeren Unternehmen konkurrieren können.

Vermorel teilte mit, dass die Automatisierung bei Lokad die Qualität verbessert und die Produktivität gesteigert hat. Er merkte an, dass es noch zu früh sei, um Auswirkungen auf Abonnentenzahlen und andere Kennzahlen zu sehen, da die Vertriebskreisläufe von enterprise software langsam sind. Er warnte davor, sich auf Zahlen zu verlassen, und führte das Beispiel von Kodaks Versagen an, sich an die digitale Fotografie anzupassen. Er prognostizierte, dass Unternehmen, die ihre Prozesse automatisieren können, agiler und verlässlicher sein werden, während diejenigen, die dies nicht tun, nicht überleben werden. Er verglich dies mit einem Aussterbe-Ereignis.

Vermorel betonte die Wichtigkeit, Menschen von mühseligen Aufgaben zu befreien, um die supply chain und das allgemeine Unternehmenswachstum zu fördern. Er ist davon überzeugt, dass dies den Menschen ermöglicht, strategisch zu denken, ohne von unwichtigen Aufgaben abgelenkt zu werden. Er erklärte, dass die Zusammenarbeit zwischen Mensch und Maschine nicht so verläuft, wie ursprünglich gedacht. Es geht vielmehr darum, Aufgaben vollständig zu automatisieren, wie etwa die Übersetzung der Lokad-Website und die Zeitstempel der Lokad TV-Videos, die nun automatisch durchgeführt werden. Er schlug vor, dass die eigentliche Frage lautet, was nicht automatisiert werden kann.

Vermorel schlug vor, dass Aufgaben, die ein hohes Maß an menschlicher Intelligenz erfordern, wie strategische Entscheidungen und Makrofragen für das Unternehmen, nach wie vor die Fähigkeiten der LLMs übersteigen. Er erklärte, dass LLMs unglaublich zugänglich sind und keine überaus talentierte Belegschaft oder eine hochbandbreitige Internetverbindung erfordern. Er betonte, dass diese Technologie kostengünstig ist und ein großer Gleichmacher für Länder mit begrenzten Ressourcen sein kann.

Vermorel stimmte Conors Vergleich zu und warnte Unternehmen, diese Entwicklung nicht zu verpassen. Er schlug vor, dass Unternehmen, die diese Technologie jetzt nicht adaptieren, in Zukunft möglicherweise nicht aufholen können.

Full Transcript

Conor Doherty: Willkommen bei Lokad Live. Mein Name ist Conor. Ich bin Leiter der Kommunikation bei Lokad. Und im Studio begrüße ich den Gründer von Lokad, Joannes Vermorel. Das heutige Thema könnte das ernsthafteste sein, das wir jemals in der Show hatten. Eine offene, sachliche Diskussion über den aktuellen Stand der KI und supply chain sowie darüber, was dies für die Menschen in diesem Bereich bedeutet. Dies soll eine interaktive Diskussion werden, also wenn Sie Fragen haben, reichen Sie diese bitte im Live-Chat ein, und wir werden so viele wie möglich in der verfügbaren Zeit beantworten. Also, Joannes, lassen Sie uns nicht länger um den heißen Brei herumreden. Warum sind wir hier?

Joannes Vermorel: Ich bin der Meinung, dass wir mit etwas konfrontiert sind, das wahrscheinlich als ein Massenaussterbe-Ereignis für Back-Office-Büroangestellte bezeichnet werden wird. Vor fünf Jahren gab es zahlreiche Berater, die Studien durchführten und sagten, dass KI bis 2050 90% der white-collar jobs eliminieren würde. Die in diesen Berichten herangezogenen Gründe und Technologien waren völlig falsch, und es stellte sich heraus, dass auch der Zeitrahmen völlig falsch war. Aber das Einzige, was stimmte, war die 90%. Und der Zeitrahmen, wie ich ihn jetzt sehe, wird drastisch verkürzt. Es wird nicht 2050 sein, sondern 2030. Was alles veränderte, war der Erfolg der LLMs (Large Language Models). Diese werden nahezu alle Back-Office-Bürojobs betreffen, insbesondere jene im supply chain. Der Wandel kommt super schnell, viel schneller als ich vor 18 Monaten dachte.

Conor Doherty: Sie erwähnten zuvor Berater, die über den Verlauf dieser Evolution oder dieses Aussterbens spekulierten. Was genau geschah letztes Jahr mit dem Aufkommen der LLMs, um diese Entwicklung zu beschleunigen?

Joannes Vermorel: Die eigentliche Revolution fand vor etwa drei Jahren statt. Ich habe sie verpasst. Ich habe erst vor etwa 18 Monaten realisiert, was geschah, als ich begann, mit generativer KI zu experimentieren. Wir führten vor ungefähr eineinhalb Jahren ein Interview darüber. Zu dieser Zeit betrachtete ich diese Technologien. Generative KI gibt es seit 20 Jahren und sie machte jedes Jahr Fortschritte. Ich begann zu realisieren, dass sie für Produktionszwecke genutzt werden könnte, auch wenn es zunächst um kleine Details wie das Erzeugen einiger Illustrationen für Vorlesungen ging.

Dann kamen die LLMs und Chatbots. Sie waren ganz nett, aber ich dachte, sie seien nur ein schickes Gadget. Ich hatte nicht wirklich erkannt, wozu sie verwendet werden könnten. Dann wurde mir das klare Bewusstsein, als ich vor etwas mehr als einem Jahr mit GPT-4, der Beta, arbeitete. Ich erkannte, dass diese Technologie produktionsreif ist. Es gab einen absolut enormen Sprung. Ich erkannte an GPT-4, einem Modell von OpenAI, wie GPT-3.5, das seit mehreren Jahren im Einsatz war, ursprünglich eingesetzt werden sollte. Das Interessante ist, dass es eines zweiten Durchbruchs, GPT-4, bedurfte, damit ich es verstand. GPT-4 ist um eine Größenordnung intelligenter als GPT-3.5.

Aber sobald du anfängst zu verstehen, wie es funktioniert – und es ist mit GPT-4 viel einfacher, weil GPT-4 so viel besser ist – kannst du anpassen, was funktioniert, und es schön und reibungslos gestalten, sodass es auch mit GPT-3.5 funktioniert. Die Erkenntnis war, dass das LLM unglaublich mächtig ist, aber wenn du es für Produktionszwecke, für Konzerne, für Unternehmenszwecke einsetzen möchtest, geht es nicht darum, einen Chatbot zu haben. Das Interessante ist, dass du eine universelle Vorlagemaschine hast. Das ist wirklich unglaublich. Sie ist sehr widerstandsfähig gegen Störungen. Vor etwas mehr als einem Jahr wurde mir klar, dass sie produktionsreif war. Wir hatten etwas verpasst, das vor 18 Monaten ein absolut bahnbrechender Durchbruch war. Ich habe vor mehr als einem Jahr die gesamte Roadmap von Lokad neu geschrieben. Im letzten Jahr haben wir quasi alles hektisch aufgerüstet. Wir waren bezüglich der Kommunikation darüber ziemlich zurückhaltend, aber in den letzten 12 Monaten haben wir das eine nach dem anderen automatisiert. Dinge, die vor einigen Jahren fast unmöglich zu automatisieren schienen, wurden automatisiert.

Wenn ich mir Jobs in supply chains anschaue, sehe ich, dass das Ausmaß dessen, was als vollständig robotisiert geliefert werden kann, einfach atemberaubend ist. Heutzutage ist es sogar schwer, Probleme zu finden, die man nicht automatisieren kann. Früher war es eine Herausforderung, jede einzelne Aufgabe zu automatisieren. Bei Lokad haben wir vor einem Jahrzehnt den schwierigsten Teil – jene quantitativen Entscheidungen – automatisiert. Diese quantitativen Entscheidungen bestanden darin, herauszufinden, wie viele Einheiten gekauft oder produziert werden sollten oder ob der Preis erhöht oder gesenkt werden sollte. Diese quantitativen Antworten wurden bereits vor einem Jahrzehnt automatisiert. Aber was in den letzten 12 Monaten geschah, war all der Rest. All der Rest wurde mit diesen modernen LLMs günstig, super schnell und einfach.

Conor Doherty: Ich möchte das nicht verkehrt herum darstellen, denn die nächste Frage wäre wahrscheinlich: “Nun, welche Jobs werden verschwinden?” Aber eigentlich möchte ich einen Schritt zurückgehen. Wie du vor einem Jahr explizit gesagt hast, saßen wir hier und du hast GPT-3.5 als BS-Künstler bezeichnet und es mit einer Katze verglichen. Also, die Frage lautet: Was genau hat dich, als du dieses Schwindelgefühl beschrieben hast, dazu bewogen, von “es ist eine Katze” zu “wir befinden uns in einem Aussterbeereignis” zu wechseln?

Joannes Vermorel: Es ist immer noch ziemlich dumm, aber es ist nicht das, was du willst. Tatsache ist, dass es bei LLMs nicht darum geht, eine intelligente Diskussion zu führen. Es ist schön, und GPT-4 geht in diese Richtung ziemlich weit. Das war ziemlich beeindruckend. Aber wieder liegt die Stärke in diesen universellen Vorlagemaschinen, die ich beschrieben habe. Nehmen wir ein Beispiel: Du möchtest eine Bestellung an einen Lieferanten übermitteln und stellst fest, dass du nicht den MOQ hast. Du solltest dem Lieferanten eine E-Mail schicken mit der Frage: “Übrigens, was ist bei diesen Produkten dein MOQ, deine Mindestbestellmenge? Gib mir die Zahl.” Dann wird die Person antworten und du musst diesen Wert nur irgendwo in dein System einpflegen, damit du das berechnen kannst. Dies ist ein Teil des Entscheidungsprozesses.

Lokad automatisierte das. Was wir taten, war: Wenn wir den MOQ kennen, geben wir dir zusammen mit allerlei anderen Daten die korrekte Antwort, wie viel du kaufen solltest. Aber den MOQ-Wert selbst zu erhalten, war wie ein Telefonat, bei dem man sich fragt: Wie geht man damit um? Es ist kein schwieriges Problem. Du kannst sicherlich ein automatisiertes System erschaffen, bei dem du eine E-Mail-Vorlage hast und dann die Antwort übermitteln musst – was knifflig ist, denn der Lieferant könnte etwas antworten, das dir quasi zwei MOQs liefert. Für dieses Produkt ist es der eine, für jenes ist es etwas anderes. Wie geht man damit um? Grundsätzlich ist das kein schweres Problem. Es ist keine ausgeklügelte Berechnung. Aber das war gewiss etwas, das uns daran hinderte, den gesamten Prozess von Anfang bis Ende zu robotisieren.

Wir konnten den Entscheidungsfindungsteil automatisieren, aber nicht die komplette Durchführung der Entscheidung – unter Berücksichtigung dessen, was vor und nach diesem Entscheidungsprozess geschehen muss. Jetzt, mit den LLMs, bei denen du diese universellen Vorlagemaschinen hast, kannst du, wenn du eine E-Mail erhältst, in der etwa gefragt wird, was der vom Lieferanten gemeldete MOQ war, bla bla bla, all diese Dinge buchstäblich super, super schnell automatisieren.

Wenn du also GPT, ein LLM, bittest, sich Dinge auszudenken, werden sie halluzinieren. Das tun sie. Aber setzt du sie richtig ein – sprich, du gibst einen Input, bittest um eine Transformation und erhältst die daraus extrahierte Information –, dann erhältst du etwas, das unglaublich robust und produktionsreif ist. Es stellt sich außerdem heraus, dass Back-Office-Mitarbeiter, weiße-Kragen-Mitarbeiter, einen Großteil ihrer Zeit damit verbringen, hier und da kleine Informationshäppchen abzurufen und ein wenig mit ihrer Umgebung zu plaudern. Und nun hast du eine universelle Maschine, um all das zu automatisieren – es ist sehr, sehr unkompliziert und günstig.

Conor Doherty: Um das bisher Gesagte zusammenzufassen – und nochmals, Lokad macht das seit Jahren –, wurde der eher quantitative Entscheidungsfindungsaspekt bereits mithilfe anderer Formen von KI automatisiert. Heute sprichst du von den eher qualitativen zwischenmenschlichen Elementen, die ebenfalls der Automatisierung durch LLMs unterliegen.

Joannes Vermorel: Ja, stell dir einfach vor, du möchtest deine Bestellungen übermitteln. Es geht darum, die Menge zu berechnen – das macht Lokad nun seit mehr als einem Jahrzehnt. Aber dann gibt es all die kleinen Dinge, die passieren müssen. Was, wenn es zwei Produkte gibt, die Duplikate sind? Also, du hast quasi zwei Produkte, es ist doppelt derselbe Artikel. Wie gehst du damit um? Früher war die Antwort darauf kompliziert. Du konntest ein wenig Machine Learning und etwas spezialisiertes NLP, also Natural Language Processing-Techniken, einsetzen, um deinen Katalog automatisch zu de-duplicaten. Ja, früher hat es beispielsweise 50 Stunden Softwareentwicklung gebraucht, um etwas Funktionierendes zu erhalten.

Jetzt, mit LLM, ist diese Duplizierung, von der ich spreche, buchstäblich 20 Minuten Arbeit, und dann hast du eine produktionsreife Lösung, um zu de-duplizieren. So siehst du, das Ausmaß davon ist absolut atemberaubend. Und es gibt all die kleinen Dinge, die im Weg waren – und deshalb brauchen Unternehmen all diese Leute, denn es ist nicht das große Problem, das viel Zeit in Anspruch nimmt. Das große Problem, wie z. B. die Berechnung der Menge, war bereits irgendwie mechanisiert, aber es waren die kleinen, super alltäglichen Probleme – kleine Datenqualitätsprobleme, duplizierte Elemente, ein fehlender Datenpunkt wie ein MOQ.

Wenn ein Lieferant verspätet ist, möchtest du eine E-Mail verschicken, um eine überarbeitete geschätzte Ankunftszeit zu erhalten, und dann die Antwort bekommen. Solche Dinge sind nicht super kompliziert, aber bisher war es zwar schon möglich, sie zu automatisieren, doch jede einzelne Frage und jede Mikroaufgabe kostete etwa 50 Stunden Entwicklung, um sie zu lösen – und das ist viel, denn wenn du etwa 100 davon hast, sprechen wir von Tausenden von Mannstunden, und am Ende hast du ein Projekt, dessen Verwaltungskosten, wie ich in den Vorlesungen diskutierte, nicht linear, sondern super linear steigen.

Wenn du also die Komplexität verdoppelst, vervielfachst du die Wartungskosten in der Regel nicht um das Doppelte, sondern um das Vierfache. Indem du all diese Dinge hinzufügst, erschaffst du quasi eine monströse Software, die sehr schwer zu verwalten, zu aktualisieren und zu erweitern ist. Wenn du als Baustein LLMs hast, bei denen diese Aufgaben zentralisiert werden, dann können nicht nur diese Aufgaben in etwa 20 Minuten gelöst werden, sondern wächst auch die Gesamtkomplexität deines Softwareprodukts viel langsamer als früher – denn es bleibt stets ein sehr, sehr einfaches Produkt. Und es ist derselbe Trick, dass dieses LLM bei jedem Schritt benutzt wird, um all diese kleinen Stolpersteine aus dem Weg zu räumen.

Conor Doherty: Wie groß ist das dann, wenn du von einem Aussterbeereignis sprichst? Kannst du die Implikationen erläutern?

Joannes Vermorel: Ich arbeite schon eine Weile mit LLMs und wir automatisieren Aufgaben hier und da. Ich sehe, dass auch andere Unternehmen das tun, besonders wenn es um sprachliche Aufgaben geht – wie das Umordnen von Informationen, das Zusammenfassen von Informationen, das Extrahieren von Informationen aus einer E-Mail und so weiter. Das Unglaubliche ist, dass wir bereits über menschliche Fähigkeiten, über menschliche Intelligenz hinaus sind.

Wenn ich sage, dass es über menschlicher Intelligenz liegt, meine ich, dass dies in einem begrenzten Zeitraum geschieht. Wenn ich dir eine E-Mail als Input gebe und dich bitte, in 20 Sekunden die wichtigsten Informationen herauszufiltern, wirst du als Mensch manchmal Fehler machen. Wenn ich dir tausend E-Mails gebe und dich bitte, von jeder in 20–30 Sekunden die Schlüsselinformationen zu extrahieren, wirst du vielleicht eine Trefferquote von 98 % erzielen, und manchmal wirst du Fehler machen.

Die LLMs hingegen schaffen das nicht nur in einer Sekunde statt in 30 Sekunden, sondern ihre Genauigkeit liegt weit über dem, was eine durchschnittliche Person leisten würde – selbst jemand mit Training. Deshalb sage ich, dass wir buchstäblich über dem Menschen stehen.

Bei vielem, wie zum Beispiel dem Vermeiden von Anfängerfehlern, sind LLMs unglaublich gut. Wenn beispielsweise eine Farbe im Namen eines Produkts vorkommt, heißt das vielleicht nicht, dass das Produkt tatsächlich diese Farbe hat. Vielleicht dient sie als Instrument zur Überprüfung, und die im Namen angegebene Farbe hat nichts mit der tatsächlichen Farbe des Produkts zu tun. Genau in solchen Fällen sind LLMs tatsächlich unglaublich gut.

Es ist, als hätte man einen Diener, der mit der Terminologie und dem Fachjargon nahezu jeder existierenden Branche bestens vertraut ist. Plötzlich hast du also etwas, das ein wenig übermenschlich ist, denn wenn du eine zufällige Person nimmst, ist diese nicht von Natur aus mit den spezifischen Fachbegriffen deiner Branche vertraut, und es dauert vermutlich Monate, wenn nicht Jahre, bis sie aus Unwissenheit Fehler macht, weil sie nicht weiß, dass ein bestimmter Begriff irreführend ist – zum Beispiel, dass ein Begriff eine Farbe bezeichnet, in diesem Kontext aber nicht auf eine Farbe verweist, sondern eher ein Merkmal des Produkts beschreibt. Und die Beispiele hören gar nicht auf.

Und bei Lokad haben wir buchstäblich Unmengen an Dingen mechanisiert, und die eigentliche Frage lautet: “Was können wir nicht automatisieren?” Und das ist eine schwierige Frage, denn bisher hat so ziemlich alles, was wir ausprobiert haben, direkt aus der Schachtel funktioniert. Das Erstaunliche daran ist, dass, sobald man ein wenig versteht, wofür diese LLMs gut sind, man so unglaublich viel automatisieren kann.

Conor Doherty: Um die Position eines potenziellen Zweiflers einzunehmen: Wenn man weiße-Kragen- und blaue-Kragen-Jobs gegenüberstellt, wurde jahrzehntelang darüber gesprochen, wie Roboter, Maschinen und andere Formen der Technologie den Mechanikern die Werkzeuge entreißen würden. Doch in vielen Bereichen, wie im MRO, gibt es Regionen auf der Welt, in denen ein kritischer shortage an Technikern für die Wartung von Flugzeugen herrscht. Dieses Aussterbeereignis war falsch. Wie zuversichtlich bist du in dem, was du heute sagst, im Lichte ähnlicher Proklamationen, die bereits gemacht wurden? Was macht dich so sicher?

Joannes Vermorel: Also, was mich erstens selbstbewusst und sicher macht, ist, dass wir das seit einem Jahr tun – buchstäblich. Um dir ein Beispiel für das zu geben, was wir bei Lokad mechanisiert haben: RFPs, also Anfragen für Angebote. Wir erhalten gigantische Excel-Dokumente von großen Unternehmen mit einer unglaublichen Anzahl von Fragen, sagen wir mal 600 Fragen. Und Anfang dieses Jahres – ich glaube, es war im Mai oder so – sagte ich: “Okay, wir haben wieder einen 600-Fragen-RFP. Es dauert buchstäblich eine Woche, 10 Tage, ganze Tage, um das alles zu beantworten. Ich meine, es ist so mühsam, diese massiven Dokumente durchzugehen.” Entschuldigung.

Und dann habe ich beschlossen: “Okay, ich werde das einfach mechanisieren und die gesamte Wissensbasis, die wir bei Lokad bereits hatten, wiederverwenden, um eine Anrufbeantwortungsmaschine zu erstellen.” Weißt du, eine Anrufbeantwortungsmaschine. Also, wir hatten bereits die Dokumente, wir hatten bereits Unmengen von Informationen, und die Aufgabe der Maschine war einfach: “Schreibe eine Antwort auf die Frage, genau so wie Lokad es tun würde. Verwende die vorhandene Wissensbasis. Und wenn es eine Lücke in der Wissensbasis gibt, antworte einfach ‘fail’, und dann erledigen wir es manuell.”

Und buchstäblich: Einen RFP zu bearbeiten, dauerte mehr als eine Woche, und die Automatisierung des RFPs hat mich eine Woche gekostet. Also, als ich die Roboter entwickelt hatte, hatte ich bereits einen positiven Return on Investment. Weißt du, als ich die Automatisierung abschloss, generierte ich die Antworten neu – und bei weniger als 10 % der Fragen musste ich sie noch manuell bearbeiten und die Wissensbasis von Lokad erweitern.

Aber das Interessante war, als wir unsere Antworten einreichten – das System online, diesen Einreichungsprozess: Du reichst ein, und dann hast du, sagen wir, 600 Fragen, und du bekommst eine automatisierte Antwort, die auf deinen Antworten und den angekreuzten Feldern basiert. Dann wurden 100 weitere Fragen generiert. Und so haben wir uns erneut beworben. Wir dachten also: Oh, wir haben 600 Fragen erledigt.

Übrigens, am Ende umfassten die Antworten mehr als 100 Seiten – also ein sehr, sehr langes Dokument, das eingereicht werden musste. Und dann reichst du das ein, und das System, das den RFP-Prozess verwaltet, kommt mit 100 weiteren Fragen auf dich zurück. Und wieder haben wir die Tools wiederverwendet, und innerhalb weniger Stunden waren wir endlich fertig. Seitdem nutzen wir dieses Tool für alle RFPs – und das ist nur ein Beispiel unter buchstäblich Dutzenden.

Conor Doherty: Es gibt jedoch Unternehmen, die eine ganz andere Einstellung als deine haben. Sie glauben, dass generative KI – die großen Sprachmodelle, die wir hier beschreiben – im Grunde zu einer Art Co-Pilot für die aktuell in diesem Bereich Tätigen werden, wie demand planners und supply chain practitioners. Sie glauben, dass du nicht von der KI ersetzt wirst, sondern dass sie dich unterstützt, dass sie ein Co-Pilot ist, der dir hilft, alle Entscheidungen zu treffen – sowohl quantitative als auch qualitative –, von denen du sagst, dass sie verschwinden werden. Warum ist das falsch?

Joannes Vermorel: Also, das waren übrigens genau die Dinge, die ich mir vor meiner Erkenntnis – vor 18 Monaten – vorgestellt habe. Wenn du so denkst, nein, LLMs werden totaler Mist sein. Sie werden ein Gadget sein, und du verpasst dabei völlig den Kern der Sache. Warum? Äh, also: Wenn du erst einmal eine konversationelle Benutzeroberfläche hast, ist das ein Spielzeug. Es ist nicht – ich meine, es ist schön, GPT als Ersatz für deine Suchmaschine zu haben, wo okay, das ist in Ordnung. Aber wenn du einen sich wiederholenden Job machen willst, dann möchtest du einfach eine vollständige End-to-End-Automatisierung.

Also, in diesem Fall muss LLM ein programmatischer Bestandteil deiner Software werden. Und, wie ich bereits sagte, lasst uns zurück zu dieser automatisierten RFP-Antwortmaschine gehen. Das Ziel ist nicht, einen Co-Piloten zu haben, der mit uns plaudert, um dieses 600-Fragen-RFP zu beantworten. Was wir wollten, war eine Maschine, die das Dokument einliest und alle Fragen ausspuckt und damit fertig ist, verstehst du. Und einfach nur eine kurze Liste von Fragen zu haben, bei der die FAQ erweitert werden muss, und dann ist es erledigt, verstehst du. Es geht nicht darum, einen Co-Piloten zu haben, mit dem man interagieren kann und so weiter. Das ist völlige Zeitverschwendung. Das ist nicht, worum es bei Automatisierung, wahrer Automatisierung, geht.

Und so, meiner Meinung nach, denken die Leute, die so denken, nicht klar. Sie denken nur in inkrementellen Begriffen. Sie denken nur daran, eine neue Technologie hinzuzufügen, um die Art und Weise, wie es gemacht wird, ein wenig zu verbessern, anstatt völlig neu zu überdenken, wie es gemacht wird, und dabei eine 100-fache Produktivitätssteigerung freizuschalten.

Conor Doherty: Welche Jobs denkst du konkret würden das Aussterbevent überleben, das du beschreibst? Was bleibt übrig, wenn das Quantitative weg ist, das Qualitative weg ist und alles automatisiert wurde?

Joannes Vermorel: Also, was übrig bleibt, ist alles, was streng nicht-repetitiv ist, okay. Aber auf hohem Niveau – denn siehst du, wenn man einen Back Office-Mitarbeiter, weißt du, einen White-Collar-Arbeiter betrachtet, würden die Leute sagen: “Oh, es ist nicht repetitiv. Schau, ich muss dort eine E-Mail senden, ich muss einen Kollegen fragen, ich muss viele Dinge tun, die ein wenig heterogen sind.” Ja, aber im Laufe eines Jahres wiederholt sich immer dasselbe, immer und immer wieder. Und in der Vergangenheit – übrigens, das war immer absehbar – meine ich, in den letzten vier Jahrzehnten war die Softwareindustrie, und ich war immer überzeugt, dass es nicht die Frage des Ob war, sondern nur die Frage des Wann, dass all dieser langweilige Kram automatisiert würde.

Und schon in den 80er Jahren gab es mehrere AI-Winter, in denen die Leute grandiose Behauptungen aufstellten und es mit Expertensystemen, mit Data Mining nicht klappte. Also waren Expertensysteme Ende der 80er, Anfang der 90er, Data Mining war im Jahr 2000 usw. Es gab sozusagen eine Reihe von Wellen, aber der Unterschied ist, dass jetzt etwas funktioniert. Ich meine, es funktioniert, und buchstäblich – Lokad befindet sich ein Jahr voraus – haben wir Dinge automatisiert, von denen ich nicht gedacht hätte, dass sie so einfach und so schnell zu bewerkstelligen sind. Und ich habe auch gesehen, dass andere Unternehmen das ebenso tun, und das Endergebnis ist absolut unglaublich, und es funktioniert. Und außerdem funktioniert es, würde ich sagen, ohne allzu viel spezielles Fachwissen oder technischen Overhead. Diese Technologien, also auch LLMs, sind sehr unkompliziert zu übernehmen.

Conor Doherty: Ich möchte nur eine Phrase klarstellen, die du gerade gesagt hast. Du hast erwähnt, dass du so viele Unternehmen das machen siehst. Willst du damit sagen, dass hinter den Kulissen so etwas bereits geschieht?

Joannes Vermorel: Ja, und deshalb glaube ich, dass der Zeitrahmen sehr komprimiert sein wird. Deshalb sagte ich 2030 für das Endspiel, nicht 2050. Einige Unternehmen bewegen sich bereits mit Höchstgeschwindigkeit in diese Richtung. Wenn du den Nachrichten folgst, wirst du sehen, dass einige Unternehmen ankündigen, dass etwa 5.000 Leute hier und da entlassen werden. Das passiert sehr schnell, und das Tempo des Marktes wird nicht durch die Geschwindigkeit des üblichen Unternehmens oder des Durchschnittsunternehmens bestimmt, sondern durch das Schnellste. Denn, siehst du, die Einsparungen sind so enorm, dass, wenn du zu spät kommst, dieser technologische Wandel dich zu Fall bringt.

Und ich glaube, dass AI weniger bedeutsam in Bezug auf technologische Errungenschaften ist als das Internet selbst. Du weißt schon, das Internet selbst ist größer. Aber hinsichtlich der Wettbewerbsfähigkeit hat es etwa zwei Jahrzehnte gedauert, bis das Internet etabliert war. Es war ein langsamer Prozess: die Kabel verlegen, überall eine schnelle, zuverlässige Internetverbindung herstellen, alles schrittweise aktualisieren, das Betriebssystem, das Beste aus E-Mail herausholen usw.

Es war also ein langsamer Prozess, bei dem selbst wenn du ein Nachzügler warst, nicht sofortige Produktivitätsgewinne erkennbar waren. Wenn du also zu spät zur Internet-Party gekommen bist und anstatt E-Mail 1995 zu nutzen, erst 2002 E-Mail eingeführt hast, warst du sieben Jahre zu spät – aber das war irgendwie noch in Ordnung. Deine Wettbewerber hatten dank des Internets ihre Kosten nicht um den Faktor 10 gesenkt.

Und übrigens, das Internet schuf auch viele Bürokratien, weil man viel Systemadministration benötigte. Es brachte einen Haufen Probleme mit sich. Es dauerte buchstäblich zwei Jahrzehnte, bis Unternehmen das verarbeiten und wirklich besser damit umgehen konnten. Der Unterschied hier besteht darin, dass es nur Monate dauert, um besser damit zu werden. Und man kann den Personalaufwand, den man für viele Aufgaben benötigt, drastisch reduzieren – und ich würde sagen, praktisch jede einzelne Back Office-Aufgabe, wobei supply chain eine davon ist – in Monaten. Und da wird es, glaube ich, diesmal ganz anders sein.

Conor Doherty: Als du sagtest, es gibt verschiedene Abteilungen, beziehst du IT nicht mit ein, du konzentrierst dich spezifisch auf supply chain-zentrierte Aktivitäten?

Joannes Vermorel: Jede Abteilung braucht eine eigene Diskussion. Die IT wird in weiten Teilen schwerer zu automatisieren sein. Erstens, weil das Robotisieren des Sysadmins allerlei potenzielle Sicherheitsprobleme mit sich bringt. Es wird schwierig werden. Es wird kommen, aber ich vermute, es wird länger dauern. Und die meisten Entscheidungen, die von der IT getroffen werden, sind bereits ziemlich kompliziert. Daher würde ich sagen, dass ich für die IT Produktivitätsgewinne in der Größenordnung von 50 % erwarte. Und hier wird es die Art von Co-Pilot sein. Übrigens, das ist es, was bei Lokad passiert.

Nun, du hast eine Frage zu etwas wie einer obskuren Software. Früher hast du eine halbe Stunde im Internet verbracht, um sozusagen die technische Dokumentation des Anbieters zu durchdringen. Jetzt kannst du das mit ChatGPT viel schneller machen. In Ordnung, das ist die Art von Co-Pilot-Assistent, von der wir sprechen. Ja, das wird bei der IT der Fall sein. Aber ich glaube, für andere Funktionen kann es viel schneller und in einem weitaus größeren Maßstab erfolgen.

Conor Doherty: Im Grunde klingt es also so, als wäre der ROI für die Nutzung der Technologie jetzt der Unterschied zwischen tatsächlich eine Rendite zu erzielen und im Grunde auszusterben.

Joannes Vermorel: Ja, genau. Ich denke, es ist eine Art radikaler technologischer Wandel. Ich glaube, es ist wirklich ein Fehler, nur an den ROI zu denken, denn der ROI ist so enorm, dass, wenn du die Wende verpasst, deine Konkurrenten dich auslöschen werden. Also, verstehst du, hör auf zu denken. Stell dir vor, du bist in der Bekleidungsindustrie und jemand hat gerade die Nähmaschine erfunden. Früher gab es Leute, die mit Nadeln arbeiteten und Bekleidung herstellten, und sie brauchten etwa drei Tage, um ein Hemd zu nähen. Und dann erfindet jemand die Nähmaschine, und er näht ein Hemd in 5 Minuten. Das ist der Unterschied im Maßstab. Also, was ist der ROI der Nähmaschine? Die Antwort ist: Entweder du hast eine Nähmaschine oder du bist außer Geschäft. So ist das.

Conor Doherty: Du hast zuvor bei Lokad TV Beispiele über Kodak genannt. Du hast ausdrücklich Kodak erwähnt. Sie erfanden die Digitalkamera, nahmen sie nicht an und gingen pleite.

Joannes Vermorel: Ja, und die Sache war, dass diese Revolutionen irgendwie auf einen Bereich beschränkt waren. Weißt du, es gab die Digitalkamera, ja, viele – ich meine, 90 % der Akteure in diesem Markt für analoge Fotoausrüstung gingen einfach pleite. Aber wiederum war das so etwas wie ein vertikales Ereignis. Es war ein Aussterbeevent, aber auf einen bestimmten Bereich begrenzt.

Nun, das Interessante an LLMs ist, dass sie buchstäblich auf fast alle White-Collar-Jobs zutreffen, genauer gesagt auf die Back Office-Jobs. Denn, siehst du, im Front Office, wenn du mit jemandem sprichst, wenn du diesen persönlichen Touch benötigst und so weiter, selbst wenn du es theoretisch mechanisieren könntest, ist nicht klar, ob der Markt dazu bereit ist.

Beispielsweise war es bei Amazon, sagen wir im Jahr 2000, technisch möglich, Möbel online zu kaufen. Aber die Leute waren noch nicht bereit. E-Commerce war damals noch nicht so sehr vertraut, um einen 3.000-Dollar-Sofa online zu kaufen. Es dauerte ein Jahrzehnt, bis sich das änderte. Also, ein Jahrzehnt später ist es nun ein fester Bestandteil – ich würde sagen, ja, die Leute sagen: Ja, man kann ein Sofa online kaufen. Man kann sogar ein Auto online kaufen. Es ist Teil der Kultur geworden.

Technisch hättest du im Jahr 2000 Autos und Möbel online verkaufen können. Es war kein technisches Problem. Es war eher die Frage, ob die Leute dazu bereit sind oder ob es Zeit braucht. Daher würde ich sagen, im Front Office wird es ein wenig langsamer vorangehen, denn selbst wenn du robotisieren könntest – so wie Amazon im Jahr 2000 Möbel hätte verkaufen können – hat dieser Bereich erst ein Jahrzehnt später richtig Fahrt aufgenommen.

Ich würde sagen, der Markt wird sich langsamer bewegen, weil du dich dem Tempo der Erwartungen der breiteren Öffentlichkeit anpassen wirst. Also, es wird etwas langsamer sein. Aber im Back Office gibt es absolut keine solche Grenze. Es ist niemandem die geringste Sache, ob deine Produktion und dein Produktionsplan vollständig robotisiert sind oder ob du dafür eine Armee von Angestellten hast. Deine Kunden kümmern sich nicht darum – niemand, außer intern.

Conor Doherty: Außer den Angestellten, von denen du sagst, dass sie überflüssig gemacht werden?

Joannes Vermorel: Nochmals, Lokad war nicht derjenige, der LLM erfunden hat. Es wurde von anderen Leuten gemacht. Ich denke, es wurde von Leuten wie OpenAI erfunden. Sie haben das in Angriff genommen, ohne zu wissen, was sie taten – übrigens. Es ist sehr amüsant, denn es gab Interviews mit Sam Altman, der jetzt sagt: “Naja, wenn wir es gewusst hätten, hätten wir OpenAI nicht als Nonprofit gegründet. Wir hätten nicht jeden einzelnen Trick veröffentlicht, den wir auf dem Weg entdeckt haben.”

Also, siehst du, sie waren wirklich von dieser Idee eines LLM begeistert. Es war einfach eine Fortsetzung einer Sequenz. Du hast ein Stück Text und du setzt es fort. Ich denke, ich werde darüber einen Vortrag halten. Es gab eine Reihe von Innovationen, die das LLM wirklich zu – würde ich sagen – dem technologischen Wunder unserer Zeit gemacht haben. Aber letzten Endes war es, glaube ich, selbst für die Unternehmen, die es erfunden haben, unerwartet. Die Transformer-Architektur stammt von Google, aber Google war nicht derjenige, der das erschlossen hat – das war ein anderes Unternehmen. Letztendlich war es ein kleines Missgeschick. Offensichtlich ergaben sich Chancen für Menschen, die gut vorbereitet waren. Es gab Leute, die wirklich danach suchten, sehr kluge Dinge taten und in die richtige Richtung schauten. Aber die Konsequenzen waren unglaublich überraschend.

Es ist sehr interessant, denn selbst AI-Forscher, wie zum Beispiel Yann LeCun bei Facebook, sind sehr skeptisch gegenüber der Leistungsfähigkeit von LLM. Meine eigenen Erfahrungen mit ihrer Nutzung zeigen, dass es wirklich greifbar ist. Das ist also sehr interessant. Es war eine solche Überraschung, dass selbst die Menschen, die das Feld vorangetrieben haben, nicht das Wahrzeichen erkennen, das sie darstellen.

Conor Doherty: Es lohnt sich, hier einen Punkt anzumerken, denn um einen Meta-Kommentar abzugeben: Lokads Rolle dabei ist nur die des Beobachters. Wie du beschrieben hast, nutzen wir beide Seiten der AI, sowohl für das Quantitative als auch für das Qualitative.

Joannes Vermorel: Lokad betreibt keine Forschung zur Verbesserung von LMS. Es ist ein hochspezialisiertes Thema, und es gibt Unternehmen, die das sehr gut machen.

In Frankreich haben wir zum Beispiel Mistral AI, ein sehr starkes Team, das daran arbeitet, und sie konkurrieren nun mit OpenAI. Also ja, gut – ich möchte, dass es viel Wettbewerb in diesem Bereich gibt. Aber für Lokad hat das viele Konsequenzen. Wir haben den schwierigen Teil im supply chain automatisiert, die quantitativen Entscheidungen: Prognosen, Bestellungen, Zuteilung, Preisgestaltung – all den quantitativen Kram. Aber jetzt geht es um die End-to-End-Ausführung davon, mit all den kleinen Dingen, die du vorher erledigen musst, also das Beschaffen der fehlenden Informationsschnipsel, wenn einige Informationen fehlen, musst du sie nachschlagen, entweder eine E-Mail senden oder online nachsehen usw. – viele Kleinstaufgaben.

In der Vergangenheit sagten wir zu Kunden: “Wenn du dieses Problem hast, bitte mach es.” Wir konnten das automatisieren – und manchmal taten wir es auch – aber es war irgendwie teuer. Jetzt können wir das wirklich robotisieren, und ebenso die Dinge, die nach der Entscheidung passieren, wie zum Beispiel die Nachverfolgung bei Lieferanten, das Nachfassen bei kleinen Problemen und so weiter – all dieser alltägliche, repetitive Kram kann ebenfalls robotisiert werden.

Da es bereits verfügbar ist, können wir es uns nicht leisten, es nicht zu tun. Das fordern unsere sehr dringenden Kunden von uns. Denn nochmals: Wenn du eine Nähmaschine hast, ist es keine Option, sie nicht zu benutzen. Man kann nicht einfach sagen: “Weißt du was, wir tun so, als hätten wir noch nie von Nähmaschinen gehört und nähen weiterhin Hemden mit Nadeln.” Nein, du musst sie nutzen.

Conor Doherty: Du redest davon – es geht um Überleben auf allen Ebenen. Es betrifft Arbeitnehmer, Unternehmen, die gesamte Branche, den Marktsektor, alles. Was automatisiert werden kann, wird automatisiert werden.

Joannes Vermorel: Ja, und übrigens wird das, denke ich, eine Überraschung für die White-Collar-Mitarbeiter sein. Aber wenn du dir die Blue-Collar-Bereiche in den letzten 150 Jahren anschaust, so gingen sie von einer Revolution zur nächsten. Die Einführung der Elektrizität war ein Massenaussterbeevent. Es gab etwa tausend verschiedene Bereiche, die plötzlich automatisiert wurden. Vor 150 Jahren in Paris war der häufigste Job – fast etwa 10 % der Bevölkerung – das Wassertragen. Etwa 10 % der Leute hatten Eimer und trugen Wasser, und das war der Spitzenjob, der dann ausstarb.

Also, offensichtlich ist die positive Seite, dass jedes Mal, wenn man diese Jobs eliminiert, die Gesellschaft als Ganzes reicher wird, weil das bedeutet, dass die Menschen Tätigkeiten nachgehen, die interessanter und wertvoller sind, und sich die Dinge von selbst regeln. Die Dinge werden sich, wie in den vergangenen 150 Jahren bei allen industriellen Revolutionen, von selbst regeln. Das Einzige, was überraschend ist, ist, dass es eine Gruppe von Menschen betrifft – nämlich die White-Collar-Jobs –, die bisher relativ, und ich sage relativ, geschützt waren. Und nun – naja, es ist hier einfach passiert, aber du weißt schon, es wird wieder geschehen.

Conor Doherty: Man muss nicht mal 150 Jahre zurückgehen. Ich meine, in den letzten Jahrzehnten haben die meisten Menschen in bestimmten Bereichen ein paar Aussterbeevents erlebt, wie zum Beispiel dass VHS durch DVDs obsolet wurde oder E-Mail das Faxgerät überflüssig machte.

Joannes Vermorel: Zum Beispiel, meine Eltern, die bei Procter & Gamble angefangen haben – das ist mehr als 40 Jahre her – aber was sie taten, als sie mir als Berufseinsteiger erzählten, war, dass eine der Aufgaben, die sie übernahmen – und das war die Aufgabe einer Person – darin bestand, dass sie bei Vertragsverhandlungen einen jungen Mitarbeiter heranzogen, der dann Zeile für Zeile die beiden Dokumente verglich: den Entwurf und das Gegenangebot deines Lieferanten, Partners oder was auch immer, und einfach mit einem Stift die Abschnitte markierte, in denen es Unterschiede gab. Und das hätte Stunden gedauert.

Und so bezahlten sie viele Leute nur, um den Unterschied zu finden. Und jetzt, wo Microsoft Word einfach einen Dokumentenvergleich durchführt oder du Änderungen nachverfolgst, ist es erledigt. Also buchstäblich gibt es einige Aufgaben, die bereits ausgestorben sind. Aber das geschah, würde ich sagen, allmählich. Das Entscheidende war, dass diese Dinge in einem langsamen Tempo stattfanden. Das Interessante an LLMs ist, dass es ein ziemlicher Schritt ist – und zwar ein Schritt, bei dem wir im wahrsten Sinne des Wortes in nur einem Jahr 20 Jahre in die Zukunft gegangen sind. So fühlt es sich an, nachdem diese Technologien im letzten Jahr in Produktion gingen.

Conor Doherty: Lokad arbeitet oft mit Universitäten zusammen, um Menschen auszubilden, die in die supply chain einsteigen. Bedeutet das, dass wir das alles einfach aufgeben werden? Ist es Zeitverschwendung, supply chain science zu studieren, weil sie weggeht?

Joannes Vermorel: Nein, das glaube ich nicht. Was wir lehren, sind nicht die alltäglichen Aufgaben, etwa wie man eine E-Mail an einen Lieferanten sendet, um die neueste MOQ zu erhalten. Wenn man sich den Inhalt der Vorlesung anschaut, geht es vielmehr darum, die Kosten in Dollar eines Fehlbestands zu verstehen und darüber nachzudenken.

Wenn du eine Antwort von Chat GPT möchtest, wird es unsinnige Halluzinationen produzieren. Selbst wenn es GPT-4 ist, sind wir noch nicht so weit. Die Art von Dingen, die ich in den Vorlesungen anspreche, sind nicht die, die automatisiert werden. Aber wenn ich mir supply chain-Unternehmen anschaue, ist der Anteil der Zeit, die die Mitarbeiter in der supply chain damit verbringen, lange und intensiv über fundamentale Fragen nachzudenken – wie zum Beispiel, was Qualität des Service überhaupt in den Augen unserer Kunden bedeutet – sehr gering.

Das meiste, was ich in meinen Vorlesungen behandele, sind die grundlegenden Fragen, die oft trügerisch einfach erscheinen, wie zum Beispiel: Was bedeutet das Wort Zukunft? Was heißt es, die Zukunft korrekt oder angemessen vorauszusehen? Das sind wirklich schwierige Fragen, und wenn du über diese Fragen nachdenkst und deinem Unternehmen relevante Antworten liefern kannst, stehst du nicht unmittelbar vor der Automatisierung. Deshalb sage ich – und ich halte nach wie vor zu dieser Position – dass LLMs immer noch unglaubliche Bullshit-Künstler sind.

Also, wenn du dieses Verständnisniveau erreichen möchtest, sind wir noch nicht so weit. Du wirst mit Halluzinationen und Ähnlichem konfrontiert werden. Aber wenn du das Alltägliche automatisch erledigen lassen willst, ist die Sache getan. Deshalb sage ich: Konzentriere dich auf das Wesentliche, auf die Fragen, die intensives Nachdenken erfordern. Das wird nicht verschwinden. Was verschwinden wird, ist der allgemeine Lärm, die endlosen Banalitäten. Das wird mit Large Language Models (LLMs) gelöst werden.

Conor Doherty: Gut, es gibt einige Fragen aus dem Publikum, die wir beantworten müssen, und wir sind bereits 50 Minuten unterwegs. Viele dieser Fragen betreffen genau das, womit ich eigentlich abschließen würde. Bevor wir zu den Fragen aus dem Publikum kommen, möchte ich, wenn überhaupt möglich, eine Zusammenfassung auf Führungsebene geben für alle, die die ersten Minuten verpasst haben. Und ich denke, es ist vor allem ein Aufruf zum Handeln für alle Segmente – also wieder: Leute, die im Hintergrund arbeiten, CEOs, quasi branchenübergreifend.

Joannes Vermorel: Die kurze Antwort lautet: LLMs, Large Language Models, bedeuten ein Aussterbeereignis für Backoffice-Unternehmensfunktionen, die ausschließlich für White-Collar-Jobs arbeiten, bei denen Menschen einfach Daten aufnehmen, transformieren, umorganisieren und weiterleiten. Sieh dir deine Organisation auf allen Ebenen an; du hast buchstäblich Armeen von Menschen, die genau das tun. Sie nehmen einige E-Mails und vielleicht 20 verschiedene kleine, heterogene Datenquellen, machen ein bisschen Rechenarbeit und bringen die Dinge einen Schritt weiter.

Die Botschaft ist, dass all das bereits automatisierbar ist. Und zahlreiche Unternehmen setzen das momentan mit voller Geschwindigkeit um. Man sieht bereits in den Nachrichten, dass sie nicht nur in Produktion sind, sondern auch schon begonnen haben, Mitarbeiter aus diesen Positionen zu entfernen. Und ich spreche nicht von ein paar Personen hier und da, sondern von großen Unternehmen, die ankündigen: Früher hatten wir 6.000 Mitarbeiter für diese Aufgabe, jetzt haben wir 50. Es gab eine gigantische Entlassungswelle, und sie fahren mit voller Kraft fort. Ich erwarte, dass sich diese Entwicklungen weiter verstärken werden.

Nochmals, Backoffice-White-Collar-Jobs werden das Ziel sein. supply chain ist eine dieser Funktionen. Ich vermute, dass es noch etwa ein halbes Dutzend weitere Bereiche gibt, die betroffen sein werden. Auch das Rechnungswesen wird wahrscheinlich massiv beeinflusst werden, denn dort gibt es das intelligente, hochrangige Denkvermögen, das darüber entscheidet, wie man seine Buchhaltungsstruktur organisiert und Ähnliches. Aber es gibt auch den alltäglichen Kram. Irgendjemand schickt mir ein PDF, und ich muss etwa ein halbes Dutzend relevanter Informationen extrahieren, um den Buchungssatz zu generieren, der zu diesem PDF-Dokument passt. Das ist erledigt. Das kann vollständig automatisiert werden.

Also, all das wird superschnell verschwinden. Und für einige Unternehmen ist es nicht einmal eine Frage der Zukunft – es ist bereits Realität. Es ist schon gegenwärtig. Und wir sprechen von Monaten. Zusammenfassend: Es ist ein Aussterbeereignis, und es ist nur eine Frage von Monaten. Ja, man muss schnell handeln. Und übrigens, bei Lokad – als ich das begriff, verbrachte ich die ersten drei Monate des Jahres 2023 damit, die gesamte technologische Roadmap von Lokad neu zu überdenken, weil alles, was ich mir vorher vorgestellt hatte, hinfällig war.

Für uns war das ein ziemlich drastischer Wendepunkt. Innerhalb von Lokad, wo wir bereits etliche Prozesse automatisiert haben, waren wir buchstäblich so sehr damit beschäftigt, es umzusetzen, dass wir nicht allzu viel darüber kommuniziert haben. Aber das ist jetzt seit einem Jahr mein täglicher Arbeitsplan.

Conor Doherty: Bevor wir zu den Fragen aus dem Publikum übergehen, sei erwähnt, dass wir traditionell viel über probabilistic forecasting, stochastische Optimierung und all das gesprochen hätten. Das war aber nicht einmal Teil dieses Gesprächs, weil es bereits geklärt ist. Das ist seit Jahren der Stand der Technik. Diese quantitativen Entscheidungen – Lagerbestände, Bestellungen, Zuteilungen, Preisgestaltung – wurden, was Lokad betrifft, schon vor Jahren geregelt. Das war alles bereits erledigt. Die Leute sind zumindest teilweise oder allgemein darüber informiert. Der heutige Schwerpunkt liegt auf allem anderen, was übrig geblieben ist.

Joannes Vermorel: Ja, genau. Der alltägliche Kram, der Lärm, die kleinen, nebensächlichen Dinge – all diese tausend kleinen Zwischenfälle, für die man nicht etwa 10 Jahre in der supply chain benötigt – verschwinden. Denke einfach daran, wie du einerseits zufällig eine Frage an einen Partner, einen Spediteur, einen Lieferanten oder Ähnliches stellst. Und übrigens, Unternehmen stellten routinemäßig Hunderte von Leuten ein, die nach nur einem Monat Schulung einsatzfähig waren. Aber an allem, was weniger als sechs Monate Training erfordert, können höchstwahrscheinlich LLMs die Arbeit übernehmen und es automatisieren.

Weißt du, wenn es etwas ist, das jemand in nur wenigen Monaten erlernt, dann kann es automatisiert werden. Wenn es aber zehn Jahre an Können, Hingabe und Geduld erfordert, nein. Die einfachen Dinge – und hier liegt der Unterschied –, sind wahrscheinlich ohnehin strategischer Natur. Ja.

Conor Doherty: In Ordnung. Ich empfehle, einen Schluck Wasser zu trinken, denn es gibt einige Fragen, die wir durchgehen müssen. Also, vielen Dank an alle für eure Fragen. Unser Produzent hat die Fragen gesammelt. Ich habe keinen Zugang zum YouTube-Chat, daher weiß ich nicht, wie viele gestellt wurden, aber ähnliche Fragen wurden zusammengefasst. Fragen, die wir heute nicht beantworten, werden wir in einem Folgevideo oder auf LinkedIn ausführlicher beantworten.

Die erste Frage kommt von Constantine. Er fragt: “Welche Berufsbezeichnungen könnten obsolet werden? Sehen Sie eine Zukunft für Prognose- und Planungsrollen?”

Joannes Vermorel: Berufsrollen wie supply and demand planner, Inventory Analyst, Category Manager – all das, würde ich sagen, ist Geschichte. Es ist buchstäblich schon vorbei. Die Zuschauer mögen dem vielleicht nicht zustimmen, aber das berichtest du ja nur. Den Forecasting-Bereich hat Lokad beispielsweise vor fast einem Jahrzehnt automatisiert. Was in der Regel nicht automatisiert wurde, waren die kleinen Datenungenauigkeiten, wie doppelte Produkte oder die Identifikation, welches Produkt der Nachfolger eines anderen ist. Beispielsweise nimmst du zwei Produktbeschreibungen und sagst: Oh, das ist Generation vier eines Geräts und das hier Generation fünf. Dieses Produkt ist im Grunde dasselbe, nur ein wenig besser. Diese Art von Aufgabe kann ein LLM definitiv automatisieren. Also, all das ist vollständig automatisierbar und damit Geschichte.

Was nicht automatisiert werden kann, ist etwas in der Art eines Supply Chain Scientist, bei dem du die numerischen Rezepte erstellst, die all das automatisieren, was nicht automatisierbar ist. Du kannst die Arbeit automatisieren, aber noch nicht die Erstellung dieser numerischen Rezepte, und du kannst auch nicht das strategische Denken automatisieren, das erforderlich ist, um alles in Dollar an Fehlern beziehungsweise Dollar an Gewinn umzuwandeln. Du musst diese finanzielle Perspektive einnehmen können, zu der ein LLM nicht in der Lage ist. Aber all diese alltäglichen Management-Jobs, bei denen viel repetitive Arbeit anfällt, sind bereits Geschichte. Und beim Forecasting ist es genauso. Das ist seit Jahrzehnten Lokads Position. Es gibt also nichts Neues.

Conor Doherty: Nun, ich bin sicher, alle werden mit dieser Antwort zufrieden sein. Kommen wir zur nächsten Frage. Danke. Weiter zur nächsten Frage von Sherar: “Joannes, könntest du bitte die Vorteile von KI und supply chain anhand von Beispielen in Echtzeit erläutern?”

Joannes Vermorel: Zuerst definieren wir Echtzeit. In der supply chain sprechen wir nicht von Echtzeit im selben Sinne wie beim Fliegen eines Flugzeugs, das Millisekunden-Reaktionszeiten erfordert. In der supply chain ist es, selbst wenn du einem Truck Fahrer Anweisungen gibst, um den Verkehr zu lenken, ein Minutenverzug nicht schlimm. Echtzeit in der supply chain wäre beispielsweise ein Roboter in einem Lager, der automatisiert kommissioniert. Die meisten Probleme in der supply chain sind nicht in Echtzeit. Die überwiegende Mehrheit der Probleme kann sich eine Verzögerung von einer Stunde leisten. Es gibt sehr wenige supply chain-Fragen, die eine Antwort in weniger als einer Stunde benötigen.

Also, mit LLMs kannst du Informationen abrufen, eine Websuche durchführen, die Ergebnisse holen und sie zurückbekommen. Du möchtest die Adresse eines Lieferanten wissen und diese automatisch abrufen. Es ist sehr einfach, Logiken zu entwickeln, die das automatisch erledigen. Es ist leicht. Wir sprechen über all die grundlegenden Entscheidungen – alles, was mit Planung, Terminierung, Einkauf, Produktion, Zuteilung, Preisgestaltung und Aktualisierung zu tun hat. Und dann haben wir den gesamten Drumherum-Kram hinzugefügt, wie Master Data Management, die Kommunikation mit dem Netzwerk, das Benachrichtigen von Kunden über Verzögerungen, das Informieren von Lieferanten, dass sie Probleme haben, und Ähnliches – all das kann jetzt automatisiert werden. Es ist nicht super intelligent, aber das ist eine zweite Ebene, die ebenfalls automatisiert werden kann.

Conor Doherty: Aber der Punkt ist, dass es nicht unbedingt Querdenken erfordert. Wenn es nur – wie du sagtest – um Templating geht, wenn es einfach darum geht, „Suche nach diesem Typ“, dann ist es fast schon boolean. Wenn dies, dann.

Joannes Vermorel: Ja, genau. Und der große Unterschied zu den Expertensystemen der 90er-Jahre ist, dass wenn ich sage, LLMs sind universelle Templating-Maschinen, die störungsresistent sind, es keine Rolle spielt, ob die E-Mail schlecht formuliert ist. Es spielt keine Rolle. Ich meine, es spielt nicht einmal eine Rolle, ob die E-Mail auf Russisch oder Japanisch verfasst ist. Diese Systeme können so ziemlich jede Sprache lesen – es sei denn, jemand schickt dir eine Nachricht in einer seltenen Sprache, wie einem Zulu-Dialekt. Wenn sie in einer Sprache verfasst ist, die von 100 Millionen Menschen weltweit gesprochen wird, ist es erledigt. Und ich würde sagen, 100 Millionen sind schon viel. Jede Sprache, die von zumindest 10 Millionen Menschen weltweit gesprochen wird, ist ausreichend.

Conor Doherty: Die nächste Frage stammt von Tamit: “Ist der Preis nicht selbst repräsentativ für die wahrgenommene Auswirkung auf den Gewinn, insbesondere der Preis von Chat GPT im Vergleich zu Gurobi oder CPLEX?”

Joannes Vermorel: Gurobi und CPLEX sind mathematische Solver, also gehören sie nicht einmal zur gleichen Produktklasse. Es sind völlig unterschiedliche Werkzeuge, die nicht einmal annähernd dasselbe abdecken. Sie sind mathematische Solver. Für das Publikum: Du formulierst ein Problem, ausgedrückt als eine Liste von Nebenbedingungen und einer Zielfunktion, und das liefert dir die Antwort. Es ist eine mathematische Komponente.

Und ich bin mir nicht sicher, ob die Episode schon veröffentlicht wurde, aber wir haben gerade eine über stochastische Optimierung gedreht. Nein, sie kommt bald. Letztlich liegt der Grund, warum Gurobi und CPLEX für die supply chain quasi ungeeignet sind, darin, dass sie sich nicht mit der Stochastizität befassen. Das werden wir in einer anderen Episode besprechen, aber es handelt sich um eine völlig andere Werkzeugklasse. Bei LLMs geht es ums Templating von Texten, um alle möglichen Textumformulierungen, -extraktionen und schnelle Analysen von Textdaten. Und wenn ich von Text spreche, meine ich reinen Text, eine Abfolge von Buchstaben, Zahlen und Zeichen. Das sind also komplett unterschiedliche Probleme, und sie decken nicht einmal annähernd dasselbe ab.

Conor Doherty: Wie mein vorheriger Versuch, ein Statement zu setzen, verstehen viele Menschen den Einfluss von KI immer noch nicht vollständig. Es ist ein Aussterbeereignis für fast alle Jobs, außer für diejenigen auf sehr hoher Ebene.

Joannes Vermorel: Der Grund ist, dass – ich meine, zum Beispiel – Gurobi und CPLEX fast nichts sind. Diese Dinge gibt es seit etwa vier Jahrzehnten, und das Problem ist, dass sie – wie bereits erwähnt, werden wir das in einer anderen Episode besprechen – den stochastischen Aspekt nicht in den Griff bekommen. Das ist also ein No-Go. Und selbst wenn sie es täten, bräuchtest du immer noch jemanden wie einen Supply Chain Scientist, um sie zu nutzen. Es ist also kein schneller Erfolg, nichts, das in ein paar Stunden geschehen kann. LLMs hingegen, bei sehr alltäglichen, kleinen Problemen – bei Aufgaben, die wirklich trivial sind – liefern buchstäblich innerhalb von Minuten Lösungen.

Conor Doherty: Könnte die zunehmende Anzahl von Gerichtsverfahren wegen Tantiemen oder finanzieller Entschädigung von Personen, deren Daten zum Training von LLMs beigetragen haben, den Fortschritt und die Akzeptanz behindern, indem sie die Preise in die Höhe treiben?

Joannes Vermorel: Vergiss es. Einige Unternehmen zeigen, dass sie LLMs besitzen können, die nahe an der Leistung von Open AI sind, indem sie einen viel kleineren Korpus verwenden – etwa nur Wikipedia. Die Antwort lautet also nein. Wir sprechen hier nicht von generativer KI für Bilder, die das geistige Eigentum von Disney oder Ähnlichem verletzen könnte. Wir sprechen von Dingen, die ganz banal sind, wie: “Hier ist ein Text, sag mir, wer die E-Mail gesendet hat, was ist das MOQ, gibt diese Person eine endgültige Antwort oder eine vage Antwort, oder ist sie sich der Genauigkeit der gegebenen Antwort sicher?” Genau das kannst du aus einer E-Mail automatisch herauslesen. Darum geht es. Deshalb ist das ein völlig unproblematisches Thema.

Selbst wenn die Leute ihre LLMs neu trainieren müssen, weil sie 3% der Eingabedatenbank verwerfen müssen, ist das in Ordnung. Das hat Mistral, dieses französische Unternehmen, bewiesen: Man kann ein produktionsreifes LLM – sagen wir auf Open AI-Niveau – mit nur ein paar hunderttausend Euro neu trainieren. Also, das wurde bereits gemacht. Es gibt kein Zurück. Es wird zwar noch ein wenig Lärm um diese Dinge geben, aber es ist bereits eine abgeschlossene Angelegenheit, die nichts mehr ändern wird.

Conor Doherty: Und letztendlich nutzt du es als Vorlagenmaschine. Du sagst ihm genau, wonach du suchst und gibst ihm als Eingabe: “Finde in dieser E-Mail die Informationen.”

Joannes Vermorel: Und nochmals, wir sprechen hier von Back-Office-Jobs. Du sprichst nicht davon, den nächsten Harry Potter zu schreiben und von den Anwälten von J.K. Rowling verklagt zu werden, weil deine Inhalte nur eine fast exakte Kopie von Harry Potter halluzinieren. Darum geht es nicht. Denk einfach an die Art von E-Mails – denk an die letzten 100 E-Mails, die du geschrieben hast – und wie viel Einfallsreichtum, Originalität und, würde ich sagen, menschliche Intelligenz darin steckt. Und die Wahrscheinlichkeit ist, dass es nicht so viel ist. Ich meine, selbst wenn ich mir ansehe, was ich täglich schreibe, ist das meiste davon sehr banal. Und genau das wird blitzschnell automatisiert.

Conor Doherty: Es ist erwähnenswert, das mit einem kleinen Kommentar zu ergänzen: Falls der Eindruck entstanden ist, dass es hier ausschließlich um Chat GPT geht – nein, wir sprechen von LLMs als Technologie an sich, nicht speziell dann, wenn man online interagiert.

Joannes Vermorel: Und genauer gesagt, LLMs als ein Programmierbaustein. Genauso wie du eine relationale Datenbank hast, hast du auch Subsysteme in deiner Software – wie die transaktionale Datenbank, den Webserver etc. – und hier hast du einen, der LLM ist, und das ist einfach eine Möglichkeit, bestimmte Schritte in deinem Programm auszuführen. Denk nicht an LLMs als etwas, das mit einer Chat-Oberfläche daherkommt. Fast alles, was ich im letzten Jahr automatisiert habe, besitzt keine Benutzeroberfläche. Es ist buchstäblich ein Skript, das etwas von Anfang bis Ende erledigt, also kein User Interface. Anders ausgedrückt, es ist ein Element eines Gesamtsystems.

Conor Doherty: James fragt: Welchen Rat würdest du einem jungen Menschen geben, der in den supply chain einsteigen möchte, hinsichtlich des Erwerbs von Fähigkeiten, und wie kann er diese Fähigkeit im Kontext des von dir beschriebenen Aussterbeereignisses am besten vermarkten?

Joannes Vermorel: LLMs zwingen dich, dein strategisches Verständnis auf ein neues Level zu heben. Das Beherrschen banaler Rezepte wie ABC analysis oder Ähnlichem ist keine Option. Rüste dich mit den letzten Instrumenten aus, die GPT-4 noch fehlen – wie der Fähigkeit, tiefgehendes Denken zu betreiben. Langes, gründliches Nachdenken über Probleme führt zu Gedankengängen, die im Allgemeinen korrekt sind. Sei in der Lage, eine Synthese über ein Problem zu erstellen, die der von GPT-4 weit überlegen ist. Das sind sehr valide Fähigkeiten, die in den Bereich deiner obersten intellektuellen Kapazitäten fallen, die einfach jenseits der Maschine liegen.

Und das sind die Arten von Fähigkeiten, von denen ich glaube, dass wir sie noch lange nicht automatisieren können. Selbst wenn man sich zum Beispiel die kritischen Stimmen in der Forschung anschaut – etwa was Yann LeCun sagt – meint er, dass LLMs nicht die Antwort auf allgemeine Intelligenz sind. In dieser Hinsicht stimme ich Yann LeCun zu. Wobei ich anderer Meinung bin, wenn es darum geht, dass wir keine allgemeine Intelligenz benötigen, um dennoch einem Aussterbeereignis im Bereich der Back-Office-Jobs entgegenzuwirken. Wir brauchen lediglich LLMs – die zwar eine niedrigere Intelligenzstufe darstellen, aber völlig ausreichen, um etwa 90% der Arbeitskraft zu ersetzen. Und das wird ziemlich radikal. Für die verbleibenden 10% werden wir noch sehen.

Also, für einen jungen Menschen, der in diese Karriere einsteigt, schau dir zum Beispiel meine Vorträge an. Du wirst sehen, dass es dabei nicht um Trivialitäten, nicht um Alltägliches oder kleine Details geht, sondern um grundlegende Fragen wie: “Was sind im Grunde die Probleme, die wir überhaupt zu lösen versuchen?” Dafür habe ich ein ganzes Kapitel über personas. Es ist schwierig: Was sind eigentlich die Probleme, die wir für diesen supply chain zu lösen versuchen, und die Antwort variiert von Branche zu Branche. Das ist schwierig.

Welche programming paradigms sind relevant? Denn wie gesagt, LLMs können eine Menge Dinge automatisieren, aber numerische Rezepte schreiben sie sich nicht selbst. Ja, LLMs können helfen, aber ihnen fehlt die höhere Urteilskraft, um die Angemessenheit zu erfassen. Selbst wenn der Code mit Hilfe einer Maschine geschrieben wird, benötigt man weiterhin – und ich denke, das wird so bleiben – menschliche Urteilskraft, um wirklich festzustellen, ob er tatsächlich angemessen ist.

Hier werden LLMs also ein Booster sein, aber sie werden Programmierfähigkeiten nicht ersetzen. Wenn du also Programmierkenntnisse hast, werden diese Fähigkeiten noch wertvoller, da du mit LLM-Technologien tatsächlich noch produktiver sein wirst. Mein Schwerpunkt liegt daher auf den Grundlagen, kritischem Denken, strategischer Analyse und all den komplexen Themen wie programming paradigms und relevanten mathematischen Instrumenten. Zum Beispiel erfordert eine probabilistische Prognose, wenn du korrekt darüber argumentieren willst, ein tiefgehendes Verständnis dieser mathematischen Instrumente – und auch das wird nicht verschwinden. Das GPT-4 automatisiert das nicht.

Conor Doherty: Lionel fragt, wie sich KI-gesteuerte Supply Chain Solutions auf kleine und mittelständische Unternehmen im Vergleich zu größeren Unternehmen oder Großkonzernen auswirken.

Joannes Vermorel: Ich glaube, dass der Effekt bei kleineren Unternehmen noch ausgeprägter sein wird. Warum? Weil große Unternehmen es sich leisten können, große, spezialisierte Bürokratien zu unterhalten, während kleine Unternehmen das nicht können. Kleine Unternehmen wussten, dass sie mit den großen Unternehmen nicht konkurrieren konnten, weil sie keine Abteilung mit 200 Personen und 10 verschiedenen Spezialisierungen und so weiter haben konnten.

Aber das Interessante ist, dass die Produktivität mit solchen Tools so hoch ist, dass verrückte Automatisierung plötzlich auch für kleine Unternehmen super zugänglich wird. Und übrigens: Lokad ist jetzt ein Unternehmen mit etwa 60 Mitarbeitern, und ich habe jede Menge Dinge hier und da automatisiert – und das geht super schnell.

Das Interessante ist, dass es kein Projekt mit 20 Softwareingenieuren benötigt, um Dinge zu erledigen. Die Art von Leistungen, die man innerhalb weniger Stunden erzielen kann, ist überwältigend, wenn man es richtig anstellt.

Mein Fazit ist also, dass mittelständische Unternehmen – vielleicht nicht ganz sehr kleine, aber sagen wir mittelgroße Unternehmen, also Unternehmen mit einem Umsatz von etwa 50 Millionen Dollar und mehr – in der Lage sein werden, ihre Prozesse in einem unglaublichen Tempo zu mechanisieren und mit dem, was supergroße Unternehmen leisten, zu konkurrieren, da der Engpass sehr schnell allein die LLMs sein werden, und ihr Zugriff auf exakt dieselben LLMs habt wie beispielsweise Samsung, Apple oder welcher Großkonzern auch immer in eurem Kopf ist.

Du hast Zugang zu denselben Werkzeugen. Wenn du also beispielsweise in puncto Analyse konkurrierst – ja, Apple hat wahrscheinlich weitaus talentiertere Nachfrageanalysten als du –, haben sie doch Zugriff auf exakt dieselben LLMs wie du. Es ist also eine Art großer Gleichmacher in Bezug auf die Automatisierungsfähigkeit.

Conor Doherty: Nächste Frage von Nick: Wie hat sich der Einsatz von LLMs, als eine der wegweisenden Methoden bei Lokad, auf die Leistungskennzahlen deines Unternehmens ausgewirkt, wie zum Beispiel Churn-Rate, Neuanmeldungen und Kundenzufriedenheit?

Joannes Vermorel: Insgesamt würde ich sagen, dass wir noch 12 Monate in der Phase produktionsreifen Betriebs sind. Was wir jetzt automatisiert haben, besitzt eine Qualität, die über menschliche Leistungsfähigkeit hinausgeht. Man kann buchstäblich sehen, welche Art von Dingen wir automatisiert haben. Es wird besser gemacht als zuvor und sehr oft mit 100-mal weniger Personal als früher.

Für das Publikum, das damit nicht vertraut ist: Bei Lokad, einem Anbieter von Unternehmenssoftware, sprechen wir von sehr langen Verkaufszyklen. Ich würde liebend gerne Geschäfte mit Kunden in drei Wochen abschließen, aber leider ist es eher ein dreijähriger Prozess – Entschuldigung, ein 18-monatiger RFP-Prozess, der mich völlig verrückt gemacht hat. Das gilt trotz KI und selbst wenn man KI für den RFP einsetzt. Es ist also langsam. Aber deshalb meine ich, dass das Frontend, also Bereiche wie Vertrieb und Ähnliches, langsam sind – während das Feedback unserer Kunden unglaublich positiv war.

Es sind zum Beispiel banale Dinge wie das automatische Erstellen eines Berichts nach einer zweistündigen Diskussion mit einem Kunden. Der Bericht ist sehr gut strukturiert und fasst alle besprochenen Schlüsselpunkte zusammen. Wir haben eine eigene interne Technologie, um diese hochwertigen Memos nach einem Meeting zu erstellen. Sie funktioniert hervorragend, und wir haben sehr positives Feedback von unseren Kunden dazu erhalten.

Meiner Einschätzung nach werden die Aufgaben, die wir automatisiert haben, besser erledigt als zuvor, und wir haben mindestens eine 20-fache Produktivitätssteigerung erreicht. Das ist absolut beeindruckend.

Was die Abonnentenrate und andere Kennzahlen betrifft, ist es noch zu früh, um etwas zu sagen. Als Anbieter von Unternehmenssoftware sind meine Verkaufszyklen unvorstellbar langsam. Darüber werden wir in ein paar Jahren sprechen.

Ich glaube, es ist falsch, sich auf die Zahlen zu verlassen. Die Zahlen kommen zu wenig und zu spät. Denkt nur an Kodak: Bevor die digitale Fotografie von nichts zu allem wurde. Wenn Kodak wie der Typ im freien Fall wäre, der behauptet, dass bisher alles in Ordnung sei – nein, du bist im freien Fall, du wirst hart auf den Boden aufschlagen. Du liegst falsch.

Bis die Leute die Zahlen sehen, werden Unternehmen robotisierte Armeen haben. Meine Vorhersage ist, dass es Unternehmen geben wird, die damit vorankommen, und ich sehe diese Unternehmen als das Amazon des nächsten Jahrzehnts.

Das Fazit ist also, dass sie mit voller Geschwindigkeit voranschreiten, und wenn ich fünf Jahre in die Zukunft blicke, sehe ich bereits, dass diese Unternehmen in der Lage sein werden, alle ihre Mitbewerber mit Preisen zu übertreffen, die deren Konkurrenten schlichtweg nicht bieten können. Und was die Agilität angeht: Das Problem bei einer Armee von Menschen ist, dass man per Definition – ich spreche von einem großen Unternehmen – Hunderte von Personen hat, die in Planung, S&OP, Prognose und all dem involviert sind, und somit ist man langsam.

Du bist eine große Bürokratie. Per Definition, wenn du etwa 200 Personen hast, kannst du nicht agil sein. Es ist einfach so, dass du viel zu viele Menschen hast. Wenn du das auf 20 Personen reduzieren kannst, dann kannst du wie ein Tiger agieren – super agil, super schnell. Und das bedeutet wiederum, dass diese Unternehmen ihre Konkurrenten massiv in Bezug auf Kosten und Agilität übertreffen werden – das ist enorm, wirklich enorm.

Über die menschliche Intelligenz hinaus werden sie in der Qualität der Ausführung die Nase vorn haben. Es gibt ein Sprichwort in der Softwarebranche, dass alles, was von manuellen Eingriffen abhängt, unzuverlässig ist. Man kann keine Zuverlässigkeit erreichen, wenn ein manueller Eingriff dazwischenliegt.

Was ich sehe, ist, dass selbst in puncto Ausführungsqualität die Zuverlässigkeit im Vergleich zu manuellen Prozessen über alle Maßen hinausgehen wird. Das bedeutet also, Agilität, Kosten, Zuverlässigkeit, Leistung – das ist es, weshalb ich von Aussterbeereignissen spreche. Die Unternehmen, die sich anpassen, werden überleben, die anderen werden – innerhalb eines Jahrzehnts – verschwinden.

Also, es wird sich nur langsam entfalten, denn es gibt, wie gesagt, eine gewisse Trägheit. In Frankreich zum Beispiel habe ich mit vielen Einzelhändlern gesprochen, und ich erinnere mich lebhaft daran – das war noch vor der Gründung von Lokad. Ich sagte zu ihnen – es war 2004, ich war Student, ich kam gerade aus den USA zurück, wo ich zwei Jahre verbracht hatte – und ich sagte zu den Einzelhändlern in Frankreich: “Amazon wird euch das Genick brechen.” Und die Leute sagten zu mir: “Oh, E-Commerce ist nur ein Trend. Das ist doch nicht wichtig – sie haben nicht mal 0,1% Marktanteil, uns interessiert das nicht, es ist nichts.”

Für mich stand das schon fest. Es gab keine Frage, es war einfach – nochmals, es war nur eine Frage des Timings. Es stand bereits geschrieben: Entweder ein Einzelhändler steigt auf E-Commerce um, oder Amazon und seine Pendants werden ihn einfach auslöschen. Und das hat sich, übrigens, bereits gezeigt. Ich habe schon einige dieser Unternehmen bankrott gehen sehen. Es hat ein Jahrzehnt gedauert, bis sich das entfaltet hat, aber es ist geschehen. Und das wird auch bei vielen anderen Unternehmen der Fall sein.

Und das Besondere an LLMs ist, dass es sich nicht auf bestimmte Branchen beschränkt. Manche Branchen werden stärker betroffen sein, aber im Endeffekt wird alles, was diese Back-Office-Supportfunktionen hat, massiv beeinträchtigt werden.

Conor Doherty: Es ist auch wichtig hinzuzufügen, dass – wie du im Beispiel von Lokad erwähnt hast – die Funktionen, die mit LLMs automatisiert wurden, all das übersteigen, was sonst mit KI erreicht wurde. Es geht also nicht nur um ein paar Dinge. Es handelt sich um eine hochqualifizierte Belegschaft, bei der all die banalen, alltäglichen Aufgaben – sowohl quantitative als auch qualitative – so weit wie menschlich möglich automatisiert wurden, wodurch all das Intelligente freigesetzt wird, um sich auf die wirklich wichtigen Themen zu konzentrieren. Und wenn ein Unternehmen das umsetzt im Gegensatz zu einem, das es nicht tut, dann ist das im Grunde Darwinismus.

Joannes Vermorel: Genau. Das Schöne daran ist, dass hier Schumpeter’sche Zerstörung wirkt. Es dient dem Gemeinwohl, wenn Unternehmen reicher werden. Zum Beispiel: Wenn in Paris immer noch 10% der Bevölkerung Wasser tragen würden, wäre Paris eine sehr arme Stadt.

Paris ist zu einer Stadt der Ersten Welt geworden, nur weil – ich meine nach unseren heutigen Maßstäben – nicht 10 % der Bevölkerung dumme Dinge machen. Indem wir die Menschen von den unglaublich mühseligen Jobs befreien, können wir es uns leisten, Kunst zu machen, kreativ zu sein, erfinderisch zu werden.

In den Unternehmen, die supply chains betreiben, wenn alle ständig im Löschen von Bränden stehen, sich mit kleinen, winzigen Missgeschicken auseinandersetzen – Sandkörnern in der Maschine, die alles entgleisen lassen, aber nicht auf grandiose, epische Weise, sondern einfach auf stupide Weise – und dabei buchstäblich den ganzen Sauerstoff verbrauchen.

Betrachte es also einfach als all diese kleinen Dinge, die den ganzen Sauerstoff verbrauchen, sodass die Menschen nicht einmal mehr denken können, weil es so viel davon gibt. Ich glaube, dass es wirklich etwas sein wird, das zur Verbesserung der supply chain beiträgt, denn plötzlich werden die Menschen in der Lage sein, strategisch zu denken, ohne sich in diesem Kuddelmuddel von winzigen Ablenkungen zu verheddern, die ihre menschliche Aufmerksamkeit nicht verdienen.

Lassen Sie uns eine Million halb-dummer Assistenten haben, denn das sind LLMs – eine Million halb-dummer Assistenten, die sich einfach um diese Dinge kümmern, die keine menschliche Intelligenz verdienen.

Conor Doherty: Die letzten zwei Fragen. Diese kommt von Lionel. Von welchen Beispielen erfolgreicher AI- und menschlicher Zusammenarbeit in supply chain operations können wir lernen?

Joannes Vermorel: Denke nicht in Begriffen von Zusammenarbeit. Das ist ein Fehler. Es wird keinen generischen Co-Pilot geben.

Am Ende sind es letztlich immer Menschen, offensichtlich, und Maschinen. Ja, es gibt eine Form der Zusammenarbeit, aber sie nimmt nicht die von dir vorgestellte Form an. Es ist kein Co-Pilot. Als ich den RFP-Antwortautomaten automatisierte, wie sah die Zusammenarbeit aus? Ich setzte mich an meinen Schreibtisch, verbrachte eine Woche damit, diesen Antwortautomaten zu programmieren, und dann hatte ich einen Antwortautomaten.

Jedes Mal, wenn ein RFP hereinkommt, lassen wir die Maschine laufen und erhalten die Antworten. So sieht Zusammenarbeit aus. Und dann, wenn OpenAI etwa einen GPT-4 Turbo oder ein anderes neues Modell veröffentlicht, mache ich ein kleines Update in meinem Code, um das Neueste auszunutzen, und schon sind wir wieder im Geschäft.

Das ist Zusammenarbeit, aber in dem Sinne, dass ich etwas programmiere und, wenn sich etwas ändert, meinen Code ein wenig anpasse. Darum geht es bei der Zusammenarbeit, von der wir sprechen. Es ist nicht so, als würde ich mit einer Maschine im Dialog stehen. Ich führe keinen Dialog mit GPT oder Ähnlichem. So funktioniert es nicht. So wird das Spiel nicht gespielt.

Also, denke nicht an LLMs als etwas, das kooperativ ist. Das meiste, was wir automatisieren, automatisieren wir einfach vollständig, und dann ist niemand mehr involviert. Das ist einfach erledigt.

Um Beispiele zu nennen: Die Lokad-Website wird vollständig automatisch übersetzt, und das Schöne daran – und das kann man online nachlesen – ist, dass wir nicht das Englische übersetzen, sondern das HTML direkt. Es ist, als würde man das rohe HTML nehmen und neu übersetzen, und wir haben 90 % des Aufwands eingespart, weil wir plötzlich alles iterieren können und das LLM klug genug ist zu erkennen, welches HTML unangetastet bleiben soll, weil es ein Tag ist, und was tatsächlicher englischer Text ist, der übersetzt werden muss. Wundervoll.

Das ist also bereits erledigt. Für das Publikum: Alle Seiten, die wir für die Lokad TV-Videos haben, bei denen wir Zeitstempel hatten – früher wurden diese beispielsweise manuell erstellt – werden jetzt automatisch erzeugt. Ich habe es gemacht, jetzt läuft es automatisch.

Also, das ist die Sache: Du möchtest eine einstündige Diskussion nehmen, automatisch Zeitstempel erstellen – fertig. Ich könnte Dinge erwähnen, die geheimnisvoller sind, denn der größte Nutzen ergibt sich bei den Back-Office-Jobs bei Lokad – also nicht im Kundenkontakt – sondern bei eher mysteriösen Aufgaben.

Der Punkt ist, dass es zu viel Zeit in Anspruch nehmen würde, um zu erklären, warum wir das überhaupt brauchen, aber die Quintessenz ist, dass die Beispiele endlos weitergehen. In der Regel versuchen wir es, und innerhalb eines Tages ist es automatisiert. So sieht es aus. Und ja, es wird ein wenig an den Prompts herumgebastelt, aber nochmals die Frage: Was kann nicht automatisiert werden? Heutzutage ist es schwieriger, diese Frage zu beantworten als jene, was automatisiert werden kann.

Conor Doherty: Es ist interessant, dass du diesen Punkt erwähnst, denn als du das Beispiel des Zusammenfassens von Diskussionen genannt hast – und das spricht mehr für das, was du gerade gesagt hast – wie weit könnten wir noch gehen? Ich meine, im Back Office lautet die Diskussion jetzt: Wie können wir aus Zusammenfassungen von Diskussionen, sagen wir mit Kunden oder Interessenten oder Ähnlichem, automatisch die Website durchsuchen und relevante Links an passender Stelle einfügen? Was können wir nicht tun? Nun, es stellt sich heraus, dass wir es können. Wir arbeiten daran. Aber es ist einfach: Was kann nicht getan werden? Es fällt schwer, eine Liste der Dinge zu erstellen, die mit einem LLM unmöglich sind.

Joannes Vermorel: Im Moment formuliere ich bei allem, was wirklich auf hohem Niveau liegt, nur in Bezug auf die Wortwahl, weil uns die passenden Worte fehlen, aber ich würde sagen, es geht um hochrangige menschliche Intelligenz oder höhere Formen der Intelligenz – Dinge, bei denen man lange und intensiv nachdenken muss, möglicherweise stundenlang, um eine Antwort zu finden, und nicht um etwas, bei dem man eine instinktive Antwort geben kann; solche Aufgaben können LLMs auch erledigen.

Aber, ähm, was sollte – ähm, einfach: Denke an sehr schwierige Fragen wie: Was bedeutet Servicequalität für unsere Kunden? Das ist eine sehr schwierige Frage. Was sollten unsere prioritären Zielsegmente sein? Makrofragen für das Unternehmen – das sind die Fragen, bei denen man buchstäblich Wochen benötigen kann, um eine Antwort zu finden, und genau hier bleiben LLMs noch zurück.

Wenn du eine Frage hast, die so wichtig ist, dass du Wochen damit verbringen könntest, sie zu beantworten, wird hochrangige menschliche Intelligenz dir eine bessere Antwort geben als GPT-4. Aber wenn es eine Frage ist, bei der du nur etwa 60 Sekunden Denkzeit hast, dann wird die Antwort, die du von einem Menschen erhältst, nicht besonders gut sein. Die Uhr tickt. Wenn du mir 60 Sekunden gibst, um zu irgendetwas eine Antwort zu liefern, wird es keine gute Antwort sein.

Conor Doherty: Der Punkt ist, vielleicht einmal, aber nicht alle 60 Sekunden, jede Stunde, sieben oder acht Stunden am Tag, 300 Tage im Jahr, 50 Jahre lang. Das ist der Unterschied.

Joannes Vermorel: Das ist der Unterschied. Natürlich, wenn ich 30 Minuten Pause mache, dann ja. Aber das LLM ermüdet nicht. Du kannst es laufen lassen und buchstäblich Millionen von Operationen am Tag automatisieren – und es ist nicht einmal schwierig.

Conor Doherty: Das ist die letzte Frage von Lionel. Wie können kleine Länder KI im Supply Chain Management nutzen, um ihre einzigartigen geografischen und wirtschaftlichen Herausforderungen zu meistern, und welche Auswirkungen hat das auf die lokalen Arbeitsmärkte?

Joannes Vermorel: Das Schöne daran ist, dass LLMs unglaublich zugänglich sind. Der Bandbreitenbedarf, um LLMs zu nutzen, ist minimal. Du kannst buchstäblich Kilobytes an Daten versenden, und es funktioniert. LLMs werden aus der Ferne betrieben, also, wenn du in einem armen Land bist, solange du eine einigermaßen anständige, auch wenn langsame, Internetverbindung hast, ist alles in Ordnung.

Diese Dinge erfordern keine Hochgeschwindigkeitsverbindung. Also ist es in Ordnung. Es erfordert keine super talentierte Belegschaft. Das ist das Schöne daran. Prompt Engineering ist wahrscheinlich von all den quasi-technischen Fähigkeiten, die ich in den letzten zwei Jahrzehnten erwerben musste, am einfachsten. Es ist buchstäblich etwas, das du innerhalb weniger Stunden beherrschen wirst.

Deshalb gibt es jetzt Kinder, die all ihre Hausaufgaben von Chat GPT erledigen lassen. Ich meine, es ist einfach – wirklich kinderleicht. Und da sage ich: Die Einführung wird schnell vonstattengehen, denn es ist nicht so, dass – kauft euch nicht jemanden ein, der behauptet: “Ich habe einen Abschluss in Prompt Engineering.” Wovon redest du? Es sind die Dinge, bei denen, wenn du ein wenig daran arbeitest, um den Dreh rauszukriegen, du es buchstäblich innerhalb weniger Tage beherrschen wirst. Es ist nicht schwer – ehrlich gesagt, es ist schwieriger, Excel zu meistern, als Prompt Engineering zu beherrschen.

Also, zusammengefasst: Wenn du in einem armen, abgelegenen Land bist, ist es super zugänglich. Übrigens, habe ich dir schon gesagt, dass diese Technologie billig ist? Sie ist wie spottbillig. Spottbillig. Denk nur daran – damit das Publikum es sich vorstellen kann – schau dir unsere Website an, sie ist gigantisch. Wir sprechen hier von tausend Seiten, tausend Webseiten. Wenn wir sie drucken würden, wären es wahrscheinlich etwa 3.000 A4-Seiten. Diese FAQs sind enorm, sogar noch mehr als das.

Wir sprechen also von etwas, das eine große, fette Website ist. Wir übersetzen sie in sieben Sprachen. Die Kosten, um eine Charge von Englisch in all diese Sprachen zu übersetzen – und wir sprechen hier wieder von Texten im Umfang von 3.000 Seiten – betragen bei OpenAI 150 $. Das bezahle ich. Und übrigens: Die Kosten, das früher mit Freelancern zu machen, lagen bei etwa 50.000 $ pro Sprache.

Die Kosten sind also von nahezu null, oder von einer Viertelmillion oder mehr für die Übersetzung, auf 150 $ gesunken. Und übrigens: Die Kosten werden noch weiter sinken, da OpenAI kürzlich die Preise gesenkt hat. Und übrigens: Wir machen das nicht einmal mit GPT-4, wir nutzen immer noch GPT-3.5. Und mit Mistral sollten wir es versuchen – Mistral ist sogar noch günstiger.

Also, wahrscheinlich wird es in drei Jahren so sein, dass die Übersetzung dieser massiven 3.000 Seiten etwa 50 $ kostet. Das Schöne daran ist, dass ich denke, für entwickelte Länder stellt dies eine enorme Chance dar – ein massiver Gleichmacher. Denk nur daran: Nicht für Pfennige, sondern für Dollar kannst du mit denselben Werkzeugen arbeiten wie die Großen und bist auf demselben Niveau wie diejenigen, die Millionen in den Händen halten – wie Apple. Du arbeitest mit denselben Werkzeugen.

Das wird also ein unglaublicher Gleichmacher sein. Und wenn du klug bist und etwas Leidenschaft mitbringst, wirst du unterwegs dazulernen. Und das ist, noch einmal, alles andere als schwer. Es ist wahrscheinlich eine der unglaublich zugänglichsten Revolutionen. Und ich glaube, dass selbst arme Länder – selbst wenn ihre Internetverbindungen dürftig sind – von LLMs profitieren können. Du brauchst nicht einmal Breitband. Wenn du 20 Kilobytes pro Sekunde in beide Richtungen zuverlässig hast, ist alles in Ordnung.

Conor Doherty: Ich glaube, wir haben über eineinhalb Stunden gesprochen. Also, wenn ich das alles zusammenfassen dürfte: Skynet?

Joannes Vermorel: Nein, nicht Skynet. Das war meine falsche Erwartung vor 18 Monaten. Ich sagte, oh, es ist so dumm wie eh und je, also nichts Besonderes. Nein, es ist eine universelle Vorlagenmaschine, und das ist ein Game Changer. Das ist die Nähmaschine dessen, was für Büropersonal sein wird, so wie Nähmaschinen es für die Bekleidungsindustrie waren.

Das Schöne daran ist die Einfachheit. Selbst damals war eine Nähmaschine um Größenordnungen einfacher als eine Uhr. Nach den Maßstäben des 19. Jahrhunderts war sie keine komplizierte Maschine. Es gab bereits Maschinen, die um Größenordnungen komplizierter waren. Dennoch war sie trügerisch einfach und beschleunigte über Nacht die Bekleidungsindustrie um das Hundertfache. Wenn du denkst, dass Nähmaschinen keine Revolution waren, nur weil du plötzlich keinen vollständigen Stoffhersteller mehr hast, verfehlst du den Kern der Sache. Mit einer Nähmaschine kannst du immer noch Kleidung 100 Mal schneller herstellen.

Wir haben kein Skynet. GPT-4 wird das hochwertige strategische Denken nicht ersetzen. Aber all das Alltägliche – ja, das wird es. Das ist eine Evolution. Meine Botschaft an das Publikum lautet: Verpasst den Zug nicht. Viele Unternehmen sind bereits eingestiegen. Einige Leute, zu meinem Bedauern, haben das schon früher gemacht. Aber es gibt viele an Bord, und die Ergebnisse sind so schnell, dass wenn du jetzt nicht handelst, du in vier Jahren nicht mehr aufholen kannst. Die Diskrepanz wird so groß sein, dass es einem Kodak-Effekt gleicht, bei dem du am Ende verloren bist – selbst wenn dein Unternehmen ursprünglich nicht so schlecht war.

Conor Doherty: Alles klar, ich habe keine weiteren Fragen, Joannes. Vielen Dank für deine Zeit und vielen Dank fürs Zuschauen. Wir sehen uns das nächste Mal.