00:00:00 Einführung in das Interview
00:01:00 Rinats Weg bei Lokad und Herausforderungen in der Lieferkette
00:03:59 Die Entwicklung von Lokad und Erkenntnisse aus Simulationen
00:07:07 Komplexität von Simulationen und agentenbasierte Entscheidungen
00:09:15 Einführung von LLMs und Optimierung von Simulationen
00:11:18 Die Auswirkungen von ChatGPT und Modellkategorien
00:14:14 LLMs als kognitive Werkzeuge in Unternehmen
00:17:10 Verbesserung der Kundeninteraktionen und Auflistungen durch LLMs
00:20:30 Die begrenzte Rolle von LLMs bei Berechnungen in der Lieferkette
00:23:07 Verbesserung der Kommunikation in Lieferketten durch LLMs
00:27:49 Die Rolle von ChatGPT bei der Datenanalyse und Erkenntnissen
00:32:39 Textverarbeitung und quantitative Datenherausforderungen von LLMs
00:38:37 Verfeinerung der Unternehmenssuche und abschließende KI-Erkenntnisse

Zusammenfassung

In einem kürzlichen Dialog sprach Conor Doherty von Lokad mit Joannes Vermorel und Rinat Abdullin über die Auswirkungen von generativer KI auf Lieferketten. Vermorel, CEO von Lokad, und Abdullin, technischer Berater, diskutierten die Entwicklung von Zeitreihenprognosen hin zur Nutzung von Large Language Models (LLMs) wie ChatGPT. Sie erkundeten das Potenzial von LLMs zur Automatisierung von Aufgaben, Steigerung der Produktivität und Unterstützung bei Datenanalysen ohne Arbeitsplätze zu verdrängen. Während Vermorel bei der Planung von LLMs vorsichtig blieb, erkannten beide ihre Nützlichkeit bei der Erstellung von Lösungen an. Das Interview unterstrich die transformative Rolle von KI im Supply Chain Management und die Bedeutung der Integration von LLMs mit spezialisierten Tools.

Erweiterte Zusammenfassung

In einem kürzlichen Interview führte Conor Doherty, Leiter der Kommunikation bei Lokad, eine nachdenkliche Diskussion mit Joannes Vermorel, dem CEO und Gründer von Lokad, und Rinat Abdullin, einem technischen Berater bei Trustbit und ehemaligen CTO von Lokad. Das Gespräch drehte sich um das aufstrebende Feld der generativen KI und deren Auswirkungen auf das Supply Chain Management.

Rinat Abdullin erinnerte sich an seine Zeit bei Lokad und berichtete von den anfänglichen Herausforderungen, denen das Unternehmen gegenüberstand, insbesondere bei der Anpassung der Technologie an die Kundenbedürfnisse und bei der Verständlichkeit und Vertrauenswürdigkeit komplexer Lieferketten-Daten. Joannes Vermorel bestätigte, dass Lokads Wurzeln in der Zeitreihenprognose liegen, einem entscheidenden Element der Supply Chain-Optimierung.

Im weiteren Verlauf des Dialogs ging Abdullin auf die Entwicklung der Technologie von Lokad ein und betonte die Spannung zwischen der Erklärbarkeit und Leistung von Machine Learning-Modellen. Er teilte seine Erfahrungen mit der Verwendung von Simulationen zur Entmystifizierung komplexer Systeme, die den Weg für optimierte Berechnungsmethoden ebneten.

Das Gespräch wechselte dann zu Large Language Models (LLMs), wobei Vermorel auf ihren jüngsten Popularitätsschub hinwies. Abdullin teilte seine frühen Erfahrungen mit Sprachmodellen und deren Entwicklung zu benutzerfreundlichen Tools wie ChatGPT. Er betonte das transformative Potenzial von LLMs und verglich sie mit einer persönlichen Abteilung von Assistenten, die in der Lage sind, eine Vielzahl von Aufgaben zu erledigen, von der Erstellung von Dokumenten bis zur Automatisierung der Suche nach Informationen in großen Daten Silos.

Abdullin ging auf Bedenken ein, dass LLMs Arbeitsplätze ersetzen könnten, und betonte, dass sie die Effizienz der Mitarbeiter steigern, anstatt sie zu ersetzen. Er nannte Beispiele, bei denen die Produktivität um das Zehn- bis Hundertfache gesteigert wurde. Er wies auch darauf hin, dass während Lieferketten nur langsam LLMs übernommen haben, Marketingabteilungen schnell damit begonnen haben, sie für Kundeninteraktionen und Kostensenkungen einzusetzen.

Joannes Vermorel erweiterte das Potenzial von LLMs bei der Automatisierung von offenen Kommunikationen mit Lieferkettenpartnern, um Zeit bei Routine-E-Mails zu sparen und sich auf komplexere Aufgaben zu konzentrieren. Er lobte LLMs für ihre sprachliche Finesse bei der Anpassung des Kommunikationstonfalls, eine Aufgabe, die für Menschen zeitaufwändig sein kann.

Abdullin hob die fortschrittlichen Datenanalysefähigkeiten von ChatGPT hervor, die es Entscheidungsträgern ermöglichen, komplexe Daten ohne Programmierkenntnisse zu analysieren. Joannes Vermorel blieb jedoch skeptisch gegenüber generativer KI in der Supply Chain-Planung und betonte, dass LLMs besser geeignet sind, wegwerfbare Analysen und Berichte zu generieren.

Rinat Abdullin schlug vor, dass LLMs in Verbindung mit spezialisierten Tools für bessere Ergebnisse eingesetzt werden könnten, insbesondere an der Schnittstelle von numerischen, textuellen und Code-Domänen. Joannes Vermorel stimmte zu und erklärte, dass LLMs besser geeignet sind, Programme zur Problemlösung zu erstellen, anstatt sie direkt zu lösen.

Zum Abschluss ermutigte Rinat Abdullin Unternehmen, LLMs zu nutzen, da sie in Kombination mit spezialisierten Tools einen erheblichen Mehrwert bieten können. Conor Doherty beendete das Interview und bedankte sich bei Joannes und Rinat für ihre Einblicke in das dynamische Feld der generativen KI und ihre Rolle bei der Gestaltung der Zukunft des Supply Chain Managements.

Vollständiges Transkript

Conor Doherty: Willkommen zurück bei Lokad TV. Der Fortschritt, der in den letzten 12 Monaten in der generativen KI erzielt wurde, ist eine außergewöhnliche Leistung des technologischen Fortschritts. LLMs, oder Large Language Models, haben es in weniger als einem Jahr vom Nischenprodukt zum Mainstream geschafft. Hier, um die Bedeutung zu erklären, insbesondere im Kontext der Lieferkette, ist Rinat Abdullin, der allererste CTO von Lokad. Rinat, herzlich willkommen bei Lokad.

Rinat Abdullin: Es ist mir eine Freude und eine Ehre, zurück zu sein. Ich war bei Lokad, als es gerade in einem kleinen Raum an der Universität begann, glaube ich. Und von allen Unternehmen, mit denen ich seitdem zusammengearbeitet habe, einschließlich sieben Start-ups, war Lokad der herausforderndste und lohnendste Ort in meinem Leben.

Conor Doherty: Du musst nichts über Joannes direkt sagen, aber wenn du sagst, dass es am herausforderndsten war, was genau hat Lokad so herausfordernd gemacht? Und dann im Gegensatz dazu, die Schwierigkeit zukünftiger Projekte?

Rinat Abdullin: Damals waren wir ein Start-up, und es war eine interessante Kombination aus dem Versuch, eine Übereinstimmung zwischen den Technologien und dem zu finden, was der Kunde wollte und tatsächlich brauchte. Das Ausbalancieren dieses Dreiecks war immer eine Herausforderung, weil die Technologien damals noch in den Kinderschuhen steckten. Wir waren einer der ersten großen Kunden von Azure und begannen gerade damit, eine skalierbare Bibliothek zur Verarbeitung großer Mengen von Zeitreihen von Kunden aufzubauen. Es gab keine Unterstützung; alles musste von Grund auf neu aufgebaut werden, und diese Reise dauerte viele Jahre. Sie setzte sich fort mit der Entwicklung einer benutzerdefinierten DSL, um Experten bei Lokad zu befähigen, und sie ist immer noch im Gange. Das ist ein Teil des Dreiecks. Der zweite Teil war, dass Kunden bessere Zahlen wollen; sie möchten, dass ihr Geschäft auf vorhersehbare Weise läuft, ohne eingefrorenes Geld auf dem Lagerbestand. Gleichzeitig möchten sie, dass diese Zahlen verständlich sind, denn wenn Sie Kunden Zahlen liefern, die aus einer magischen Blackbox stammen, könnten die Führungskräfte sagen: “Ja, es funktioniert”, aber die Supply-Chain-Experten in den lokalen Lagern werden sagen: “Ich verstehe diese Zahlen nicht. Ich vertraue den Formeln nicht, und mein Bauchgefühl, basierend auf 10-20 Jahren Erfahrung, sagt nein, es wird nicht funktionieren, also werde ich das ignorieren.” Und man kann natürlich nicht alle feuern. Das Ausbalancieren dieser drei Aspekte war eine Herausforderung bei Lokad und bei allen Kunden, mit denen ich seitdem zusammengearbeitet habe.

Joannes Vermorel: Wenn ich Rinat zuhöre, haben wir damals mit Zeitreihen gearbeitet, stimmt das?

Rinat Abdullin: Ja, Lokad wurde buchstäblich als Zeitreihen-Prognosedienst gegründet, also kenne ich mich ein wenig mit Zeitreihen aus, auch wenn wir Jahre später von diesem Pfad abgewichen sind. Wir haben Zeitreihen gemacht, und es ist ein sehr grundlegender Baustein. Die von Rinat erwähnte Spannung hinsichtlich der Erklärbarkeit ist auch etwas, das endlich angegangen wurde, aber mehr als ein Jahrzehnt nach der Gründung von Lokad. Wir mussten uns dem differenzierbaren Programmieren zuwenden, damit wir endlich Modelle hatten, die maschinelles Lernen waren, aber erklärbar. Das kam sehr spät. Jahrelang hatten wir die Wahl zwischen groben Modellen, die zwar transparent waren, aber nicht sehr gut, oder maschinelles Lernen Modelle, die besser waren, aber Blackboxes, die tonnenweise operative Probleme verursachten. Manchmal waren sie nicht natürlicherweise besser gemäß allen Dimensionen des Problems. Das war ein immenser Kampf, und die Lokad-Reise war fast ein Jahrzehnt lang ein ständiger Kampf bergauf. Rinat hat die erste Hälfte eines Jahrzehnts bergauf gekämpft, und dann gab es andere Leute, die für die anderen gekämpft haben. Es war eine sehr lange Reihe von massiven Problemen, die angegangen werden mussten.

Conor Doherty: Danke, Rinat. Wenn wir zu Ihnen zurückkommen, wenn wir versuchen zu erklären, was Lokad tut, geschieht dies durch eine Reihe sehr langer Artikel, Vorlesungen, Diskussionen wie diese. Aber wenn Sie versuchen, maschinelles Lernen in diesem Kontext transparent zu machen, wie gehen Sie dabei vor?

Rinat Abdullin: Einer der Ansätze, der sich bei der Unterstützung bei der Erstellung eines Hackathons für ein internationales Logistikunternehmen als recht erfolgreich erwiesen hat, war die Verwendung von Simulationen. Wenn es um internationale Logistik geht, gibt es viele Variablen im Spiel. Sie haben Fracht, die zwischen mehreren Standorten mit verschiedenen Transportmitteln transportiert werden muss. Sie haben Speditionen und verschiedene andere Unternehmen, die auf dem freien Markt um Frachtlieferungen von Standort A nach Standort B konkurrieren. Dann haben Sie tatsächliche Lieferwege wie Straßen, Schienennetze, vielleicht auch eine letzte Meile Lieferung irgendwo. Wenn LKWs Fracht zwischen diesen Standorten transportieren, treten Verzögerungen, Verkehrsstaus auf und die Fracht kann außerhalb der Arbeitszeiten in einem Lager ankommen oder der Entladebereich des Lagers kann überfüllt sein.

Wir wollten diese Komplexität auf eine Art und Weise modellieren, die für Studenten oder neue Mitarbeiter des Unternehmens zugänglich ist. Was wir getan haben, war ziemlich brutal. Es ist vielleicht sehr ähnlich, wie es antike Forscher versucht haben, die Zahl Pi durch eine Simulation mit einer Münze zu modellieren. Wir haben also eine virtuelle Karte von Europa mit Hauptstraßen erstellt, und auf dieser virtuellen Karte hatten die Straßen Längen, die Zeit verging, LKWs fuhren hin und her, und Speditionen konnten entscheiden, welche Fracht sie abholen und ob sie sie rechtzeitig liefern würden. Das war der Einstiegspunkt für die Teilnehmer des Hackathons, denn sie konnten Agenten programmieren, die Entscheidungen treffen würden wie “Ich bin LKW-Fahrer A und ich werde diese Fracht von Standort A nach Standort B transportieren”. Aber es gab einen Trick: Wenn ein LKW Fracht von einem Ort zum anderen transportiert, kostet das Geld, genau wie in der realen Welt. Um Geld zu verdienen, müssen Sie Steuern zahlen, Sie müssen für Treibstoff bezahlen, Sie müssen sicherstellen, dass der Fahrer sich ausruht.

Da es sich um eine Simulation handelt, benötigen Sie keine komplexen Formeln; Sie bringen die Realität mit Brute-Force zum Ausdruck. Sie führen einfach wie ein Batch-Skript für NPCs oder für ein Spiel sequentiell aus, und Sie können viele erklärungsfähige Regeln auf einem Blatt Papier haben. Diese ganze Welt war so verständlich für die Menschen, dass wir tatsächlich zwei Schwierigkeitsstufen geschaffen haben. In der ersten Stufe fuhren Unternehmen einfach LKWs und versuchten, das meiste Geld zu verdienen. In der zweiten Stufe stiegen die Benzinpreise etwas an, Unternehmen mussten CO2-Emissionen ausgleichen und LKW-Fahrer konnten müde werden. Wenn der LKW-Fahrer länger als 12 oder 14 Stunden gefahren ist, besteht eine zunehmende Unfallgefahr. Bei einem Unfall geht der LKW-Fahrer in die Ruhephase und diese Maschine tut im Grunde genommen nichts und verschwendet so Zeit. Wir haben diese Umgebung aufgebaut, die Teilnehmer konnten ihre Agenten programmieren, und wenn Sie eine diskrete Ereignissimulation mit beschleunigter Geschwindigkeit durchführen, erhalten Sie im Wesentlichen Monate virtueller Zeit, die in Sekunden realer Zeit vergehen.

Wir konnten schnell viele Simulationen durchführen und sagen: “Hey Teams, die Entscheidungen, die eure Agenten in dieser virtuellen Welt getroffen haben, waren die Durchlaufzeitverteilung, dies war die Preisverteilung, dies waren die Margen, dies waren die Anzahl der Unfälle, die eure Agenten hatten.” Das ist im Wesentlichen der Ansatz, den ich normalerweise wähle, wenn ich versuche, eine komplexe Umgebung zu erklären. Zuerst beginnen wir mit der Simulation, weil sie spielerisch ist, es ist einfach, die Regeln zu erklären, Sie müssen keine Differentialprogrammierung durchführen. Aber wenn Sie diese Simulation ausführen, handelt es sich im Wesentlichen um eine Monte-Carlo-Analyse, die die Abhängigkeiten in komplexen Systemen verfolgt. Das bedeutet, dass Sie zum Beispiel in einigen Fällen keine einfache Verteilung auf der Außenseite erhalten, sondern aufgrund von Interferenzen zwischen mehreren Elementen des Systems Interferenzmuster auf den äußeren Verteilungen auftreten. Es sieht aus wie eine Blackbox, aber die Menschen können die Regeln verstehen, sie können die Regeln des Spiels ändern, und dann, wenn ein Unternehmen schließlich versteht, wie diese Umgebung funktioniert und die Zahlen mag, die auf langsame Weise herauskommen, weil die Simulation immer noch Zeit braucht, gibt es eine Möglichkeit, die Berechnung zu optimieren, indem man sagt: “Okay, das sind die Zahlen, die wir aus der Simulation bekommen, und lassen Sie uns direkt mit den Wahrscheinlichkeiten zur Differentialprogrammierung wechseln, um die gleichen Zahlen, aber schneller zu erhalten.” Es ist nur eine Leistungsoptimierung. So würde ich normalerweise vorgehen.

Joannes Vermorel: Was sehr interessant ist, ist dass im letzten Jahr eine neue Klasse von Tools, LLMs, verfügbar geworden ist, und das ist sehr interessant, weil das buchstäblich eine ganze Klasse von Technologien ist, die seit etwa fünf Jahren existieren, aber sie waren sehr spezialisiert und nur Experten konnten wirklich ihr Potenzial erahnen, weil es damals hauptsächlich um Potenzial ging. Vielleicht, Rinat, wie sehen Sie, was sich durch die Einführung dieser Klasse von LLM-Tools verändert hat? Wie vergleichen Sie das? Wir hatten verschiedene Klassen von Tools für maschinelles Lernen für Unternehmen, wie Klassifikation, Regression, Monte-Carlo-Simulationen. Es waren Klassen von Tools, die zusammengefügt werden konnten, und jetzt haben wir eine ganz andere Klasse von Tools, LLMs. Vielleicht für das Publikum, das neben ChatGPT nicht mit LLMs vertraut ist, wie fassen Sie das in einem Kontext von Unternehmenssoftware, Unternehmensabläufen zusammen? Was ist Ihre Vision auf hoher Ebene dazu?

Rinat: Ich beschäftige mich seit 2015 mit Sprachmodellen, bevor der Chatbot herauskam und populär wurde. Sie haben recht, dass sie damals sehr spezialisiert waren. Sie wurden in Sprachübersetzern, Spracherkennung und Sprachmodellen verwendet, die Rechtschreibfehler korrigieren oder beim Auffinden von Texten in großen Korpora helfen. Als sie durch ChatGPT herauskamen, stieg ihre Beliebtheit stark an. Ein Grund dafür ist, dass sie darauf trainiert wurden, hilfreich und gehorsam gegenüber Menschen zu sein.

Und das ist manchmal auch der Grund, warum sie so irritierend sind, denn wenn man Ergebnisse aus dem Modell erhalten möchte und es sich immer wieder entschuldigt und sagt ‘Es tut mir leid’, kann das frustrierend sein. In meiner Denkweise teile ich Modelle im großen Maßstab grundsätzlich in zwei Kategorien ein. Eine Kategorie von Modellen arbeitet hauptsächlich mit Zahlen, also sprechen wir von Regressionen, Monte-Carlo, neuronalen Netzen. Die andere Klasse von Modellen, die großen Sprachmodelle, ja, sie arbeiten mit Zahlen, aber oberflächlich betrachtet arbeiten sie mit Text, mit großen unstrukturierten Texten, und das ist der Kern ihrer Benutzerfreundlichkeit.

Diese Modelle ermöglichen es einer Maschine oder Automatisierung, direkt in menschliche Interaktionen eingebunden zu werden. Zum Beispiel müssen Sie bei Regressionen oder Zeitreihen das Modell irgendwo in der Mitte der digitalen Geschäftsprozesse einbinden. Auf der einen Seite gibt es eine Datenbank, in der Mitte eine Prognose-Engine und auf der anderen Seite möglicherweise eine Datenbank oder ein CRM oder ERP. Im besten Fall erhalten Sie einen Bericht, aber es sind immer noch Zahlen. Mit LLMs binden Sie sich direkt in den Mittelpunkt des Geschäftsprozesses, in den Mittelpunkt der menschlichen Arbeitsabläufe ein.

Das eröffnet so viele Möglichkeiten, insbesondere da es heutzutage nicht viel Aufwand erfordert, etwas umzusetzen, was vor einem Jahrzehnt völlig unmöglich oder teuer war. Zum Beispiel, persönlich, wenn ich mit LLMs arbeite, habe ich gerade das Gefühl, dass ich meine eigene private Abteilung von Assistenten habe. Sie sind polyglott, sie sind Full-Stack, manchmal vielleicht naiv, aber sie sind auch intelligent und werden sich nie beschweren. Wenn ich sie zum Beispiel bitte, eine Schaltfläche in einem Layout zu verschieben oder einen Brief an einen Richter in Deutschland umzuschreiben, sind sie sehr hilfreich, sehr gehorsam, manchmal dumm, aber sie können großartige Dinge tun.

In den Unternehmensklassen der LLM-Adoption, die ich gesehen habe, handelt es sich hauptsächlich um das, was sie als Geschäftsdigitalisierung bezeichnen. Es hilft Unternehmen, Workflows zu automatisieren, die sich um das Auffinden von Texten in einem großen Korpus drehen. Zum Beispiel hat ein Unternehmen viele Daten, es hat seine Wissensdatenbanken, aber diese Wissensdatenbanken sind im Wesentlichen Silos. Es könnten RFCs, Fragebögen oder eine Wikipedia sein, die niemand wirklich auf dem neuesten Stand hält, und die Leute müssen eine Aktivität durchführen, die manchmal erfordert, Informationen an obskuren Orten zu finden. Dies erfordert Zeit, Aufwand und vor allem kognitive Energie.

Was LLMs tun können, ist Vorarbeit leisten. Sie können Artikel entwerfen, sie können Recherchen zu den privaten Daten eines Unternehmens durchführen und sagen: ‘Okay, Sie erstellen diese Antwort für das Unternehmen, basierend auf Ihren Unternehmensabläufen und den codierten Anweisungen, das ist mein Entwurf.’ Für jeden Punkt in dieser Antwort-Checkliste können sie zeigen, woher sie die Informationen haben. Die Person muss also nicht mehr die Routinearbeit erledigen und kann sich auf die anspruchsvollere Arbeit konzentrieren, zu überprüfen, ob das Modell etwas richtig verstanden hat. Dies ermöglicht eine massive Steigerung der Effizienz eines Unternehmens.

Als ChatGPT herauskam, hatten die Leute wirklich Angst, dass LLMs und KI ihre Jobs übernehmen würden, aber das tun sie nicht. Glauben Sie mir, ich habe Kunden dabei geholfen, Produkte zu entwickeln, die von LLMs und ML unterstützt werden, und es erfordert viel Aufwand, etwas zu produzieren, das einen Menschen ersetzen kann. Das ist nahezu unmöglich. Aber was LLMs tun können, ist, bestehende Mitarbeiter effizienter zu machen, manchmal sogar um das Zehn- bis Hundertfache. Das sind Ausnahmefälle. Sie machen Menschen einfach effizienter, können sie aber niemals ersetzen. Es muss immer Menschen in der Schleife geben.

Conor: Wenn ich auf diesen Punkt eingehen darf, weil der Kontext der Diskussion wiederum generative KI, LLMs im Kontext der Lieferkette ist. Basierend auf dem, was Sie gerade gesagt haben, Rinat, klingt es so, als ob LLMs im Allgemeinen Produktivitätssteigerer sein werden. Aber sehen Sie spezifische Anwendungsfälle in der Lieferkette oder ist es einfach so, wie Sie gesagt haben, ‘Ich habe ein Team von Polyglotten, ich muss diese RFP in 10 Sprachen übersetzen’?

Rinat: Meiner Erfahrung nach sind Lieferketten etwas langsam bei der Übernahme von LLMs im Kern des Prozesses. LLMs beginnen eher von außen einzudringen. Ein häufiger Fall ist, dass Marketingabteilungen in der Regel die ersten Anwender sind. Wenn ein Unternehmen beispielsweise Benutzer hat, ist die Schnittstelle zwischen dem Unternehmen und den Benutzern, den Kunden, der Ort, an dem ich die größte Übernahme gesehen habe. Zum Beispiel gibt es Marktplätze, die Produkte an ihre Kunden verkaufen, und sie möchten diese Interaktion angenehmer gestalten und möglicherweise die Kosten für diese Interaktion mit den Kunden reduzieren.

Es ist bereits ziemlich machbar, Systeme zu erstellen, die unermüdlich und rund um die Uhr automatisch durch die Produktkataloge kriechen und feststellen: ‘Okay, dies ist ein Produkt, aber es wurde vom Lieferanten der Lieferkette falsch eingegeben.’ Warum? Weil ich das Internet durchsucht habe, habe ich diese Produktspezifikationen gefunden, die ähnlich sind, ich habe auch die PDF-Beschreibung vom Hersteller des Produkts gefunden, und meiner Meinung nach hat etwa die Hälfte des Internets diese Nummer richtig, und Sie haben diese Nummer falsch. Dies sind die Referenzen. Bitte treffen Sie eine Entscheidung, ob Sie sie automatisch korrigieren müssen. ‘Oh lieber Manager, ich habe gesehen, dass Sie diese Produktbeschreibung, diese Produktparameter, korrigiert haben. Möchten Sie, dass ich die Produktbeschreibung neu generiere, um die aktualisierte Nummer, nicht nur die Nummer, sondern auch den Text zu haben?’ Und während Sie dabei sind, habe ich drei Produktbeschreibungen erstellt, damit Sie auswählen können, was Sinn macht. Ich habe auch einen SEO-Marketingtext erstellt, die Schlüsselwörter in Ihrem Veröffentlichungssystem aktualisiert, ich habe auch eine Twitter-Ankündigung und eine LinkedIn-Ankündigung erstellt.

Eine weitere Schnittstelle zwischen den Kunden und Einzelhändlern, die sich in die Lieferkette einfügen, ist die Produktliste auf den Marktplätzen. Stellen Sie sich vor, Sie sind ein Anbieter, der mit vielen Marktplätzen zusammenarbeiten muss, und Ihr Katalog umfasst 10.000 Artikel mit kleinen Variationen, wie Autoteilen oder Flugzeugteilen. Sie möchten diesen Prozess automatisieren, insbesondere wenn sich Ihr eigener Bestand recht schnell ändert. Es ist durchaus machbar, und ich habe es bereits gesehen. Zum Beispiel erhalten Sie ein paar Bilder des Produkts, insbesondere wenn es sich um wiederverwendete Produkte handelt, insbesondere in der Mode funktioniert es sehr gut. Sie führen sie durch die Bilderkennung, die am besten funktioniert, wenn sie auf Mode und Styling trainiert ist. Sie erhalten die Texte, die Beschreibungen, Sie wählen die Felder aus, ändern die Größe der Bilder automatisch und generieren daraus eine Beschreibung für die Menschen.

Und dann kommt einer der schönsten Teile. Sie erstellen auch eine LLM-erweiterte versteckte Beschreibung, die für die semantische Suche verwendet wird. Was bedeutet das? Wenn ein Kunde einer Modeplattform ein Kleidungsstück finden möchte, sucht er nicht immer nach einem Boho-Stil-Shirt mit Drachen darauf, das Größe M hat und unter 10 US-Dollar kostet. Er sucht nach etwas wie: “Hey, ich gehe heute Abend auf eine Party und meine Freunde sind dort, was kann ich tragen, das zu meinen Shorts passt?” Wenn Sie Produktbeschreibungen und semantische Erklärungen haben, die von den LLMs aus dem Produkt extrahiert wurden, und Sie nach ihnen suchen, aber nicht nach dem vollständigen Text, weil niemand weiß, wie man Boho schreibt, sondern Sie verwenden eine suchbasierte Einbettung, die im Wesentlichen eine vektorbasierte Suche ist, eine Suche nach der Bedeutung des Textes, nicht nach den genauen Worten, dann erhalten Sie Ergebnisse, die von außen betrachtet magisch aussehen, weil das Modell irgendwie Dinge vorschlägt, die Sie fragen wollten, nicht das, was Sie gesagt haben.

Conor: Vielen Dank, Rinat. Joannes, was denkst du dazu? Ich meine, wenn ich Lieferketten beobachte, würde ich sagen, dass sie zu etwa gleichen Teilen funktionieren. Die Hälfte der Leute arbeitet mit Tabellenkalkulationen, und der Rest besteht aus alltäglicher Kommunikation mit Partnern, Lieferanten, Kunden und so weiter. Bei den Tabellenkalkulationen geht es wirklich darum, die Mengenentscheidung zu automatisieren, das ist es, was Lokad jetzt seit einem Jahrzehnt tut. Der zweite Teil wurde größtenteils nicht automatisiert, weil es bis zum Aufkommen von LLMs keine echte Technologie gab, die eine plausible Antwort darauf war.

Joannes: Das bedeutet, dass die Dinge, die Kommunikation erfordern, entweder einen sehr engen Workflow hatten und dann automatisiert werden konnten, und sie wurden automatisiert durch, sagen wir, EDI, um eine Bestellung weiterzugeben. Wir werden eine Brücke haben, die die Bestellung weitergibt, und dann haben wir ein nicht-textbasiertes Problem. Aber das ist nicht genau das, was die Leute meinen, wenn sie sagen, dass die Leute die Hälfte ihrer Zeit mit Tabellenkalkulationen und die andere Hälfte mit der Verwaltung von Partnern, Kunden, Transportunternehmen und Lieferanten verbringen. Es geht eher darum, “Könnten Sie diese Bestellung beschleunigen, und wenn ja, zu welchem Preis?” Es ist eher vage und offen.

Man muss diesen Sonderfall nehmen und eine E-Mail zu dem Fall schreiben, um zu klären, was die Absicht ist, was auf dem Spiel steht, und das dauert eine halbe Stunde. Dann wiederholen Sie das mit einer anderen Situation, einem anderen Problem, und Sie erstellen eine weitere E-Mail. Am Ende haben Sie eine Einkaufsabteilung, in der jeder während acht Stunden Arbeit vier Stunden mit seiner Tabellekalkulation und vier Stunden mit dem Schreiben von 20 E-Mails an 20 Partner verbringt. Hier sehe ich ein großes Potenzial zur Verbesserung. Lokad automatisiert bereits den ersten Teil, aber mit LLM gibt es ein großes Potenzial, den zweiten Teil weitgehend, aber nicht vollständig, zu automatisieren. Im Wesentlichen ermöglicht es den Menschen, würde ich sagen, Unterstützung bei der automatischen Erstellung von Kommunikation zu leisten, die von Ihren Partnern empfangen wird. Das LLM wurde verwendet, um eine vernünftig kontextualisierte Version der Problemstellung und dessen, was wir vom Partner erwarten, bereitzustellen.

Wenn die Problemstellung klar definierte Grenzen hat, haben Sie EDI; es wird einfach zu etwas, das Teil Ihres vollständig mechanisierten Workflows ist. Aber ich spreche von dem Rest, den Dingen, die nicht ganz ausgerichtet sind, wie zum Beispiel wenn Sie 1.000 Einheiten bestellt haben und sie 1.050 geliefert haben. Sie werden die Bestellung nicht ablehnen, weil sie 50 Einheiten zu viel geliefert haben. Sie mögen diesen Lieferanten, also werden Sie die Bestellung akzeptieren und bestätigen, Sie werden sie erhalten und für 1.050 Einheiten bezahlen, anstatt für 1.000. Aber Sie möchten Ihrem Lieferanten auf höfliche Weise mitteilen, dass Sie es bevorzugen würden, wenn er sich an die ursprüngliche Vereinbarung hält, nämlich 1.000 Einheiten zu versenden und nicht 1.050. Hier gibt es eine gewisse Nuance, bei der Sie den Workflow nicht stören möchten; es ist quasi korrekt, aber Sie möchten dennoch kommunizieren, dass es nicht in Ordnung ist, immer 5% mehr zu liefern, damit der Lieferant Ihnen etwas mehr berechnen kann.

Dies ist genau die Art von Situation, in der LLMs wirklich glänzen, diese Art von sanfter Kommunikation, bei der Sie eine Nachricht übermitteln müssen. Es würde Zeit brauchen, um die Formulierung so auszubalancieren, dass sie nicht zu aggressiv ist, aber der Partner dennoch versteht, dass Sie eine starke Präferenz dafür haben, dass er sich strikt an die anfänglich vereinbarte Menge hält. Es ist genau die Art von Situation, bei der jemand eine Stunde lang über die E-Mail grübeln kann, um diese Hälfte zu schreiben, und das ist genau die Art von Sache, bei der moderne LLMs genau das sind, was nicht super intelligent ist. Die Art von Intelligenz, die Sie in diesen LLMs haben, ist sprachlich, und wenn Sie den richtigen Ton angeben möchten, haben sie fast übermenschliche Fähigkeiten. Sie sind nicht unbedingt super intelligent im Sinne von richtigem Verständnis des großen Ganzen, der richtigen Richtung, aber wenn Sie denselben Text mit einem etwas dunkleren Schatten haben möchten, wie zum Beispiel denselben Text, aber etwas aggressiver oder etwas weicher oder etwas unterstützender, dann sind sie darin super gut.

Es würde Sie vielleicht 20 Minuten dauern, um dies für eine halbe Seite zu tun, und ein LLM kann das buchstäblich in Sekundenschnelle erledigen. Das ist genau die Art von Situation, in der Sie einen massiven Produktivitätsschub für diese sanften Berührungen haben können, bei denen Menschen buchstäblich Stunden verbringen. Wenn wir das etwas höher nehmen, stellen Sie sich ein Unternehmen vor, das Tausende von Kommunikationen wie diese über die Randfälle im Laufe des Tages hat. Das ist eine neue Fähigkeit, die LLMs mitbringen. Für Unternehmensinhaber, für Stakeholder, um das große Ganze zu verstehen, ist es anstrengend, aber jetzt haben wir LLMs, die sehr gut darin sind, massive Mengen an unstrukturierten Texten zu scannen und Muster zu finden. Stellen Sie sich vor, ein LLM kann tatsächlich Hunderte von Berichten oder E-Mails oder Hin- und Her-Kommunikationen über das Nichtsenden von zusätzlichen 5% durchlesen und am Ende des Tages eine prägnante Zusammenfassung für die Führungskräfte erstellen, in der steht: “Hey, es scheint, dass wir hier ein sich wiederholendes Muster haben, dass immer mehr Lieferanten in der letzten Woche versuchen, uns mehr Lagerbestand zu schicken.”

Wie Sie wissen, verfügt ChatGPT über eine erstaunliche Funktion namens erweiterte Datenanalyse, und das ist buchstäblich so, als hätten Sie eine Abteilung von Datenanalysten unter Ihrer Kontrolle. Sie sind keine Supply-Chain-Experten, daher benötigen Sie immer noch Lokad dafür, aber Sie können ihnen einfache Fragen stellen wie: “Hier ist meine Datenbankdatei, hier ist meine Excel-Datei, führen Sie eine Analyse für mich durch und erkennen Sie die Trends.” Das ist der erstaunliche Teil, der größtenteils online möglich ist. Sie können es nicht lokal oder in der API ausführen, aber ChatGPT wird Theorien aufstellen, einen Code schreiben, ihn ausführen, möglicherweise Fehler beheben, die Ergebnisse ausdrucken und sogar ein Diagramm erstellen. Der gesamte Ablauf vom Moment des Sendens einer Excel-Tabelle und einer Frage bis hin zum schönen Diagramm ist vollständig automatisiert. Es ist selbstkorrigierend, selbstreparierend und Sie erhalten schöne Ergebnisse. Dies ermöglicht es Entscheidungsträgern im Unternehmen, Daten selbst zu analysieren, auch wenn die Daten in komplexen Systemen gespeichert sind, sie selbst zu visualisieren, ohne Python, JavaScript, C oder SQL kennen zu müssen. Ich denke, das ist wirklich befähigend und eröffnet neue Geschäftsmöglichkeiten und schafft neuen Geschäftswert.

Conor: Vor etwa sechs Monaten haben wir über generative KI und ihre Rolle in der Supply Chain diskutiert, und wir waren insgesamt etwas skeptisch. Wenn Sie sich anhören, was in den letzten sechs Monaten beschrieben wurde, haben Sie immer noch die gleiche Perspektive oder haben Sie sich etwas geöffnet?

Joannes: Meine Position bleibt in bestimmten Aspekten weiterhin stark skeptisch. Meine Skepsis war im Wesentlichen eine Reaktion auf die meisten Konkurrenten von Lokad, die sagen: “Wir werden ChatGPT einfach direkt auf Terabytes an Transaktionsdaten anwenden, und es wird funktionieren.” Meine Meinung ist nein, das glaube ich nicht. Ich bin immer noch sehr skeptisch, weil es buchstäblich nicht so ist. Wenn Sie sagen, dass Sie ein paar Tabellen mit Schemata auflisten können oder das Tool das Schema der Datenbank automatisch untersucht, um verfügbare Analysen wie die durchschnittliche Warenkorbgöße zu berechnen, ist das eine völlig andere Sache. In der Vergangenheit musste dies vom Business Intelligence Team durchgeführt werden. Ich spreche von grundlegenden Dingen wie der durchschnittlichen Warenkorbgöße, wie lange behalten wir Kunden im Durchschnitt, wie viele Einheiten haben wir in Deutschland verkauft - sehr grundlegende Fragen. In großen Unternehmen haben Sie normalerweise Dutzende von Mitarbeitern in BI-Abteilungen, die den ganzen Tag über verfügbare Berichte erstellen. Für solche Dinge glaube ich, dass LLMs wirklich helfen können, aber das ist absolut nicht das, was unsere Konkurrenten vorschlagen. Sie sagen: “Sie haben diese Modelle, Sie geben ihnen Ihre Terabyte-Datenbank, Sie geben ihnen Zugriff auf Twitter und Instagram, und Sie haben Ihre Planung, Ihre Entscheidung, alles, und es ist vollständig automatisiert.” Ich sage nein, bei weitem nicht. Wir sind in der Fantasiewelt.

Rinat: In Bezug auf Ihre Antwort auf diese Herausforderung habe ich zwei Gedanken, die ich teilen möchte. Erstens, zum Prozess der Verwendung von LLMs zur Verarbeitung großer Datenmengen: Ich arbeite schon seit einiger Zeit mit verschiedenen LLMs. Eine der ersten Fragen, die Kunden normalerweise stellen, ist, ob sie so etwas wie ChatGPT lokal in ihren Räumlichkeiten ausführen können. Um das zu beantworten, ist es erforderlich, die LLMs in verschiedenen Konfigurationen zu benchmarken und die Kosten zu ermitteln. LLMs sind ziemlich teuer. Um ein Megabyte Text durch die LLMs für Vorhersagen laufen zu lassen, könnte es je nach Modell ein paar Euro kosten. Wenn Sie es lokal auf den besten verfügbaren Modellen ausführen möchten, könnte es Sie 10 € oder vielleicht 20 € kosten.

Und das ist es, was GPT-3.5 tut; es ist sehr günstig. Aber der Punkt ist, es ist nicht einmal möglich, Terabytes oder Petabytes an Daten durch die LLMs laufen zu lassen. Zweitens sind LLMs schlecht mit Zahlen. Wenn jemand ein LLM bittet, mathematische Berechnungen durchzuführen oder Primzahlen aufzulisten, ist das ein Missbrauch. LLMs sind sprachliche Modelle; sie haben eine große Wissensbasis und sind sehr intelligent, obwohl sie immer noch Einschränkungen haben. Sie fragen ein LLM nicht nach einem mathematischen Problem; stattdessen bitten Sie es, das Problem zu formulieren, und dann wird die Berechnung an einen spezialisierten Python-Kernel oder etwas anderes weitergegeben, das viel besser ist als die Verschwendung der Operation an einem LLM.

Die interessantesten Dinge passieren an der Schnittstelle zwischen verschiedenen Bereichen. Zum Beispiel haben wir auf der einen Seite den umfangreichen numerischen Bereich, auf der anderen Seite Text oder weiche und unscharfe Randfälle und Code als dritten Teil. Code ist keine Zahl, kein Text, er ist strukturiert und überprüfbar, und LLMs sind außergewöhnlich gut darin, damit umzugehen. Dadurch entstehen neue Fälle, die für die Supply Chain anwendbar sein könnten und die Anwendbarkeit von Lösungen wie Lokad noch weiter vorantreiben.

Zum Beispiel habe ich LLMs verwendet, um große Textmengen außerhalb der LLM-Fähigkeiten zu analysieren, indem ich das Problem dem LLM formuliere. Zum Beispiel das Finden von Text in Hunderten von Gigabyte großen Jahresberichten weltweit oder das Helfen bei der Lösung eines numerischen Problems, ohne die eigentliche Berechnung durchzuführen. Sie entwickeln eine Theorie, wie Sie es angehen können, weil Sie intelligent sind, Sie kennen die Hintergrundgeschichte, und das sind die Kontrollen, die ich Ihnen gebe.

Wenn es darum geht, in einer riesigen Datenbank zu suchen, bitte ich das LLM in einer spezifischen Syntax, Embedding Suchen zu erstellen, an denen ich arbeiten werde, um eine Liste von Stoppwörtern oder eine Whitelist von Schlüsselwörtern zu erstellen, die verstärkt werden sollen. Dann nimmt ein anderes System, das dafür vorgesehen ist und sehr gut darin ist, in großem Maßstab zu verarbeiten, diese gut formulierte Anfrage des LLMs entgegen und führt sie aus. Das ist der beste Teil, denn LLMs sind in der Lage, Suchanfragen zu verfeinern.

Sie gehen zurück zum LLM und sagen: “Hier war mein ursprüngliches Problem, das ist das, was Sie darüber gedacht haben, das ist die Abfrage, die Sie erstellt haben, und das ist der Müll, den sie zurückgegeben hat. Bitte passen Sie sich an und passen Sie sich an.” Weil die Arbeit mit LLMs so gut wie kostenlos ist, machen Sie vielleicht zehn Iterationen, vielleicht machen Sie eine Gedankenkette, vielleicht einen Gedankenbaum, mit guten Entscheidungen und schlechten Entscheidungen, und dann wird es besser. Das Gleiche gilt für den numerischen Bereich. Zum Beispiel möchten Supply-Manager eine Idee entwickeln, wie sie ihre Bestände besser ausgleichen können. In der Theorie können sie sagen: “Hier ist eine kleine Simulation meiner Umgebung, die vielleicht gut genug ist, und so können Sie sie anpassen. Bitte führen Sie jetzt eine unscharfe Einschränkungslösung durch und versuchen Sie, Ideen zu entwickeln, die mir helfen könnten, meine Bestände besser auszugleichen.”

Das ist die Möglichkeit, die sich eröffnet, wenn Sie mehrere Bereiche verbinden: numerische, Code- und Textbereiche, und die besten verfügbaren Tools für jeden Bereich gemeinsam nutzen.

Conor: Danke, Rinat. Joannes, was denken Sie dazu?

Joannes: Nur zur Klarstellung für das Publikum: Das Interessante ist, dass Sie für viele Probleme mit einem LLM sagen möchten: “Bitte erstellen Sie ein Programm, das das Problem löst.” Sie werden nicht sagen: “Ich möchte, dass Sie das Problem lösen.” Sie werden sagen: “Erstellen Sie ein Programm, und dann werde ich das Programm lernen.” Es gibt weitere Tricks, wie zum Beispiel dem LLM einen Compiler zu geben, um zu überprüfen, ob das Programm kompiliert, oder ein Tool, mit dem Sie das Programm ein wenig ausführen können, um zu überprüfen, ob die Ausgabe sinnvoll ist.

Es geht nicht darum, dass das LLM das Problem direkt löst; es ist vermittelt. Das LLM erstellt ein Programm und verwendet dann etwas anderes, das immer noch textbasiert ist, denn wenn Sie einen Compiler verwenden, wird der Compiler versuchen, das Programm zu kompilieren. Wenn es nicht funktioniert, gibt er eine Fehlermeldung aus. LLMs lieben es, Fehlermeldungen zu verarbeiten und die damit verbundenen Probleme zu beheben. Wir bewegen uns hier sehr stark im Bereich des Textes.

Bei der Supply Chain werden die meisten Situationen vermittelt sein. Wir möchten, dass das LLM das Programm erstellt, das das löst, was wir tun möchten. Zum Beispiel wird das LLM bei dem anfänglichen Problem, den Umsatz in Belgien für das letzte Jahr für Kunden über 1 Million EUR zu finden, nicht die Daten aus der Datenbank nehmen, um es zu tun. Es wird eine SQL-Abfrage erstellen, die von Ihrer Datenbank selbst ausgeführt wird. Wieder Vermittlung.

Was bedeutet das für Unternehmenssoftware? Haben Sie in Ihrer Unternehmenssoftwareumgebung Plattformen, die Ihre Supply Chain Execution, zumindest die Entscheidungsebene, mit programmatischen Fähigkeiten unterstützen? Das LLM wird nicht die Rohdaten der Transaktionen nehmen, um die Ausgabe zu erzeugen; es wird die Problemstellung nehmen, ein Programm erstellen, und es ist sehr vielseitig in Bezug auf das Programm, das es erstellen kann. Aber dann muss etwas in Ihrer Umgebung das Programm ausführen. Welche Art von Programmierumgebung können Sie dem LLM zur Verfügung stellen?

Die meisten klassischen Unternehmenssoftwarelösungen bieten keinerlei Umgebung. Sie verfügen lediglich über eine Datenbank mit einer Sprache, die Sie verwenden können. Die einzige Möglichkeit, mit beispielsweise einem großen ERP-System zu interagieren, das Ihnen ermöglichen soll, Ihren Lagerbestand zu optimieren, besteht darin, die Mindest- und Höchstbestände oder die Sicherheitsbestand-Parameter manuell für jedes Produkt festzulegen. Das LLM kann Ihnen die erforderliche Vorgehensweise mitteilen, aber wenn Sie sie anwenden möchten, müssen Sie die manuellen Einstellungen im ERP-System vornehmen. Wenn das ERP-System eine API bereitstellt, kann es ein Programm erstellen, mit dem Sie dies über die API im großen Maßstab durchführen können, aber es ist immer noch umständlich im Vergleich zu einer nativen programmatischen Lösung. Es wird immer noch über das Framework vermittelt.

Es erfordert tiefgreifende Veränderungen und führt die Programmierbarkeit der Lösung als Bürger erster Klasse ein. Schamlose Eigenwerbung, Lokad hat eine programmatische Plattform. Wir haben es nicht für LLMs gemacht; es war ziemlich Glück, aber wir haben es vor 10 Jahren trotzdem gemacht, um diese Art von programmatischem Denken als Kern der Plattform und als Bürger erster Klasse zu haben. Das war Zufall, keine visionäre Einsicht in das, was vor einem Jahrzehnt mit LLMs passieren würde.

Conor: Vielen Dank, Joannes. Ich habe das Zeitgefühl aller im Blick, daher gebe ich wie üblich an Rinat zurück für einen abschließenden Gedanken. Gibt es etwas, das Sie allen, die zuschauen, mitteilen möchten?

Rinat: Es gab in der Vergangenheit ein paar Blasen, wie die Dotcom-Blase und die Finanzblase. LLMs und KI könnten auch eine Blase sein, oder auch nicht. Sogar meine Mutter kennt ChatGPT und wie man es benutzt, was interessant ist. Ich ermutige alle, keine Angst vor unseren maschinellen Oberherren zu haben, denn Skynet wird es nicht so einfach haben. Als jemand, der versucht, diese Dinge in der Produktion zu stabilisieren, ist es viel Aufwand und es funktioniert nicht zuverlässig einfach so. Also erstens, haben Sie keine Angst vor LLMs, und zweitens, nehmen Sie sie einfach an. LLMs zusammen mit Menschen und Unternehmen können viel mehr Wert schaffen, insbesondere wenn sie durch spezialisierte Tools wie Lokads Prognosen ergänzt werden, die sehr gut in die Umgebung passen.

Conor: Vielen Dank, Rinat. Joannes, vielen Dank für Ihre Zeit. Rinat, vielen Dank, dass Sie wieder dabei sind. Und vielen Dank an alle, die zugeschaut haben. Wir sehen uns das nächste Mal.