00:00:01 Einführung und Diskussion über generative KI.
00:01:11 Erkundung des generativen Problems und seiner Lösungen.
00:02:07 Diskussion über die Entwicklung und den Fortschritt der generativen KI.
00:03:02 Meilensteine im maschinellen Lernen und Zugänglichkeit von Tools.
00:04:03 Diskussion über die Eigenheiten und Ergebnisse von KI-Tools.
00:05:00 Beliebtheit und Zugänglichkeit von generativer KI.
00:06:33 Bildgenerierung mit Stable Diffusion, wird zugänglich.
00:07:37 Diskussion über die Zugänglichkeit von Generator-Tools.
00:08:43 Erklärung der Generierung von hochdimensionalen Objekten.
00:09:38 Herausforderungen und Verbesserungen in der Dimensionalität.
00:10:07 Erkundung der Textgenerierung und ihrer Grenzen.
00:11:15 Diskussion über Konsistenz in verschiedenen Maßstäben.
00:12:24 Übergang zum Thema Generator-Spezifität und -Vielseitigkeit.
00:13:46 Vergleich von KI-generierten Ausgaben mit menschlichen Ausgaben.
00:14:59 Diskussion über maschinelles Lernen und Sprachgenerierung.
00:15:51 Erkundung der Methode des Ausschneidens und Einfügens in KI.
00:16:30 Hervorhebung des Mangels an gesundem Menschenverstand bei KI.
00:17:26 Erwähnung der IQ-Testleistung von ChatGPT.
00:18:45 Diskussion über das Verständnis von KI und Beispiele.
00:19:47 Flaches Verständnis von KI und hochdimensionale Vermischung.
00:20:41 Komplexität der künstlichen Intelligenz und ihrer Geschichte.
00:21:58 Die unbekannten Elemente und die Entwicklung der KI-Intelligenz.
00:22:25 Diskussion über die sich ändernde Wahrnehmung von Intelligenz.
00:23:45 Erkenntnisse über Deep Learning und künstliche Intelligenz.
00:24:24 Konzept des latenten Wissens in menschlichen Sprachen.
00:25:59 Verständnis des Universums in der Antike und in der modernen Zeit.
00:27:02 Einführung in das Konzept der ‘Antifragilität’ aus dem Buch von Nasim Taleb
00:28:01 Antifragilität in Ökosystemen und menschlichen Gesellschaften
00:29:31 Kritik an der Fähigkeit von ChatGPT, ‘intelligente’ Diskurse zu generieren
00:31:05 Betrachtung der Anwendungen von generativer KI in Unternehmen.
00:31:37 Die potenzielle Rolle von generativer KI im Supply Chain Management.
00:33:34 Begrenzte Fähigkeiten von ChatGPT in datenarmen Bereichen.
00:35:00 Vorsicht beim Einsatz von KI-generiertem Code in kritischen Systemen.
00:36:04 Vorteile von KI für die Supply Chain und periphere Aktivitäten.
00:37:37 Diskussion des Trends zu breiteren Korpora für Code-Vervollständigung.
00:38:45 Vergleich der Parameteranforderungen: ChatGPT vs. kleinerer Generator.
00:40:45 Die Auswirkungen von generativer KI auf Unternehmen und die Supply Chain.
00:41:19 Diskussion von Lovecrafts Ansicht über die tiefen Wahrheiten des Universums.
00:42:01 Beziehung zwischen dem Missbrauch von Technologie und Supply Chain Software.
00:42:56 Bedenken hinsichtlich der Erstellung und Überprüfung gefälschter Fallstudien.
00:44:04 Kritik an den vagen Marketingaussagen von Lokad-Konkurrenten.
00:45:10 Diskussion der Einschränkungen von KI-Sprachmodellen.
00:46:08 Erläuterung der Besonderheiten von KI in der Technologie.
00:47:00 Bedeutung spezifischer Terminologie in der KI.
00:48:01 Analogie des Fensterkaufs zum Verständnis von KI.
00:48:48 Diskussion über Integrationsprobleme bei Softwarearchitektur.
00:50:14 Die Bedeutung des Kern-Designs in Unternehmenssoftware.
00:50:54 Beispiel für Kern-Design in einer transaktionalen Datenbank.
00:51:48 Notwendigkeit eines ordnungsgemäßen Software-Designs und Integration.
00:52:52 Ratschläge zur Bewertung der Technologie eines Anbieters.
00:53:36 Bedeutung der Veröffentlichung von Leistungen in der Technologie.
00:54:20 KI als Buzzword und Überprüfung von Anbietern.
00:55:25 Schlussbemerkungen und Ende des Interviews.

Zusammenfassung

In diesem Interview diskutiert Joannes Vermorel, der Gründer von Lokad, den Stand und die Auswirkungen von generativer KI, wobei er sich insbesondere auf Fortschritte wie ChatGPT und Stable Diffusion konzentriert. Vermorel erklärt generative KI und ihre Geschichte und hebt den inkrementellen Fortschritt bei der Bild- und Textgenerierung hervor. Er erwähnt die benutzerfreundliche Natur von aktuellen Tools wie Stable Diffusion und ChatGPT, die die Erfolgsraten und die Zugänglichkeit verbessert haben. Vermorel betont die Grenzen der aktuellen KI-Modelle in Bezug auf gesunden Menschenverstand und wahre Intelligenz. Er diskutiert auch die Herausforderungen und das Potenzial von KI im Supply Chain Management und kritisiert die vagen und irreführenden Behauptungen einiger Unternehmen über ihre KI-Fähigkeiten. Vermorel betont die Bedeutung des Verständnisses der zugrunde liegenden Technologie und der Vorsicht bei der Bewertung von KI-Lösungen.

Ausführliche Zusammenfassung

In dem Interview zwischen Gastgeber Conor Doherty und Joannes Vermorel, dem Gründer von Lokad, diskutieren sie den aktuellen Stand und die Auswirkungen von generativer KI, wobei sie sich insbesondere auf Fortschritte wie ChatGPT für Text und Stable Diffusion für Bilder konzentrieren.

Vermorel beginnt damit, generative KI als eine Sammlung von vorgeschlagenen Lösungen für das generative Problem zu definieren, bei dem es darum geht, einen Algorithmus oder eine Methode zur Erstellung einer oder mehrerer Instanzen einer digitalen Darstellung einer Sammlung von Objekten zu entwickeln. Er erwähnt, dass diese Art von Problemen seit Jahrzehnten existiert und für spezifische Anwendungen erfolgreiche Generatoren entwickelt wurden. Zum Beispiel wurden Generatoren verwendet, um realistisch klingende Ortsnamen in England oder Titel für einen Stephen King Roman zu erstellen.

Ebenso gab es im Bereich der Bildgenerierung Generatoren, die eine Karte erzeugen konnten, die wie eine Szene aus ‘Herr der Ringe’ aussieht, komplett mit Bergen, Wäldern, Küsten und Fantasienamen. Die Entwicklung in diesem Bereich war laut Vermorel inkrementell mit dem Ziel, Generatoren breiter zu machen und zunehmend auf Eingabedatensätze angewiesen zu machen, anstatt auf eine umfangreiche Reihe von vorab codierten Regeln.

Vermorel verweist auf zwei bemerkenswerte Meilensteine, die im letzten Jahr von der breiteren Machine Learning Community erreicht wurden: ChatGPT für Text und Stable Diffusion für Bilder. Obwohl dies bedeutende Fortschritte waren, um diese Tools zugänglicher zu machen, betont er, dass es sich dabei um inkrementelle Verbesserungen handelte und keine neuen Entdeckungen in Statistik, Mathematik oder Informatik darstellten.

Die Tatsache, dass diese Tools jedoch so verpackt und poliert waren, dass Laien sie innerhalb von Minuten verwenden konnten, war sicherlich bemerkenswert. Dies stand im Gegensatz zu früheren generativen Tools, die zwar beeindruckende Bilder oder Texte generieren konnten, aber oft mit vielen Eigenheiten kamen und eine gewisse Expertise erforderten, um effektiv zu bedienen.

Stable Diffusion und ChatGPT zeichneten sich durch ihre benutzerfreundliche Natur aus. Mit Stable Diffusion konnte man beispielsweise eine einfache Eingabe wie ‘schönes Schloss mitten im Wald’ eingeben und 20% der Zeit ein plausibles Bild erhalten. Obwohl dies weit von perfekt entfernt war, stellte es eine signifikante Verbesserung gegenüber früheren Generierungstechniken dar, die nur eine Erfolgsquote von 1% hatten.

Dies markierte eine Verbesserung um eine Größenordnung, eine Aussage, die Vermorel auch bei ChatGPT macht. Wie bei Stable Diffusion markierte die Einführung von ChatGPT einen Schritt hin zu benutzerfreundlicheren und zugänglicheren Tools im Bereich der generativen KI.

In diesem Teil des Interviews diskutieren Conor Doherty und Joannes Vermorel, Gründer von Lokad, die jüngste Entwicklung und Auswirkung von Generative Pre-trained Transformer (GPT)-Modellen. Vermorel betont, dass das beliebte ChatGPT-Modell nicht grundlegend neu ist, sondern eine neu verpackte und zugänglichere Version bereits bestehender Technologie darstellt. Er bezeichnet 2022 als das Jahr, in dem generative KI aufgrund von Verbesserungen in der Benutzerfreundlichkeit weit verbreitet verfügbar wurde.

Das Gespräch wechselt dann zu spezifischen Fällen, in denen GPT-Modelle einen signifikanten öffentlichen Einfluss hatten. Vermorel verweist auf Veröffentlichungen des letzten Jahres wie Stable Diffusion und die dritte Iteration von ChatGPT. Der Reiz und der Erfolg dieser Modelle liegen seiner Erklärung nach in den Bemühungen der Forschungsteams, diese Technologien benutzerfreundlich zu verpacken.

Vermorel gibt Beispiele für diese Zugänglichkeit. Er merkt an, dass Stable Diffusion, ein Tool zur Bildgenerierung, als Open-Source-Software veröffentlicht wurde. Dadurch konnten Benutzer mit minimaler Python-Erfahrung in etwa zwei Stunden eine Python-Programmierumgebung einrichten und das Tool eigenständig erkunden. Vermorel betont, dass man kein versierter Python-Programmierer sein muss, um Stable Diffusion zu verwenden; ein grundlegendes Verständnis der Befehlszeilenausführung ist ausreichend.

Er verweist auch auf die Verfügbarkeit von Online-Tutorials und den Start einer kostenlosen Benutzeroberfläche, Dream Studio, mit der Benutzer bis zu 100 Bilder kostenlos generieren können. Für nachfolgende Bildchargen müssen Benutzer eine Gebühr zahlen, ein Modell, das auch auf die Webanwendung von GPT zutrifft.

Joannes Vermorel erklärt zunächst die Komplexität der Erstellung eines Bildes mit hoher Dimensionalität und nennt als Beispiel ein 1000x1000 Pixel Bild, das im Wesentlichen drei Millionen Dimensionen entspricht, wenn man die drei Primärfarben berücksichtigt. Er erwähnt auch, dass die anfänglichen Iterationen auf eine Kapazität von 512x512 beschränkt waren, obwohl Verbesserungen im Gange sind.

Ebenso wird das Problem der Textgenerierung diskutiert. Vermorel erklärt, dass die Dimensionalität bei der Textgenerierung aus zwei Richtungen entsteht. Die erste betrifft die Größe oder den Umfang der Eingabe, die von einer Zeile bis zu mehreren Absätzen oder sogar Seiten variieren kann. Die zweite betrifft, wie weit die Generierung gehen kann, bevor das Modell an Konsistenz verliert.

Vermorel weist auf die Grenzen der aktuellen Modelle hin, da sie nicht in der Lage sind, ein ganzes Buch von Anfang bis Ende konsistent zu produzieren. Die Herausforderungen nehmen mit der Größe des Textes zu: Ein einzelnes Wort erfordert lokale Konsistenz, ein Satz erfordert Konsistenz auf einer größeren Skala, ein Absatz noch größer, und ein Buch würde potenziell Millionen oder sogar zehn Millionen abstrakte Dimensionen umfassen.

Das Gespräch wechselt dann zur Diskussion des Aspekts der “Großzügigkeit” in diesen Modellen. Vermorel interpretiert dies als die Fähigkeit eines Modells, verschiedene Probleme anzugehen oder vielfältige Ausgaben zu generieren. Eine interessante Entwicklung in den letzten fünf Jahren, wie Vermorel feststellt, ist die Fähigkeit der Deep Learning-Community, massive Datensätze zu nutzen.

Ob es sich um Textdaten aus verschiedenen Quellen wie Wikipedia, Webforen oder Rechtstexten handelt, die Deep Learning-Modelle haben sich weiterentwickelt, um vielfältige Ausgaben zu generieren. Sie können jetzt alles von Poesie bis hin zu Rechtstexten, Code oder sogar genomischen Sequenzen produzieren, wenn sie richtig angeregt werden. Das Gleiche gilt für Bilder, bei denen die Ausgaben von Pixelkunst bis hin zu fotorealistischen Bildern oder verschiedenen Malstilen reichen könnten.

Conor Doherty fragt Joannes Vermorel nach der Raffinesse von KI-Modellen wie ChatGPT im Vergleich zu Menschen. Vermorel erläutert den Begriff der Raffinesse und erklärt, dass er aufgrund der Notwendigkeit, seine Bedeutung zu definieren und zu klären, komplex ist. In Bezug auf eine mögliche Anwendung des Turing-Tests stellt er fest, dass der aktuelle Stand der KI-Modelle stark davon abhängt, große Mengen an Daten miteinander zu verbinden und aus einem enormen Textkorpus zu schöpfen.

In gewisser Weise argumentiert er, dass das, was ChatGPT produziert, eine Art fortgeschrittener “Cut-and-Paste”-Prozess ist, bei dem Textstücke aus dem Internet zusammengesetzt werden. Er erkennt an, dass die Stärke des Modells darin liegt, diese Stücke auf grammatikalisch und syntaktisch korrekte Weise zusammenzufügen und hochrangige statistische Muster zwischen Wörtern, Phrasen und Sätzen zu identifizieren. Vermorel betont, dass der resultierende Text zwar menschenähnlich klingen mag, aber hauptsächlich eine Reproduktion bereits vorhandener menschlicher Inhalte ist.

Vermorel dämpft jedoch die Diskussion, indem er darauf hinweist, dass diese Modelle keinen gesunden Menschenverstand besitzen. Er zitiert ein Beispiel des Leiters der KI bei Facebook, der behauptet, dass selbst die fortschrittlichsten KI-Modelle nicht über den gesunden Menschenverstand einer Katze verfügen. Dies liegt daran, dass KI grundsätzlich auf statistischen Beziehungen basiert und das intuitive Verständnis, das mit gesundem Menschenverstand einhergeht, fehlt. Er veranschaulicht diesen Punkt mit einem humorvollen Szenario, in dem ein KI-Modell eine GPS-Route vorschlägt, um den Verkehr mitten im Atlantischen Ozean zu umgehen, ohne die Absurdität der Situation zu erkennen.

Um die Grenzen der aktuellen KI weiter zu verdeutlichen, diskutiert Vermorel ein Forschungsexperiment von Amazon, bei dem ChatGPT einer Reihe von IQ-Tests unterzogen wurde. Die Ergebnisse platzierten das KI-Modell etwa eine Standardabweichung unter dem Durchschnitt, was mit seiner Perspektive übereinstimmt, dass KI hauptsächlich Informationen zusammenfügt, ohne das angeborene Verständnis, das Menschen besitzen.

Er betont jedoch, dass selbst eine Person mit begrenzten kognitiven Fähigkeiten weit intelligenter ist als eine Katze. Dieser Vergleich soll verdeutlichen, dass KI trotz all ihrer beeindruckenden Fähigkeiten bei weitem nicht das Intelligenzniveau einer Katze, geschweige denn eines Menschen, erreicht. Vermorel erinnert uns daran, dass wir trotz unserer Wahrnehmung der kognitiven Einschränkungen einer Katze noch weit davon entfernt sind, ein KI-Modell mit vergleichbarer Intelligenz zu schaffen.

Dieses Gespräch verdeutlicht die Komplexität der KI-Raffinesse, den Prozess hinter der KI-Textgenerierung und die Grenzen, mit denen KI derzeit in Bezug auf gesunden Menschenverstand und intrinsisches Verständnis konfrontiert ist. Es bietet eine wertvolle Perspektive auf den Stand der KI und ihre aktuellen Fähigkeiten und dämpft gleichzeitig die Erwartungen an ihre unmittelbare Zukunft.

Vermorel erläutert die Vorstellung, dass das Verständnis der KI von der Welt unglaublich oberflächlich ist. Er beschreibt die Prozesse, die diese Modelle verwenden, als “hochdimensionale Vermischung der Eingabedaten”. Er unterhält auch die Möglichkeit, dass dies mit anspruchsvolleren Modellen ausreichen könnte, um Intelligenz zu erreichen, aber er vermutet, dass echte Intelligenz komplizierter sein könnte.

Aus seiner Sicht war die Reise der KI eher eine Identifizierung dessen, was Intelligenz nicht ist, als eine Definition dessen, was sie ist. Dieser Klärungsprozess läuft seit etwa 70 Jahren. Er identifiziert den Durchbruch des Deep Learning in den Jahren 2011-2012 als einen bedeutenden Wendepunkt, der eine Vielzahl von Anwendungen ermöglicht hat, die zu erheblichen Erkenntnissen geführt haben. Er betont jedoch die Unsicherheit auf dem Gebiet. Er stellt die These auf, dass unser Verständnis von Intelligenz möglicherweise jedes Mal neu definiert werden muss, wenn eine neue KI-Technik entwickelt wird.

Der Moderator fragt Vermorel dann nach den Verbesserungen in der Leistung der KI bei verschiedenen Iterationen und konzentriert sich dabei auf ChatGPT. Vermorel stimmt zu, dass generative KI, einschließlich ChatGPT, im Laufe der Zeit erheblich verbessert wurde, weist jedoch darauf hin, dass es schwierig ist, die Verbesserungen zu quantifizieren, die erforderlich sind, um die bestehende Lücke im Verständnis von Konzepten durch KI zu überbrücken.

In Beantwortung von Dohertys Frage, wie viel besser die vierte Iteration von ChatGPT sein müsste, gibt Vermorel offen zu, dass es keine Gewissheit gibt. Er betont, dass es nicht nur um lineare Fortschritte geht. Das grundlegende Problem, so betont er, liegt darin, dass wir nicht wissen, was uns in unserem Verständnis von Intelligenz fehlt.

Als historischer Hintergrund stellt Vermorel fest, dass vor einem Jahrhundert die Intelligenz einer Person möglicherweise anhand ihrer Fähigkeit beurteilt wurde, komplexe mathematische Aufgaben wie die Invertierung einer Matrix durchzuführen. Seitdem hat sich unser Verständnis und unsere Messungen von Intelligenz jedoch erheblich verändert. Die Entwicklung der KI, so deutet er an, könnte ähnliche Transformationen durchlaufen, während wir weiterhin unser Konzept von Intelligenz erforschen und hinterfragen. Vor einem Jahrhundert galten Fähigkeiten wie die Invertierung von Matrizen oder die Berechnung der 20 Dezimalstellen von Pi als Zeichen überlegener Intelligenz. Heute werden diese Aufgaben jedoch als mechanistisch angesehen und können von einem einfachen Taschenrechner erledigt werden, was ihre Verbindung zur Intelligenz in Frage stellt. Er stellt fest, dass Computer, obwohl sie bei diesen Aufgaben um Größenordnungen besser sind als Menschen, nicht als intelligent angesehen werden.

Vermorels Diskussion konzentriert sich auf die Fähigkeiten und Auswirkungen von KI, insbesondere auf die Generierung mit Hilfe von Deep Learning. Er schlägt vor, dass KI viele Aufgaben aufgedeckt hat, die auf den ersten Blick unglaublich herausfordernd erscheinen, aber möglicherweise nicht so viel Intelligenz widerspiegeln, wie zunächst angenommen. Als Beispiel betrachtet er die Textgenerierungsfähigkeiten von ChatGPT. Anstatt zu zeigen, was Intelligenz ist, schlägt Vermorel vor, dass es zeigt, was Intelligenz nicht ist. Er sieht ChatGPT eher als Spiegelung des enormen latenten Wissens in der menschlichen Sprache als als Demonstration wahrer Intelligenz.

In Bezug auf das Konzept des latenten Wissens beschreibt Vermorel es als die kumulative Gesamtheit des menschlichen Verständnisses und Wissens, das implizit in der Sprache dargestellt wird. Dieses latente Wissen wird oft in strukturierter Form wie Datenbanken, Karten und anderen aufgezeichnet und enthält Details wie chemische Eigenschaften, Widerstandsfähigkeit von Materialien und Schmelzpunkte. Vermorel behauptet jedoch, dass auch die Sprache einen bedeutenden Teil dieses Wissens verkörpert. Er argumentiert, dass die Wörter und Phrasen, die wir verwenden, unser kollektives Verständnis des Universums widerspiegeln. Wenn zum Beispiel gesagt wird, dass “Planeten Sterne umkreisen”, setzt dies ein Verständnis astrophysikalischer Konzepte voraus.

Dieses latente Wissen, so schlägt er vor, ist selbst in den einfachsten Formen sprachlichen Ausdrucks wie Wörterbuchdefinitionen eingebettet und kann einen Großteil der modernen Wissenschaft umfassen. Er behauptet weiterhin, dass das Fehlen bestimmter Wörter oder Konzepte dazu führen kann, dass bestimmte Formen des Wissens nicht einmal erkannt werden. Um dies zu veranschaulichen, verweist er auf das Buch “Antifragilität” von Nassim Taleb. Er erläutert das Konzept der “Antifragilität” - ein von Taleb geprägter Begriff, der einen Zustand beschreibt, der nicht nur Chaos und Unordnung widersteht, sondern in solchen Bedingungen gedeiht und sich verbessert. Dies steht im Gegensatz zu etwas “Fragilem”, das unter Unordnung zerfällt, oder etwas “Dauerhaftem”, das lediglich Chaos in einem langsameren Tempo standhält. Vermorel findet dieses Konzept bedeutend, da es eine frische Perspektive zur Erfassung verschiedener Systeme von Ökosystemen bis hin zu menschlichen Gesellschaften bietet.

Ihre Diskussion erstreckt sich auf die inhärente Beziehung zwischen Sprache und Wissen. Vermorel veranschaulicht, wie die Einführung eines neuen Begriffs oder Konzepts, wie z.B. “Antifragilität”, das Verständnis erheblich bereichern kann, wenn auch auf eine Art und Weise, die aufgrund der Begrenzungen der Sprache schwer zu erfassen sein kann. Er betont die Rolle der Sprache bei der Ausdrucksweise und Kommunikation von Wissen.

Im Hinblick auf künstliche Intelligenz diskutiert Vermorel das Phänomen des latenten Wissens in der Sprache. Er weist darauf hin, dass dieses latente Wissen eine entscheidende Rolle in Anwendungen wie OpenAI’s ChatGPT spielt, einem Modell, das in der Lage ist, menschenähnlichen Text zu generieren. Vermorel beschreibt ChatGPT kritisch als “Plattheitsgenerator” und schreibt seine scheinbare Intelligenz seiner Neigung zu, weit verbreitete Ideen oder Redewendungen aus umfangreichen, vielfältigen Datensätzen zusammenzufügen.

Trotz seiner Kritik erkennt Vermorel die beeindruckende Fähigkeit von ChatGPT an, kohärenten und kontextuell angemessenen Inhalt auch in Bereichen zu generieren, mit denen der Benutzer möglicherweise nicht vertraut ist. Diese Funktion, so schlägt er vor, beruht darauf, dass ChatGPT auf einem riesigen Datensatz trainiert wurde, der Millionen von Seiten Text aus äußerst unterschiedlichen Bereichen umfasst.

Im weiteren Verlauf des Gesprächs überlegen sie über die praktischen Anwendungen von generativer KI wie ChatGPT im Kontext von Unternehmen und Supply Chain Management. Aus Vermorels Sicht wird der Einfluss von generativer KI auf das Supply Chain Management zumindest direkt gesehen, voraussichtlich nicht signifikant sein. Er betont jedoch auch die Herausforderung, die Zukunft vorherzusagen, und deutet an, dass der Umfang und das Potenzial von generativer KI sich noch entwickeln und uns in Zukunft überraschen könnten.

Vermorel behauptet, dass trotz der wachsenden Bedeutung und Fähigkeiten von KI-Technologien diese möglicherweise keinen wesentlichen Einfluss auf die Optimierung der Supply Chain haben. Er begründet dies damit, dass diese Modelle auf großen, frei zugänglichen Informationsquellen wie dem Web gedeihen, wo sie Bilder und Text-Tags analysieren. Die für das Supply Chain Management kritischen Daten - beispielsweise die Transaktionshistorie - sind jedoch spezifisch für jedes Unternehmen und werden nicht offen geteilt oder leicht zugänglich gemacht. Daher fehlt den derzeitigen Formen dieser KI-Tools möglicherweise die notwendige Information, um Supply Chain-Prozesse effektiv zu optimieren.

Am Beispiel des Verkaufs von Türzargen erklärt Vermorel, dass generische Daten über Türzargen für die Supply Chain-Planung im Vergleich zur spezifischen Verkaufshistorie eines Unternehmens von geringerem Nutzen sind. Er betont, dass diese Daten, die in den Silos des Unternehmens verborgen sind, eine genauere Vorhersage darüber liefern, was bestellt, produziert und gelagert werden soll. Dies unterstreicht den Punkt, dass KI-Technologien wie ChatGPT, die mit weit verbreiteten Daten besser arbeiten, möglicherweise weniger effektiv sind, wenn die relevanten Daten knapp sind.

Vermorel räumt jedoch ein, dass KI-Sprachmodelle für einige Aufgaben wertvoll sein könnten. Zum Beispiel kann ChatGPT aufgrund der großen Menge an frei verfügbarem Code online, hauptsächlich auf Plattformen wie GitHub, bei der Generierung von Code-Schnipseln helfen. Diese Verfügbarkeit ermöglicht es der KI, anständige Code-Schnipsel oder Programme zu generieren und als Produktivitätswerkzeug für Programmierer zu dienen. Dennoch warnt er vor der Notwendigkeit einer sorgfältigen Überwachung, da der von der KI generierte Code auch fehlerhaft sein könnte.

Blickt man in die Zukunft, spekuliert Vermorel, dass KI-Sprachmodelle in Bereichen wie Mitschriften, Korrekturlesen und Zusammenfassungen von Besprechungen hilfreich sein könnten. Beispielsweise könnten sie eine zweistündige Besprechung in eine zweiseitige Zusammenfassung komprimieren und dabei die wesentlichen Details beibehalten. Er deutet jedoch an, dass KI-Tools wie ChatGPT derzeit möglicherweise Schwierigkeiten mit solchen Aufgaben haben, aufgrund ihrer inhärenten Einschränkungen. Dennoch glaubt er, dass KI-Technologien in den nächsten zehn Jahren so weiterentwickelt werden, dass sie solche Aufgaben effektiver bewältigen können.

Vermorel identifiziert Daten als die zentrale Herausforderung und weist darauf hin, dass generative KI-Modelle nicht unbedingt gut mit den inhärenten Komplexitäten von Supply-Chain-Daten umgehen können. Doherty bringt dann die Idee von GitHub Co-pilot ins Spiel, einem Tool, das beim Codieren helfen soll und sogar autonom anständigen Code produzieren kann. Er fragt, ob dies nicht besser für die anstehende Aufgabe geeignet wäre.

Vermorel weist dies zurück und sagt, dass GitHub Co-pilot und ChatGPT-3 nahezu identische technologische Grundlagen nutzen - beide verwenden die Transformer-Architektur. Die Unterschiede liegen in der Benutzererfahrung, wobei GitHub Co-pilot bei jedem Tastendruck automatische Vervollständigung bietet, während ChatGPT-3 dialogorientierter ist. Vermorel prognostiziert, dass das beste Tool zur Code-Vervollständigung wahrscheinlich einen breiteren Korpus als nur Code verwenden wird.

Im weiteren Verlauf bezieht sich Vermorel auf eine kürzlich erschienene Veröffentlichung eines Amazon-Teams. Darin wird ein vielversprechender Generator diskutiert, der Bild- und Textdaten kombiniert und vergleichbare und gelegentlich sogar bessere Leistungen als ChatGPT-3 erbringt, jedoch mit weniger Parametern (eine Milliarde im Vergleich zu ChatGPT-3 mit hundert Milliarden). Diese Idee, so Vermorel, ist faszinierend, weil sie darauf hindeutet, dass die Kombination verschiedener Datentypen ein Modell schaffen kann, das einfacher und dennoch leistungsfähiger ist.

Vermorel weist auf eine paradoxale Beobachtung bei der Entwicklung von KI-Modellen hin: Größere Modelle wie ChatGPT-3 sind nicht unbedingt besser. Er verweist auf Stable Diffusion, ein Modell, das deutlich schlanker und schneller ist als sein Vorgänger, das Generative Adversarial Network, obwohl es nur etwa eine Milliarde Parameter hat. Es ist unklar, so Vermorel, ob Modelle in der Größenordnung von ChatGPT-3 (das im Billionen-Bereich liegt) notwendig sind.

Um diesen Punkt zu unterstreichen, erwähnt er erneut die Forschung des Amazon-Teams, das behauptet, die Leistung von ChatGPT-3 mit einem Modell mit einer Milliarde Parametern nahezu reproduziert zu haben. Diese geringere Größe ermöglicht es, so erklärt er, dass das Modell auf gängigen Grafikkarten in aktuellen Laptops und Workstations betrieben werden kann. Dies eröffnet einen Zugang für eine breitere Nutzung.

Wenn er auf das ursprüngliche Thema zurückkommt, fragt Doherty, ob generative KI speziell für Unternehmen und insbesondere für Supply Chains positive oder negative Auswirkungen hat.

Vermorel erklärt, dass Fortschritte in Wissenschaft und Technologie im Allgemeinen gut sind und widerspricht damit der pessimistischen Sichtweise von Lovecraft, der glaubte, dass es bestimmte tiefgreifende Wahrheiten im Universum gibt, die so brutal und feindselig gegenüber menschlichen Verstand sind, dass sie, wenn sie entdeckt werden, die Menschen in den Wahnsinn treiben würden.

Vermorel räumt ein, dass jedes Werkzeug seit der Steinzeit sowohl genutzt als auch missbraucht werden kann. Im Kontext der Lieferkette Unternehmenssoftware fürchtet er jedoch eine Zunahme der Verwirrung aufgrund des Missbrauchs von Technologie, insbesondere künstlicher Intelligenz. Nach seiner Meinung übertreiben die Anbieter AI bereits und dies könnte sich mit ihren Marketingabteilungen, die endlose gefälschte Fallstudien erstellen, noch verschlimmern. Dies könnte zu noch irreführenderen Behauptungen und nicht überprüfbaren Fallstudien führen.

Vermorel erklärt, dass es in der Vergangenheit einige Anstrengungen erforderte, eine gefälschte Fallstudie zu erstellen, dies jedoch durch KI mühelos geworden ist. Er weist auch darauf hin, dass Teilnehmer an einer Fallstudie keinen Anreiz haben, zu sagen, dass die vom Unternehmen behaupteten Vorteile falsch sind. Sie bestätigen in der Regel diese Vorteile und schreiben sich selbst einen Teil des Erfolgs zu. Vermorel prognostiziert, dass diese Technologien die Situation noch komplizierter machen werden.

Bei der Diskussion der Marketingstrategie seiner Konkurrenten zeigt Vermorel seine Enttäuschung über den oberflächlichen und nicht informativen Gebrauch des Begriffs “KI für die Lieferkette”. Er kritisiert ihre mangelnde Transparenz und wie sie es schaffen, lange Seiten mit Plattitüden zu füllen, ohne substantielle Informationen über ihr Produkt anzubieten. Dies erschwert es ihm, ihre Technologie, ihre Funktion, ihr Design oder die zugrunde liegenden Erkenntnisse zu verstehen.

Vermorel weist darauf hin, dass echte KI-Anwendungen in der Optimierung der Lieferkette hochspezialisierte und technische Ansätze erfordern. Diese Anwendungen basieren auf spezifischen Algorithmen oder Strukturen wie Transformer-Architekturen, generativen Netzwerken oder hierarchischen Ansätzen. Er betont die Notwendigkeit für Unternehmen, präzise und detailliert über die von ihnen verwendeten KI-Techniken zu sein. Sein Argument ist, dass Behauptungen, einfach nur “KI zu machen”, ohne konkrete Angaben oft irreführend oder völlig unbegründet sind.

Um seinen Standpunkt zu veranschaulichen, vergleicht Vermorel die KI-Technologie mit dem Kauf eines Fensters für ein Haus. Beim Kauf eines Fensters erwartet der Käufer eine detaillierte Beschreibung des Produkts - ist es aus Holz, Aluminium oder Kunststoff? Ist es einfach oder doppelt verglast? Ähnlich sollte Vermorel zufolge ein Unternehmen bei KI eine detaillierte Erklärung darüber geben, welche KI-Techniken sie verwenden und wie sie der Lieferkette zugutekommen. Er behauptet, dass generische oder vage Beschreibungen mit dem Verkauf von “generischen Fenstern” ohne konkrete Angaben gleichgesetzt werden können.

Vermorel erweitert diese Analogie, um die Bezeichnung “nachhaltige Fenster” zu kritisieren. Er argumentiert, dass solche vagen Beschreibungen eher Verwirrung stiften als Klarheit schaffen. In ähnlicher Weise kritisiert er Unternehmen, die “hervorragendes Licht” in Bezug auf ihre Fenster anbieten und suggeriert, dass dies gleichbedeutend mit KI-Behauptungen ist, die konkrete Beweise oder Details vermissen lassen.

Darüber hinaus erwartet Vermorel, dass der Einsatz von KI-Technologien wie GPT (Generative Pretrained Transformer) die Verwirrung in der Branche erhöhen wird. Obwohl diese Tools Marketingmaterial generieren und sich relativ einfach in bestehende Technologie-Stacks integrieren lassen können, tragen sie möglicherweise nicht wesentlich zur Gesamtfunktion oder Optimierung der Lieferkette bei, wenn die Softwarearchitektur nicht mit diesen Fähigkeiten im Hinterkopf entwickelt wurde.

Aus seiner Sicht ist dieser Ansatz vergleichbar mit dem Anbringen eines zusätzlichen Teils an eine bestehende Struktur mit Klebeband - es verbessert möglicherweise nicht die Struktur oder ergibt in seiner Anwendung keinen Sinn. Vermorel sieht ein Risiko in der weiteren fehlerhaften Verwendung von “echten” KI-Technologien, da Unternehmen wertvolle Algorithmen auf unsinnige Weise in ihre Abläufe integrieren können, was zu Verwirrung in der Branche anstatt zu wertvollen Fortschritten führt.

Vermorel kritisiert die Tendenz, KI in die Optimierung der Lieferkette auf eine ineffektive und tatsächlich unsinnige Weise zu integrieren. Er weist darauf hin, dass diese Prozesse oft keinen Mehrwert für die Lösungen bieten, die sie verbessern sollen. Um seinen Standpunkt zu unterstützen, verweist Vermorel auf das historische Muster von Iterationen in Operationsforschung, Datenanalyse und Data Science, was darauf hindeutet, dass aktuelle Trends wie kognitive KI möglicherweise mehr vom Gleichen sind.

Laut Vermorel sollte die Integration von KI als Teil der Unternehmenssoftware auf Designebene erfolgen, wenn ein Unternehmen das Beste aus KI machen möchte. Er argumentiert vehement gegen das “Ankleben” von KI an bestehende Software und betont, dass das Kern-Design eines Produkts nur bei der Entwicklung festgelegt werden kann. Der Versuch, KI nachträglich in ein Produkt zu integrieren, erweist sich als äußerst schwierig und oft kontraproduktiv.

Auf die Frage nach einem Beispiel für das Kern-Designniveau, auf das er sich bezieht, spricht Vermorel über transaktionale Datenbanken. Diese Datenbanken, die darauf ausgelegt sind, transaktionelle Integrität sicherzustellen, sind nicht darauf ausgelegt, Technologien wie Bild- oder Textgeneratoren zu nutzen. Seiner Meinung nach sind diese unterschiedlichen Paradigmen nahezu unvereinbar und eine Anpassung zwischen ihnen ist nicht gegeben. Es erfordert sorgfältige Designüberlegungen und ein Leitprinzip, das die Kompatibilität innerhalb der Softwarearchitektur gewährleistet.

Vermorel erkennt die Möglichkeit an, KI als Add-On zu haben, das neben einem bestehenden Produkt sitzt, aber er argumentiert, dass diese Anordnung selten zu einer ordnungsgemäßen Integration oder Synergie führt. Stattdessen kompliziert es die Software, indem es mehr bewegliche Teile und potenzielle Fehler einführt.

Sein Rat an diejenigen, die eine Integration von KI in die Optimierung der Lieferkette in Betracht ziehen, ist es, Anbieter gründlich nach ihren Angeboten zu befragen. Er fordert Kunden auf sicherzustellen, dass ein Anbieter ihre Technologie klar und verständlich erklären kann. Wenn ein Anbieter dies nicht kann, könnte dies laut Vermorel auf ein Problem mit dem Produkt oder dem Verständnis des Anbieters für ihre Technologie hinweisen.

Vermorel schließt seinen Teil der Diskussion, indem er betont, dass wahre Errungenschaften in der KI-Technologie, wie die Erstellung komplexer Modelle, oft durch Forschungspapiere und andere Veröffentlichungen öffentlich gemacht werden. Diese Offenheit ist teilweise auf den Stolz der Entwickler zurückzuführen, etwas Schwieriges erreicht zu haben. Er weist darauf hin, dass diese Leistungen keine gut gehüteten Geheimnisse sind, sondern offen für die Welt geteilt werden, was die Bedeutung des Verständnisses der zugrunde liegenden Technologie weiter unterstreicht.

Vermorel erkennt die bemerkenswerten Fortschritte an, die bestimmte Unternehmen in der Tech-Branche erzielt haben. Er weist darauf hin, dass Unternehmen, die bestimmte technische Meilensteine erreichen, oft detaillierte Berichte veröffentlichen, um zu teilen, wie sie ihre Erfolge erreicht haben. Er sieht dies als einen gemeinsamen Trend in der Branche an und betont, dass es ein Zeichen für tatsächlichen technologischen Fortschritt ist.

Als nächstes nimmt Vermorel eine kritische Haltung zur Rolle und Wahrnehmung von KI in der modernen Unternehmenswelt ein. Er charakterisiert KI als ein Buzzword, das auf dem Markt erheblichen Anklang gefunden hat. Trotz der weit verbreiteten Verwendung des Begriffs betont er, dass seine Bedeutung so breit und oft vage ist, dass er fast alles umfassen kann. Er warnt davor, die Behauptungen von Anbietern über ihre KI-Fähigkeiten blind zu akzeptieren, insbesondere wenn sie keine genaue Beschreibung dessen liefern können, was sie unter dem Label KI anbieten.

Vermorel rät nachdrücklich, dass man bei der Zusammenarbeit mit Anbietern, die behaupten, KI-Lösungen anzubieten, Sorgfalt walten lassen muss, um die genaue Natur ihrer Angebote zu verstehen. Er warnt davor, einem Anbieter zu vertrauen, dessen Verkäufer zugibt, keine Kenntnisse über die Technologie zu haben, die sie verkaufen, und sie als Aufgabe eines separaten Technikteams abzutun. Vermorel betrachtet dies als ein klares Indiz, dass das Unternehmen möglicherweise nicht über die behauptete technologische Kompetenz verfügt.

Er erläutert diesen Punkt, indem er davor warnt, sich von der Rhetorik “Wir stellen Nobelpreisträger ein, wir haben Einsteins” täuschen zu lassen. Er behauptet, dass solche Behauptungen in der Regel eine Ablenkung sind, um potenzielle Kunden von ihrer technischen Fähigkeit zu überzeugen, ohne jegliche substantielle Beweise. In den meisten Fällen, argumentiert er, implizieren diese Situationen, dass hinter den Behauptungen nichts wirklich Innovatives oder technologisch Fortgeschrittenes steckt - es ist einfach mehr vom Gleichen.

Zum Abschluss dieses Teils des Gesprächs drückt Doherty seine Dankbarkeit gegenüber Vermorel für das Teilen seiner Erkenntnisse aus und betont, wie aufschlussreich die Diskussion gewesen ist. Der Abschnitt endet damit, dass Doherty sich bei dem Publikum für ihre Zeit und Aufmerksamkeit bedankt und verspricht, mit weiteren aufschlussreichen Gesprächen zurückzukehren.

Vollständiges Transkript

Conor Doherty: Generative KI ist heutzutage überall, nicht nur in der Lieferkette. Ist das eine positive oder negative Entwicklung? Hier, um es uns zu erklären, ist Joannes Vermorel. Willkommen.

Joannes Vermorel: Hallo Conor, schön, Sie hier zu haben.

Conor Doherty: Also, wenn Sie möchten, lassen Sie uns ein wenig den Rahmen abstecken. Was genau ist generative KI? Was ist ihr Zweck, denn heutzutage ist sie überall?

Joannes Vermorel: Ja, generative KI ist im Wesentlichen eine Sammlung von vorgeschlagenen Lösungen für das sehr alte generative Problem. Das generative Problem tritt auf, wenn Sie Sammlungen von Objekten in ihrer digitalen Darstellung haben und einen Algorithmus, eine Methode, ein Rezept finden möchten, um eine weitere Instanz zu generieren. Solche Probleme gibt es seit Jahrzehnten. Für spezifische, enge Situationen gab es viele Generatoren. Zum Beispiel gab es seit Jahrzehnten einen Generator, der den Namen eines realistisch klingenden Ortes in England oder einen realistisch klingenden Titel für einen Stephen King-Roman erstellen kann. Wenn Sie Bilder erstellen wollten, gab es Generatoren, die eine Karte erstellen konnten, die ein wenig wie “Der Herr der Ringe” aussieht. Sie hat diese Art von Fantasy-Mittelalter-Atmosphäre mit kleinen Bergen, Wäldern, Küsten und Fantasy-Namen überall auf der Karte. Die Idee, einen Generator zu haben, schwirrt seit Jahrzehnten herum. Der Fortschritt war ziemlich inkrementell, wobei der Weg darin bestand, den Generator breiter aufzustellen und mehr Eingabedatensätze zu nutzen, anstatt eine umfangreiche Reihe von vorkodierten Regeln zu haben. Das ist der Stand, Jahrzehnte nach dem Beginn des Prozesses. Im letzten Jahr erreichte die maschinelle Lerngemeinschaft zwei sehr bemerkenswerte Meilensteine mit ChatGPT-3 für Text und stabiler Diffusion für Bilder. Es handelte sich jedoch um Meilensteine in Bezug auf die Zugänglichkeit dieser Tools, nicht unbedingt um einen grundlegenden Durchbruch in Statistik, Mathematik oder Informatik. Es waren die ersten Produkte, die so verpackt und poliert waren, dass ein Laie innerhalb von Minuten damit beginnen und damit spielen konnte. Auf der Bildseite gibt es seit über einem Jahrzehnt generative gegnerische Netzwerke, die sehr schöne Bilder erstellen können. Aber diese Tools hatten viele Eigenheiten. Die stabile Diffusion hingegen ermöglichte es Benutzern, eine Eingabeaufforderung einzugeben, wie zum Beispiel “ein schönes Schloss mitten im Wald”, und ein anständiges Bild zu erhalten. Nicht perfekt, aber ausreichend.

Conor Doherty: Also handelt es sich um eine Verbesserung um eine Größenordnung in Bezug auf die Zugänglichkeit und Benutzerfreundlichkeit dieser Tools?

Joannes Vermorel: Genau das Gleiche gilt für ChatGPT. Übrigens war das beliebte GPT-Modell tatsächlich ein Modell, das bereits seit einigen Jahren existierte. Es wurde buchstäblich etwas neu verpackt, um es viel zugänglicher zu machen. Es ging um die Benutzerfreundlichkeit. Der Meilenstein war im Jahr 2022, als generative KI weit verbreitet zugänglich wurde, im Gegensatz zu obskur zu sein. Es ist nichts wirklich Grundlegendes passiert; es war wirklich eine Frage der reinen Benutzerfreundlichkeit.

Conor Doherty: Ich erinnere mich daran, dass es in meiner Jugend Beispiele für solche generativen Websites gab, wie zum Beispiel “Gib mir einen Ramones-Namen”. Ich verwende dieses berühmte Beispiel. Ich glaube, Childish Gambino, der Musiker, hat seinen Namen über eine ähnliche Website generiert. Aber ich kannte die vorherigen Iterationen von ChatGPT nicht, weil die aktuelle Iteration die dritte ist. Was genau hat also die Aufmerksamkeit der Öffentlichkeit auf sich gezogen, was die Veröffentlichungen des letzten Jahres, wie Stable Diffusion und die dritte Iteration von ChatGPT, betrifft? Sie sind jetzt überall.

Joannes Vermorel: Was die Aufmerksamkeit der Öffentlichkeit auf sich gezogen hat, waren die Bemühungen der Forschungsteams bei der Verpackung der Technologie. Stable Diffusion wurde als Open Source veröffentlicht. Wenn Sie mit einer Python-Umgebung vertraut waren, konnten Sie in etwa zwei Stunden eine Programmierumgebung einrichten, auch wenn Sie nicht viel über Python wussten. Sie konnten mit allen beweglichen Teilen selbst spielen. Sie mussten nicht einmal ein Python-Programmierer sein. Sie mussten nur fließend genug sein, um eine Reihe von Befehlszeilen auszuführen. Es gab verschiedene Tutorials. Stable Diffusion machte die Bildgenerierung zugänglich, wenn Sie mit der Befehlszeile spielen konnten. Es ist ein wenig geeky, aber nicht übertrieben. Es gab sogar eine kostenlose Benutzeroberfläche, Dream Studio, in der Sie die ersten 100 Bilder kostenlos generieren konnten. Danach mussten Sie etwa zehn Dollar bezahlen, um die nächsten 100 Bilder zu generieren. Open GPT war auch eine Web-App. Nur eine kleine Registrierung und heutzutage müssen Sie etwa 20 Euro pro Monat bezahlen, um Zugang zu erhalten. Das Interessante ist, dass Sie in beiden Fällen in etwa einer Stunde auf einen Generator im weitesten Sinne zugreifen konnten. Sie benötigen etwas Erfahrung, um ein Gefühl für das Tool zu bekommen, aber es war um Größenordnungen weniger im Vergleich zu dem, was zuvor war. In Bezug auf den eigentlichen Fortschritt ist das Interessante, dass diese Generatoren seit Jahrzehnten auf zwei Fronten voranschreiten. Eine Front ist die Dimensionalität. Sie möchten in der Lage sein, hochdimensionale Objekte im weitesten Sinne zu generieren. Wenn Sie beispielsweise einen Namen für einen Römer oder einen Ort in England generieren möchten, handelt es sich um ein ziemlich niedrigdimensionales Problem. Etwas wie 10 bis 20 Dimensionen, je nachdem, ob Sie die Anzahl der Buchstaben oder Silben zählen. Wenn Sie jedoch einen Text generieren möchten, der eine Seite lang ist, sprechen wir von etwas wie ein paar tausend Dimensionen. Wenn Sie ein Bild von tausend mal tausend Pixeln generieren möchten, stehen Sie vor einer Herausforderung von etwa drei Millionen Dimensionen aufgrund der drei Primärfarben. Das ist eine signifikante Steigerung. Die erste Iteration von Stable Division war in Bezug auf die Kapazität auf 512 mal 512 begrenzt. Sie verbessern es, aber diese hohe Dimensionalität war eine bedeutende Herausforderung. Das gleiche Problem trat bei Texten auf. Die Dimensionalität spielt in zwei Richtungen eine Rolle. Es gibt die Menge an Text, die Sie als Eingabeprompt verwenden können, und sie kann von einer einzelnen Zeile bis zu mehreren Absätzen oder sogar Seiten reichen. Dann gibt es die Frage, wie weit Sie textlich gehen können, bevor der Generator jegliche Konsistenz mit sich selbst verliert. Diese Modelle sind begrenzt. Sie können kein ganzes Buch von Anfang bis Ende generieren, wobei das Ende konsistent mit dem Anfang ist. Bei der Textgenerierung besteht eine Herausforderung darin, diese höheren Dimensionen zu navigieren. Wenn Sie ein Wort generieren, müssen Sie nur auf lokaler Ebene konsistent sein. Wenn Sie einen Satz generieren, muss er auf einer größeren Skala konsistent sein, und so weiter. Wenn es sich um ein Buch handelt, haben Sie vielleicht Millionen oder sogar zehn Millionen abstrakte Dimensionen, die auch als Freiheitsgrade oder Komplexität des Objekts, das Sie untersuchen, betrachtet werden können. Das gleiche Problem bestand bei Bildern. Ein Fortschrittsansatz besteht darin, sich in Richtung höherer Dimensionen zu bewegen und gleichzeitig die Konsistenz zu wahren. Wenn Sie die Sache teilen, ist es einfacher, zwei kleinere Bilder zu generieren als eines, das größer und konsistent ist.

Conor Doherty: Wenn Sie also von diesen größeren Dimensionen sprechen, meinen Sie, dass der Generator die Konsistenz beibehalten sollte?

Joannes Vermorel: Ja, genau. Das Ziel ist es, Verflechtung und Konsistenz im generierten Objekt aufrechtzuerhalten, unabhängig von seiner Größe oder Komplexität. Ein weiterer Fortschrittsweg ist die Universalität. Sprechen Sie von einem Generator, der spezifisch für ein enges Problem ist, oder handelt es sich um einen Generator, der alles bewältigen kann? In den letzten fünf Jahren hat die Deep-Learning-Community enorme Fortschritte bei der Nutzung gigantischer Datensätze gemacht. Wenn es sich um Text handelt, umfasst es alles - Wikipedia, Webforen oder jede andere Textquelle. Der Generator kann also, wenn er richtig angewiesen wird, alles von Poesie über Juristendeutsch bis hin zu Code oder sogar Genomratschlägen produzieren. Das Gleiche gilt für Bilder. Wir haben Generatoren, die alles von Pixelkunst bis hin zu fotorealistischen Ansichten oder sogar Ölgemälden erstellen können. Es geht darum, eine Vielzahl von Raffinesse und Stil abzudecken.

Conor Doherty: Wenn Sie über die Dimensionalität dieser Anwendungen sprechen, wie vergleichbar sind die Ausgaben? Zum Beispiel, bei ChatGPT, wie vergleichbar ist ein durch ChatGPT generierter Aufsatz im Vergleich zu dem, der von einer durchschnittlichen, sagen wir, universitätsgebildeten Person generiert wird? Sind sie vergleichbare Niveaus der Raffinesse? Sind wir schon so weit?

Joannes Vermorel: In Bezug auf die Raffinesse ist das eine schwierige Frage. Wir müssten definieren und klären, was wir mit Raffinesse meinen.

Conor Doherty: Eigentlich kann ich da einspringen. Nehmen wir an, wir verwenden den Turing-Test, so dass Sie möglicherweise tatsächlich nicht feststellen können, ob er von ChatGPT oder von einem Studenten im Klassenzimmer generiert wurde.

Joannes Vermorel: Es kommt darauf an, denn diese Modelle, insbesondere der Textgenerator, arbeiten durch das Zusammenführen enormer Mengen an Korpus. Einige Leute haben Tests durchgeführt, und in großem Umfang ist das, was ChatGPT schreibt, buchstäblich ein Ausschnitt von Dingen, die irgendwo im Web zu finden sind. Die Stärke des Modells liegt in seiner Fähigkeit, diese Teile so zusammenzufügen, dass sie grammatikalisch und syntaktisch korrekt sind. Aber es geht im Wesentlichen darum, hochrangige statistische Muster zu identifizieren, die zwischen Wörtern, Wortgruppen und Sätzen existieren, um Dinge zu finden, die auf statistisch wahrscheinliche oder glaubwürdige Weise zusammenpassen. Klingt es wie ein Mensch? Viel ja. Aber die Realität ist, dass große Teile dessen, was es generiert, im Web gefunden werden können, von verschiedenen Websites übernommen wurden. Der Durchbruch besteht jedoch darin, dies tun zu können, was unglaublich schwierig war. Es geht nicht nur darum, Phrasen auszuschneiden und einzufügen. Es geht darum, hochrangige statistische Abhängigkeiten zu verstehen, damit sie auf glaubwürdige Weise zusammengefügt werden können. Doch wenn es um gesunden Menschenverstand geht, wie der Leiter der KI bei Facebook kommentierte, besitzen keiner dieser Generatoren den gesunden Menschenverstand einer Katze. Das ist das Verständnisniveau, mit dem wir es zu tun haben. Es handelt sich rein um statistische Beziehungen. Stellen Sie zum Beispiel eine grundlegende Frage wie “Wie kann ich den Stau mitten im Atlantischen Ozean vermeiden?” und es könnte vorschlagen, eine bessere Route mit einem neueren GPS zu nehmen, wobei der Humor in der Frage völlig verfehlt wird. Es geht darum, Textstücke auf der Grundlage von hochrangigen statistischen Beziehungen zusammenzufügen.

Conor Doherty: Ich glaube, Forscher bei Amazon haben ChatGPT einer Reihe von IQ-Tests unterzogen und festgestellt, dass es etwa eine Standardabweichung unter dem Durchschnitt liegt, etwa 83. Das scheint mit dem übereinzustimmen, was Sie hier sagen, dass es nur Stücke von Informationen zusammenklebt, die wie zusammengehörig aussehen.

Joannes Vermorel: Aber ich glaube, Sie verstehen den Punkt nicht. Selbst ein unglaublich unintelligenter Mensch, jemand, der nicht hirntot ist, ist immer noch weit intelligenter als eine Katze. Doch was postuliert wurde, und dem tendiere ich zuzustimmen, ist, dass wir noch lange nicht etwas so Intelligentes wie eine Katze haben. Wir sind immer noch sehr weit entfernt. Man könnte sagen: “Oh, aber meine Katze ist völlig unfähig, mir etwas über die Relativitätstheorie zu erzählen.” Doch ChatGPT schafft es, mir eine recht gute Einführung in ein paar Absätzen zu geben. Das liegt daran, dass ChatGPT buchstäblich eine schöne Zusammenfassung dieser Theorie aus den Tausenden von Beispielen im Web ausschneidet und zusammenfügt. Das bedeutet jedoch nicht, dass es irgendetwas versteht. Selbst eine Katze würde zum Beispiel verstehen, dass, wenn es etwas gibt… Lassen Sie uns ein Beispiel mit GPT verwenden. Wenn Sie Ihren GPT etwas fragen wie: “Drei Autos benötigen zwei Stunden, um von der Stadt Paris zur Stadt Tours zu fahren. Wenn Sie sechs Autos haben, wie lange dauert es dann?” würde Ihnen GPT sagen: “Nun, sechs Autos sind doppelt so viel wie drei, also wird es etwa vier Stunden dauern.” Wenn Sie wiederum über eine Katze nachdenken und die Katze denkt: “Wenn ich einen Kumpel habe, möchte ich dorthin gehen”, dann dauert es genauso lange, egal ob ich oder mein Katzenkumpel da sind. Während die Katze die Dinge nicht so ausdrücken wird, wie es so ausführlich ist, gibt es doch ein gewisses Verständnis für diese grundlegenden Dinge über unser dreidimensionales Universum, die Fließzeit usw. Nochmals, GPT ist unglaublich beeindruckend in seiner Kapazität, und das Gleiche gilt für Stable Diffusion. Aber man kann sehen, dass es eine Art oberflächliches Verständnis gibt, weil all diese Modelle nur eine hochdimensionale Vermischung der Eingabedaten durchführen. Vielleicht reicht das aus. Vielleicht gibt es nichts weiter zur Intelligenz als das Anhäufen dieser Art von Rezepten nur in größerem Maßstab, wenn wir weiterhin auf diesem Weg mit noch ausgefeilteren Modellen voranschreiten. Aber ich vermute, dass die Situation komplizierter ist als das. Ich vermute, dass diese bewussten Forscher genügend Forschung haben, die einmal mehr zeigt, dass die ganze Geschichte der künstlichen Intelligenz darin besteht, zu klären, was Intelligenz nicht ist. Und das ist wie eine Reise, eine Reise, auf der wir uns in den letzten 70 Jahren oder so befunden haben.

Conor Doherty: Nun, ich glaube, Sie haben vorhin gesagt, dass die aktuelle Version von ChatGPT und Stable Diffusion, oder einfach generative KI, etwa eine Größenordnung besser ist als frühere Versionen. Ja. Wie viel besser müsste die vierte Version von ChatGPT sein, um die von Ihnen gerade beschriebene Lücke zu schließen?

Joannes Vermorel: Das wissen wir wirklich nicht, denn das ist das Problem. Immer wenn es einen Durchbruch gibt, und ich glaube, hier war der eigentliche Durchbruch das Deep Learning, nicht diese Anwendungen des Deep Learning. Deep Learning war der Durchbruch um 2011-2012 herum. Das war der eigentliche mathematische, konzeptionelle Durchbruch. Diese Anwendungen und sehr ausgefeilten Erkenntnisse wurden im Laufe des letzten Jahrzehnts gewonnen. Aber wir wissen immer noch nicht wirklich, was uns fehlt. Es ist immer noch eine sehr offene Frage und man sollte nicht von einer linearen Entwicklung ausgehen. Das ist das Problem mit Intelligenz - wir wissen nicht, was uns fehlt. Sobald wir eine neue Art von Technik etablieren, ermöglicht sie uns sogar, zu überdenken, was Intelligenz überhaupt bedeutet. Wenn wir ein Jahrhundert in die Vergangenheit zurückgehen und Sie fragen würden: “Wie können Sie feststellen, dass eine Person überlegene Intelligenz hat?” Wenn Sie Professoren in der Akademie fragen würden, könnten sie etwas sagen wie: “Nun, wenn diese Person eine Matrix invertieren oder die ersten 20 Stellen von Pi berechnen kann, dann hat sie überlegene Intelligenz.” Heutzutage würden die Leute sagen, dass ein Taschenrechner das kann. Es ist eine völlig mechanische Aufgabe. Es gibt keinerlei Intelligenz darin, die ersten 20 Stellen von Pi zu berechnen. Es gibt einfache Rezepte, die wir Algorithmen nennen. Sie können sie mit einem Computer ausführen und Tausende von Stellen erhalten. Das macht Sie in keiner Weise klug. Das war vor einem Jahrhundert die Situation, in der das, was als wahre Reflexion menschlicher Intelligenz galt, sich als der einfache Teil der Mechanisierung herausstellte. Heutzutage sind Computer buchstäblich um 10 Größenordnungen oder sogar 15 Größenordnungen besser als Menschen darin, diese Berechnungen durchzuführen, aber sie sind überhaupt nicht intelligent. Zumindest ist das jetzt der allgemeine Konsens. Was wir mit dieser Generation von KI, mit dem Deep Learning, entdeckt haben, ist, dass es viele Aufgaben gibt, die auf den ersten Blick unglaublich schwierig oder herausfordernd aussehen, aber nicht so viel Intelligenz widerspiegeln. Zum Beispiel sagt ChatGPT mehr darüber aus, was Intelligenz nicht ist, im Vergleich dazu, was sie tatsächlich ist. Was es sagt, ist, dass das Ausmaß des latenten Wissens in der englischen Sprache und allen menschlichen Sprachen enorm ist. Wenn wir von “latentem Wissen” sprechen, meinen wir, dass wir diese abstrakte Sache haben, die die Gesamtsumme des menschlichen Wissens ist. Es gibt Datenbanken, zum Beispiel, die Chemiker im Laufe des letzten Jahrhunderts gesammelt haben. Diese Datenbanken enthalten Details über die Eigenschaften jeder einzelnen chemischen Verbindung. Sie haben also eine ganze Datenbank, die den Widerstand jeder bekannten Materie auf der Erde auflistet oder den Schmelzpunkt jeder Materie auf der Erde. Wir haben Karten, die Wissen in einer anderen Form sammeln. Es gibt auch eine Art von latentem Wissen in der Sprache selbst. Die Wörter, die wir verwenden, spiegeln ein großes Verständnis wider, das wir über das Universum haben. Wenn wir sagen, dass es Sterne und Planeten gibt und dass Planeten um Sterne kreisen, bedeutet das, dass wir bereits viel über das Universum verstanden haben. Zum Beispiel hatten die alten Griechen ein anderes Verständnis davon, was Sterne und Planeten waren. Die Behauptung, dass die Sonne ein Stern ist, wie alle anderen Sterne, wird jetzt akzeptiert und ist Teil des Vokabulars. Das ist Teil des latenten Wissens. Wenn Sie nur die Definitionen in einem Wörterbuch betrachten würden, würden Sie viel darüber lernen, was aus modernen Wissenschaften gelernt werden kann. Die Wörter selbst sagen Ihnen etwas über den Stand des Wissens. Umgekehrt verhindert manchmal das Fehlen eines Wortes, dass eine Art von Wissen überhaupt existiert. Ein eigenartiges Beispiel für diese Situation wäre das Buch “Antifragile” von Nassim Taleb. Die grundlegende Prämisse des Buches bestand darin, das eigentliche Gegenteil von zerbrechlich zu definieren. Zerbrechlich ist in seiner Definition etwas, das sich bei Chaos und Unordnung verschlechtert. Er argumentierte, dass Haltbarkeit, Härte oder Stabilität etwas nicht genau zum Gegenteil von Zerbrechlichkeit machen. Diese Eigenschaften bedeuten nur, dass es unter Chaos und Unordnung langsamer verfallen oder abbauen wird. Taleb fragte sich, was das wahre Gegenteil wäre, etwas, das sich bei Chaos und Unordnung verbessern würde. Diese abstrakte Perspektive führte ihn dazu, den Begriff ‘antifragil’ zu prägen und eine ganz neue Perspektive darauf zu werfen, wie man Ökosysteme, menschliche Gesellschaften und viele andere Dinge betrachtet. Indem er dieses eine Wort einführte, bereicherte er unser Wissen, auch wenn dies schwer zu erfassen sein mag, weil wir Wissen durch die Sprache selbst kommunizieren.

Conor Doherty: Das bringt uns zu meinem Ausgangspunkt zurück. Die Brillanz von ChatGPT zeigt, dass es eine enorme Menge an latentem Wissen in der Sprache selbst gibt. Das erklärt zum Beispiel, warum ein Politiker Ihnen zehn Schlagworte des Tages geben kann, die den Anliegen entsprechen, die Sie verteidigen möchten. Sie können aufgrund dessen eine ganze Diskussion aufbauen und so erscheinen, als würden sie etwas Intelligentes sagen, während sie überhaupt keinen Inhalt liefern.

Joannes Vermorel: Interessanterweise ist das genau das, was ChatGPT tut. Wenn Sie dem Tool einen Anstoß geben, neigt es dazu, alle möglichen weit verbreiteten Ideen zusammenzufügen, die dem gesunden Menschenverstand oder der vorherrschenden etablierten Perspektive entsprechen. Stellen Sie sich vor, Sie hätten jemanden, der Ihnen nur mit Sprichwörtern antworten würde. ChatGPT tut das, aber besser, indem es Gemeinplätze aus buchstäblich jedem Bereich aneinanderreiht. Es ist beeindruckend, weil Sie normalerweise nicht einmal mit dem vertraut sind, was in einem Bereich, von dem Sie nichts wissen, ein Gemeinplatz wäre. Das ist das Schöne daran, einen Generator gegen einen supermassiven Datensatz zu trainieren, der Millionen von Seiten Text aus super unterschiedlichen Bereichen enthält.

Conor Doherty: Wenn es darum geht, all dies tatsächlich anzuwenden, gibt es Ihrer Meinung nach oder Ihrer Einschätzung nach nützliche Anwendungen für generative KI im Bereich Unternehmen oder Supply Chain?

Joannes Vermorel: Unternehmen ist ein sehr breites Feld, daher bleibe ich bei der Supply Chain. Für die Supply Chain würde ich sagen, höchstwahrscheinlich nicht, zumindest nicht direkt. Aber es ist unglaublich schwer, die Zukunft vorherzusagen. Der Grund, warum ich dazu neige zu denken, dass diese Welle von Generatoren keinen massiven Einfluss auf die Supply Chain haben wird, ist, dass die Stärke dieser Generatoren darin liegt, dass sie auf ein riesiges Reservoir an Umgebungswissen zugreifen können, das im Wesentlichen das Internet ist, mit all den Bildern und Tags, auf die Sie kostenlos zugreifen können. Aber wenn es um die Optimierung einer Supply Chain geht, sind die relevantesten Daten Ihre Transaktionshistorie. Wenn Sie zum Beispiel Türzargen verkaufen, hilft es Ihnen nicht wirklich bei der Supply Chain-Planung, viel Allgemeines über Türzargen zu wissen. Ihre Verkaufshistorie von Türzargen aus dem letzten Jahr sagt Ihnen viel mehr darüber, was genau Sie bestellen, produzieren und wie Sie den Bestand zuweisen sollten. Die relevantesten Daten werden also nicht offen mit der Welt geteilt. Sie existieren in der Abteilung Ihres Unternehmens. Unternehmen sind im Gegensatz zu ChatGPT verzerrt durch die Tatsache, dass diese Tools besser funktionieren, wenn es um Dinge geht, bei denen viele Materialien öffentlich online verfügbar sind. Wenn Sie über Dinge diskutieren, die nicht weit verbreitet online veröffentlicht sind, wird ChatGPT schnell unwissend darüber. Ganz konkret würde ich sagen, wenn Sie sich die Methoden vorstellen, die zur Durchführung einer beliebigen Art von Optimierung verwendet werden könnten, bin ich mir nicht so sicher, einfach weil die Art der Eingaben nicht vorhanden ist. Diese Tools könnten jedoch möglicherweise unterstützend bei Ihrer Entwicklung sein. Zum Beispiel ist ChatGPT tatsächlich ziemlich gut darin, Ihnen Code-Schnipsel zu generieren. Bei der Programmierung kann ChatGPT aufgrund der Tatsache, dass es sich um eine generische Sprache handelt, also eine Sequenz von Zeichen, Tags, aber auch Code generieren. Aufgrund der Tatsache, dass eine riesige Menge an Code online verfügbar ist, hauptsächlich über GitHub, aber auch über viele andere Orte, haben Sie massive Codebasen, auf denen ChatGPT trainieren kann. Daher ist ChatGPT tatsächlich in der Lage, halbwegs anständige Code-Schnipsel oder Programme zu komponieren. Als Produktivitätstool für Programmierer gibt es viel Potenzial. Aber Vorsicht, der von ChatGPT generierte Code kann genauso fehlerhaft sein wie der von Menschen geschriebene Code. Ich würde ihn nicht ohne sorgfältige Überwachung verwenden, wenn Sie den nächsten Autopiloten für ein Flugzeug oder ein Auto entwickeln möchten. Außerdem vermute ich, dass die Art von Technologie, die entstehen wird, Dinge wie Protokolle von Besprechungsminuten sein wird. Im Moment bin ich mir nicht so sicher, ob ChatGPT eine zweistündige Diskussion in etwas wie zwei Seiten zusammenfassen könnte, während dabei die maximale Menge an Details über das Gesagte erhalten bleibt. Aber ähnliche Tools werden meiner Meinung nach innerhalb des nächsten Jahrzehnts dazu in der Lage sein. Für die Supply Chain wird es also viele Vorteile geben. Ich vermute jedoch, dass die meisten davon eher am Rand, an der Peripherie liegen, wie zum Beispiel die Unterstützung von Meetings, das Mitschreiben von Notizen oder bessere Systeme zur Korrektur von Dokumenten. Die Kernprobleme und -herausforderungen liegen jedoch in den Daten, und diese Generatoren behandeln die Daten nicht so, wie sie sich in Supply Chains präsentieren.

Conor Doherty: Gibt es nicht andere Programme, die speziell für die Programmierung entwickelt wurden? Ich meine, ChatGPT ist eine textbasierte generative KI, aber es gibt GitHub Co-Pilot, das entwickelt wurde, um bei der Programmierung zu helfen, und es kann ziemlich anständige Programmierung von selbst erstellen, oder?

Joannes Vermorel: Nein, diese Modelle sind fast identisch, fast austauschbar. Die Art der Technologie, die dahinter steckt, ist unglaublich ähnlich. Sie verwenden die gleiche Transformer-Architektur. Die einzigen Unterschiede sind geringfügige Variationen im Korpus und im Benutzererlebnis. GitHub Co-Pilot zielt darauf ab, bei jedem Tastendruck eine automatische Vervollständigung bereitzustellen, während ChatGPT mehr auf den Dialog ausgerichtet ist. Aber die Unterschiede sind wirklich nur eine dünnere Schicht auf der Oberfläche. Darunter sind sie gleich. Ich vermute, das beste Tool für die Code-Vervollständigung wird auf einem Korpus aufbauen, der breiter ist als nur Code. Dies wird durch eine kürzlich von einem Team bei Amazon veröffentlichte Arbeit veranschaulicht. Sie stellten einen vielversprechenden Generator vor, der sowohl Bild- als auch Textdaten kombiniert und sie im Wesentlichen vereint. Sie behaupten sogar, auf einigen Benchmarks besser abzuschneiden als ChatGPT und vergleichbare Ergebnisse bei den meisten anderen Metriken zu erzielen. Nehmen Sie dies jedoch mit Vorsicht, da die Bestimmung eines guten Generators ein ebenso komplexes Problem ist wie die Entwicklung des Generators selbst. Was jedoch interessant ist, ist, dass ihr Modell genauso effektiv ist wie ChatGPT, aber nur eine Milliarde Parameter hat, während ChatGPT fast 100-mal mehr Parameter hat. Dies legt nahe, dass Sie durch die Kombination verschiedener Arten von Daten ein leistungsstärkeres und einfacheres Modell haben können, was paradox ist. Zum Beispiel ist das ChatGPT-Modell riesig, mit einem Parameterbereich in Billionen. Aber es ist unklar, ob ein so enormes Modell notwendig ist. Tatsächlich war einer der Durchbrüche von Stable Diffusion im Vergleich zu anderen Modellen ein Modell, das um zwei Größenordnungen schneller und schlanker ist als das Generative Adversarial Network, das es ersetzt hat. Stable Diffusion hat nur etwa eine Milliarde Parameter, was im Vergleich zu ChatGPT sehr klein ist. Ein Team hat jedoch kürzlich behauptet, dass sie die Leistung von ChatGPT mit einem Modell reproduziert haben, das viel kleiner ist, ungefähr in der Größenordnung von einer Milliarde Parametern. Dies ist interessant, weil es in etwa der Größe entspricht, mit der heutzutage häufig in Notebooks und Workstations gefundene Grafikkarten betrieben werden können.

Conor Doherty: Nun, das bringt uns irgendwie wieder zum Ausgangspunkt oder zur Einführung insgesamt zurück. Ist das eine positive oder negative Entwicklung? Nun, im speziellen Kontext von Unternehmen oder sogar noch spezifischer der Supply Chain, sehen Sie diese generative KI als Ablenkung, Segen oder Fluch?

Joannes Vermorel: Als allgemeine Denkrichtung ist meine Meinung, dass jeder Fortschritt in Wissenschaft und Technologie gut ist. Ich habe nicht diese Lovecraft’sche Perspektive, wissen Sie, wo es tiefgründige Wahrheiten des Universums gibt, die so brutal und feindselig gegenüber dem menschlichen Geist sind, dass man verrückt wird, wenn man sie entdeckt. Meine Meinung ist nicht lovecraft’sch. Ich glaube im Allgemeinen, dass es eine gute Sache ist. Es ist sicherlich besser als Unwissenheit. Wie jedes Werkzeug seit der Steinzeit könnte der erste Hammer entwickelt worden sein, um ein Tier zu jagen oder Ihre Mitmenschen zu töten. Das war das Problem mit Technologie und kann missbraucht werden. Das ist seit Tausenden von Jahren ein Problem. Diese Art von Technologie kann auch missbraucht werden. Die wahrscheinlichen Missbräuche im Bereich der Supply Chain-Unternehmenssoftware werden zu einer Zunahme von Verwirrung durch Rauschen führen. Die Anbieter hypen KI bereits wie verrückt, und jetzt werden sie das Ganze noch weiter aufdrehen können, indem ihre Marketingabteilung endlose gefälschte Fallstudien erstellt. In der Vergangenheit erforderte die Erstellung einer gefälschten Fallstudie etwas Aufwand. Dennoch konnten Sie sie vollständig fälschen, weil niemand Ihre Behauptungen überprüfen wird. Die meisten Ihrer Behauptungen sind unmöglich zu überprüfen. Und wie ich in meinem Vortrag beschrieben habe, hat niemand in einer Fallstudie einen Anreiz zu sagen, dass alle Millionen, die Sie behaupten, gespart oder verdient oder generiert zu haben, gefälscht sind. Jeder, der Teil einer Fallstudie ist, hat einen massiven Anreiz zu sagen: “Ja, alles, all diese Vorteile sind wahr, und das alles ist mir zumindest teilweise zu verdanken, wenn wir es geschafft haben, das alles zu erreichen.” Meine Meinung ist also, dass die Situation noch undurchsichtiger wird, weil diese Teams durchdrehen und noch mehr gefälschte Fallstudien, Behauptungen und nichtssagende Seiten generieren werden, auf denen die Technologie beschrieben wird. Ich habe einige Zeit auf den Websites vieler Lokad-Konkurrenten verbracht. Das Interessante ist, dass Sie ganze Textseiten haben können, auf denen Sie es lesen und am Ende nichts gelernt haben. Sie schaffen es, Plattitüden oder Dinge zu drehen, die nichts darüber verraten, was sie tatsächlich tun.

Conor Doherty: Flimflammery, ist das das, was wir sagen?

Joannes Vermorel: Ja, genau. Ich bin immer ein wenig verwirrt, wenn ich eine 10-seitige Dokumentation über KI für die Supply Chain durchgehe und am Ende nichts darüber sagen kann, was es ist, was es tut, warum es auf diese Weise entwickelt wurde oder welche Art von Erkenntnissen über diese Sache herrschen. Das ist irgendwie verwirrend. Ich vermute, dass Marketingteams in der Vergangenheit Tage damit verbracht haben, diese schwammigen Beschreibungen zu erstellen. Jetzt kann mit Hilfe von generativer KI wie ChatGPT eine zehnseitige Beschreibung sofort erstellt werden. Wenn Sie also die Gültigkeit von Inhalten in Frage stellen, die behaupten, KI in ihrer Supply Chain-Optimierung zu haben, würde ich sagen, dass es größtenteils verdächtig ist. Nicht, weil KI betrügerisch ist, sondern weil sie in diesem Kontext falsch dargestellt wird. Wenn wir über generative KI sprechen, werden spezifische Begriffe verwendet, wie stabile Diffusion, Transformer-Architektur und generatives Netzwerk. Diese Techniken haben Namen. Fachleute in diesem Bereich sagen nicht einfach “Ich mache KI”. Sie sind präziser. Sie benötigen diese Begriffe, um ihre Arbeit zu beschreiben. Diese Präzision entwickelt sich im Rahmen eines aufstrebenden Prozesses innerhalb der Community. Personen, die sich nicht die Mühe machen, ihre Technologie im Detail zu beschreiben, greifen oft auf vage Begriffe zurück. Nehmen wir ein einfaches Beispiel. Wenn Sie ein Fenster für Ihr Haus kaufen möchten, gibt der Verkäufer das Material des Rahmens, die Anzahl der Glasschichten usw. an. Wenn ein Verkäufer einfach sagt “Ich verkaufe Fenster, vertrauen Sie mir, sie sind gut” ohne jegliche Details, ist das fragwürdig. Wenn jemand Ihnen keine technischen Spezifikationen geben kann und stattdessen Buzzwords wie “nachhaltig” verwendet, klärt das nichts auf. Es fügt nur mehr Rätsel hinzu. Dies ist analog zu dem, was bei KI und ChatGPT passiert. Diese Tools können verwirrende Marketingmaterialien generieren und Anbietern die Möglichkeit geben, sie in ihren Technologie-Stack einzubeziehen, ohne etwas Substantielles zu schaffen. Es ist ziemlich einfach, diese Tools in eine bestehende Softwarearchitektur zu integrieren, aber es wird ein Gadget sein, wenn Ihre bestehende Softwarearchitektur nicht darauf ausgelegt wurde, die Fähigkeiten der Technologie zu optimieren. Es ist immer etwas einfacher, ein weiteres Stück Software anzubringen, aber das bedeutet nicht, dass es einen Unterschied macht oder nützlich ist. Daher glaube ich, dass diese Situation weitere Verwirrung schaffen wird. Es wird Anbietern eine weitere Möglichkeit geben, irgendwelche Algorithmen mit echtem Mehrwert einzufügen, aber auf sinnlose Weise. Am Ende trägt dies nicht zum Mehrwert der Lösung bei, was ein weiteres Problem darstellt. Wir haben bereits mehrere Iterationen davon erlebt, angefangen mit Operationsforschung vor 50 Jahren, dann Data Mining und dann Data Science. Jetzt wird es diese kognitiven KI-Iterationen geben. Das Problem ist jedoch, wenn Sie diese Technologie als Unternehmenssoftware optimal nutzen möchten, kann sie nicht einfach nur ein Add-On sein. Sie muss auf der Designebene Ihres Produkts erfolgen. Es ist ein Kern-Design, das Sie danach nicht mehr ändern können. Das Problem mit dem Kern-Design von Produkten ist, dass es etwas ist, das Sie nur am Anfang tun können. Sie können es nicht einfach nachträglich in Ihr Produkt einfügen.

Conor Doherty: Können Sie ein Beispiel für das von Ihnen diskutierte Kern-Designniveau geben?

Joannes Vermorel: Wenn Sie ein System haben, bei dem im Kern Ihres Systems eine transaktionale Datenbank vorhanden ist, die darauf ausgelegt ist, transaktionale Integrität sicherzustellen, ist das großartig. Aber dieses Design wird nichts dazu beitragen, irgendeine Art von Bild- oder Textgenerator zu nutzen. Es steht völlig im Widerspruch zur transaktionalen Perspektive. Sie haben es mit Transaktionen zu tun, aber ein Werkzeug zu haben, das Text oder Bilder generieren kann, ist nicht einmal im selben Bereich. Was ich also sage, ist, dass es keine Selbstverständlichkeit ist, etwas Passendes zu haben. Es erfordert in der Regel umfangreiche Sorgfalt bei Design und Leitprinzipien für Ihre Architektur, damit die Dinge überhaupt zusammenpassen. Andernfalls sind Sie einfach auf getrennten Wegen. In der Software ist das Irreführende, dass es immer möglich ist, ein Produkt zu haben und dann ein Add-On, das daneben sitzt. Aber es ist nicht richtig integriert, nicht verbunden, und es gibt keine Synergie zwischen den beiden. Sie haben nur ein komplizierteres Durcheinander mit mehr beweglichen Teilen und mehr Fehlern. Daher würde ich davon abraten, dies in die Optimierung der Supply Chain zu integrieren. Aber wenn ein Anbieter damit auftritt, müssen Sie wirklich untersuchen, was genau sie tun. Mein abschließender Rat an das Publikum wäre: Stellen Sie sicher, dass Ihnen die Technologie-Seite dieses Anbieters verständlich ist, wenn Sie sie lesen. Sie müssen kein Experte sein. Wenn der Anbieter nicht in der Lage ist, auf eine verständliche Weise zu vermitteln, was ihre Technologie ist und was sie tut und welche Art von Techniken sie verwendet, ist es höchstwahrscheinlich ein Warnsignal. Ich habe in meiner gesamten Karriere noch nie gesehen, dass ein Unternehmen, das in der Lage ist, etwas Schwieriges zu erreichen, es versteckt. Im Gegenteil, Unternehmen, die es geschafft haben, diesen Punkt zu erreichen, sind mehr als glücklich, ihre Leistungen der Welt zu präsentieren. Übrigens gilt das für all diese Modelle - Stable Diffusion, ChatGPT, usw. Diese Errungenschaften sind öffentlich. Es wurden Artikel darüber veröffentlicht. Das sind keine gut gehüteten Geheimnisse. Im Gegenteil, die Unternehmen, die es geschafft haben, diesen Punkt der technischen Leistung zu erreichen, veröffentlichen oft sehr detaillierte Artikel darüber, wie sie es erreicht haben. Dies ist ein sehr typisches Verhalten. Aus meiner Sicht ist der grundlegende Rat, dass es zwar viel Wert in KI gibt, es aber nur ein Schlagwort ist. Sie können fast alles unter diesem Begriff zusammenfassen. Daher ist es immer wichtig zu verstehen, was genau ein Anbieter tut, wenn er sich Ihnen nähert. Wenn die Person, die Ihnen etwas verkaufen möchte, dieses Verständnis nicht hat und der Anbieter Unwissenheit vorgibt und sagt: “Ich bin nur ein Verkäufer, das Technikteam weiß Bescheid”, dann vertrauen Sie ihnen nicht. Wenn sie solche Dinge sagen, deutet dies darauf hin, dass hinter ihren Behauptungen keine substantielle Technologie steckt. Dies ist eine seit Jahrzehnten bewährte Technik: Behauptungen, Nobelpreisträger eingestellt zu haben, damit zu prahlen, ‘Einsteins’ im Hinterzimmer zu haben, Ihnen zu sagen, dass Sie ihnen vertrauen sollen, weil ihr Team unglaublich klug ist. Wenn sie jedoch Unwissenheit über die Technik bekunden und Ihnen versichern, dass der Rest des Teams Bescheid weiß, dann garantiert das fast, dass ihren Behauptungen keine Substanz zugrunde liegt. Es ist einfach mehr vom Gleichen.

Conor Doherty: Nun, dazu möchte ich sagen, vielen Dank, Joannes. Ich habe eine Menge gelernt. Vielen Dank für Ihre Zeit und vielen Dank an alle, die zugeschaut haben. Wir sehen uns das nächste Mal.