00:00:00 Einleitung; Bamboo Rose und Retail-PLM-Bereich
00:02:21 Einzelhandels-PLM-Probleme: Lebenszyklus, Koordination, Skalierung
00:04:15 Tiefgang in der Luftfahrt versus flache, massenhafte Sortimente im Einzelhandel
00:09:45 Von Silos zu adaptiven, kontextgeteilten Prozessen
00:12:56 Zero-Shot-Tarifklassifikation ersetzt manuellen Aufwand
00:16:42 GenAI verarbeitet unstrukturierte PLM-Dokumente in großem Maßstab
00:21:38 LLMs orchestrieren; aufkommende agent-zu-agent Ökosysteme
00:24:26 Pragmatischer Datenaustausch; PII-Verpflichtungen minimieren
00:28:53 Dünnere Logik/UI; Daten und Metadaten rücken in den Mittelpunkt
00:34:23 Automatisierung löst Workflows auf, die aus der Arbeitsteilung entstanden sind
00:37:48 Agentennetzwerke konfigurieren: Ziele, Einschränkungen, Berechtigungen
00:44:30 Hin zu automatisch generierten Kollektionen und Lieferantenaustausch
00:49:55 KI-Einfluss: verteidigen, erweitern, ergänzen
00:55:04 Quant-Optimierung entscheidet; LLMs bearbeiten Dokumente und Kommunikation
00:59:08 Vorteile: Geschwindigkeit, Genauigkeit; Back-Office-Automatisierung beschleunigt
Zusammenfassung
Rupert Schiessl (Bamboo Rose’s Chief AI Officer) tritt Lokad’s Joannes Vermorel (CEO) und Conor Doherty (Director of Marketing) bei, um zu diskutieren, wie generative KI das Produktlebenszyklus-Management (PLM) neu gestaltet. Schiessl erklärt die klassischen, in Silos organisierten Module des Retail-PLM (Planung→Distribution) und argumentiert, dass KI-/agentische Systeme Silos auflösen, Prozesse dynamisch anpassen und textlastige, unstrukturierte Aufgaben automatisieren können (z. B. Tarifklassifikation, Tech-Pack-Erstellung). Vermorel stellt das tiefgreifende, jahrzehntelange PLM (z. B. in der Luftfahrt) dem flachen, aber massiven Sortiment im Einzelhandel gegenüber und weist darauf hin, dass LLMs in der Orchestrierung, der Dokumentenerstellung sowie bei Vor-/Nachentscheidungs-Workflows brillieren, während quantitative Optimierung weiterhin die Preis- und Sortimentgestaltung übernimmt. Beide sehen, dass die Schichten von Logik/UI dünner werden, da Daten und Metadaten in den Mittelpunkt rücken, während agent-zu-agent Ökosysteme entstehen und große Teile der Back-Office-Arbeit automatisiert werden.
Ausführliche Zusammenfassung
Conor Doherty (Lokad Director of Marketing) rahmt die Diskussion mit dem Thema „PLM im Zeitalter der KI neu denken“ ein und bittet Bamboo Rose’s Chief Strategy & AI Officer, Rupert Schiessl, PLM im Einzelhandel zu definieren und zu erläutern, wie KI es verändert. Schiessl beschreibt PLM als die Koordination der Produktreise – von der Ideenfindung und dem Design über die Beschaffung bis hin zur Distribution – über tausende bis hunderttausende Artikel und viele Rollen (Designer, Entwickler, Beschaffungsanalysten, supply chain). Historisch haben Anbieter die Komplexität in in Silos organisierte Module (Planung, Design, Entwicklung, Beschaffung, POs, Logistik) zerlegt. Das funktionierte, solange Prozesse stabil waren, doch die jüngste Volatilität (Pandemie, Handelsverschiebungen) macht starre, vordefinierte Workflows brüchig. KI bietet einen Weg, Silos aufzulösen, Module „sprechen zu lassen“ und Prozesse dynamisch anzupassen.
Joannes Vermorel (Lokad CEO) erweitert den Blickwinkel: PLM variiert je nach Branche. In der Luftfahrt ist jedes Produkt tiefgehend (Terabytes an Test-/Zulassungsdaten) und langlebig; im Einzelhandel hingegen ist jedes Produkt oberflächlich, aber die Sortimente sind gewaltig und ändern sich schnell. Die Herausforderung im Einzelhandel liegt in der Sortimentkomplexität, Mehrfachbeschaffung und Agilität. Vermorel argumentiert, dass Silos die Optimierung einschränken; moderne KI ermöglicht die Automatisierung von Entscheidungen und beseitigt viele langweilige Aufgaben, die einst Armeen von Koordinatoren erforderten (z. B. das Erstellen von Ladenschild-Labels unter strengen Zeichengrenzen). LLMs sind zwar nicht ideal für numerische Optimierung (z. B. Preisgestaltung), aber sie brillieren bei textintensiven Arbeiten und als Orchestrierungsschicht um andere Algorithmen herum.
Ein konkreter Erfolg: die Tarif-(HTS-)Klassifikation. Schiessl erklärt, dass die Auswahl von Zolltarifcodes aus umfangreichen, häufig aktualisierten Verordnungen bisher manuell erfolgte; mit KI nehmen Modelle die neuesten Regelwerke auf und führen eine „Zero-Shot-Klassifikation“ durch, womit Workflows ersetzt werden, die zuvor markierte Datensätze und ständiges Neutrainieren erforderten. Vermorel weist darauf hin, dass Zero-Shot die ökonomischen Rahmenbedingungen verändert: Man kodiert Regeln und Kontext, anstatt Beispiele anzusammeln. Ähnliche Vorteile gelten für unstrukturierte Eingaben – PDFs von Lieferanten, Illustrator/SVG-Design-Dateien, Kataloge und RFP-Antworten – bei denen KI Informationen extrahieren, abgleichen und weiterleiten kann.
Mit Blick auf die Zukunft erwarten sowohl Schiessl als auch Vermorel agent-zu-agent Ökosysteme: Lieferanten stellen Agents mit austauschbaren Katalogen bereit; die Agents der Einzelhändler fragen diese ab. Dies verspricht weniger instabile PDF-Pipelines, wirft jedoch Governance-Fragen auf: Was darf ein Agent teilen und wie verhindert man Lecks oder Fehler? Vermorel spielt das „Daten als Kronjuwelen“-Motiv für die meisten Einzelhändler herunter (Produktkataloge sind oft öffentlich; persönliche Daten stellen ein zu minimierendes Risiko dar), während er auf eine strenge Datenhygiene pocht.
In Bezug auf Softwarearchitektur bringt Schiessl eine Provokation vor: „KI tötet die Logikschicht.“ Im klassischen Stack – Daten (unten), Geschäftslogik (Mitte), UI (oben) – können LLMs jetzt kontextbewusste Logik und adaptive UIs auf Abruf generieren. Der Wert konzentriert sich in den Daten und Metadaten, die ihn beschreiben; Anbieter müssen Daten absichern, sie mit semantischen/Metadaten-Schichten anreichern und LLMs/Agents dynamisch Flows zusammenstellen lassen. Vermorel stimmt zu und fügt hinzu, dass ein Großteil der unternehmensbezogenen „Logik“ lediglich die Arbeitsteilung koordiniert. Wenn die Automatisierung übernimmt, schrumpfen Schichten von Workflows, KPIs und Berechtigungen auf Indikatoren der Automatisierungen. Die Entwicklung der Anti-Spam-Technologie – von Parameterdschungeln zu einem unsichtbaren Hintergrunddienst – veranschaulicht diesen Zusammenbruch.
Praktisch sieht Schiessl drei Ebenen der KI-Auswirkung: (1) Verteidigen – bestehende Schritte zur Steigerung von Geschwindigkeit und Genauigkeit automatisieren (z. B. Zölle); (2) Erweitern – Prozesse umgestalten (Design↔Kosten in Echtzeit verbinden; Schritte zusammenführen); (3) Ergänzen – neue Fähigkeiten schaffen (z. B. nahezu automatische Tech-Pack-Generierung über Stücklisten, Compliance und Größen). Vermorel teilt die PLM-Arbeitslast auf: Zunächst wird quantitative/stochastische Optimierung für die Zusammensetzung des Sortiments eingesetzt, anschließend werden LLMs zur Generierung der umfangreichen Dokumentation und zur Automatisierung der Lieferanteninteraktionen vor/nach den Kernentscheidungen eingesetzt.
Für nicht-technische Stakeholder positioniert Schiessl KI als systematische Schmerzmittel: weniger Verzögerungen, bessere Verfügbarkeit und Einhaltung von Vorschriften, verbesserte Lieferantenbeziehungen sowie Kosten- und Zeiteinsparungen – Schritt für Schritt, nicht alles auf einmal. Vermorels abschließende Prognose ist unverblümt: KI wird in den nächsten zehn Jahren einen großen Teil der Back-Office-, weißen Kragen-PLM-Arbeit automatisieren, insbesondere Aufgaben, die lediglich Informationen zwischen Formaten verschieben.
Vollständiges Transkript
Conor Doherty: Willkommen zurück. Heute im Studio begrüße ich Rupert Schiessl. Heute wird er mit Joannes und mir darüber sprechen, wie das Produktlebenszyklusmanagement im Zeitalter der KI neu gedacht werden kann. Bevor wir darauf eingehen, kennen Sie das Prinzip: Abonnieren Sie unseren LokadTV-Kanal hier auf YouTube und ziehen Sie in Erwägung, uns auf LinkedIn zu folgen. Kürzlich haben wir 25.000 Follower erreicht, und ich würde das gerne so schnell wie möglich auf 30.000 ausweiten. Im Ernst, wir versuchen, eine Community aufzubauen – Ihre Unterstützung ist uns wichtig. Damit ist das aus dem Weg, und ich präsentiere Ihnen das heutige Gespräch mit Rupert Schiessl.
Conor Doherty: Erste Frage. In meiner Einführung habe ich Sie als Chief Strategy and AI Officer bei Bamboo Rose vorgestellt. Wer ist Bamboo Rose, und was machen Sie dort?
Rupert Schiessl: Bamboo Rose ist ein Softwareanbieter. Wir verkaufen eine Lösung namens total PLM, die unseren Kunden – hauptsächlich Einzelhändlern – dabei hilft, den gesamten Lebenszyklus von Produkten von der Planung und Gestaltung bis hin zur Distribution zu verwalten. Das macht Bamboo Rose nun seit 25 Jahren. Wir tun dies für große Marken wie American Eagle, Urban Outfitters, Wolf, Walmart usw. Meine Aufgabe ist es, KI im Großen und Ganzen in diesen gesamten Stack zu integrieren, da, wie wir besprechen werden, die KI vieles verändert, was PLM-Anbieter tun, aber allgemein auch, was Software- und Software-as-a-Service-Unternehmen tun.
Es gibt viele Möglichkeiten, die Lösungen für unsere Kunden mit KI, mit GenAI, mit Agenten besser zu machen. Das ist meine Aufgabe: den bestehenden Stack – das gesamte Wissen und die Intelligenz, die in unserer Lösung verpackt sind – mit KI zu verbinden und unsere Software KI-tauglich zu machen.
Conor Doherty: Sie haben speziell den Einzelhandel erwähnt. Wenn Sie das Konzept des Produktlebenszyklusmanagements verkaufen, welche Probleme versuchen die Leute zu lösen, beziehungsweise wie erklären Sie ihnen, um welche Probleme es genau geht?
Rupert Schiessl: Wie der Name schon sagt, verwalten Sie den gesamten Lebenszyklus eines Produkts – von dessen Design und Erstellung, und sogar davor, ob man überhaupt ein Produkt kreieren sollte – bis zum Distributionspunkt oder sogar zum Recycling bzw. dem Punkt, an dem Produkte zu Abfall werden. Während dieses gesamten Zyklus geschehen viele unterschiedliche Dinge: viele Menschen arbeiten zusammen, zahlreiche Kunden, Anbieter, Lieferanten kommen zusammen, und unsere Software hat die Aufgabe, all dies zu koordinieren. Insbesondere bei großen Unternehmen mit vielen Produkten – tausende, zehntausende, oder bei Unternehmen wie Walmart, hunderte von Tausenden – kann man das nicht manuell mit einer Excel-Tabelle bewältigen.
Deshalb muss man Prozesse erstellen, diese organisieren, Zugriffsrechte vergeben und all diese Menschen zusammenbringen – die Designer mit den Produktentwicklern, die Beschaffungsanalysten, die supply chain managers – um sie in diesem komplexen Prozess koordiniert und kollaborativ zusammenarbeiten zu lassen.
Conor Doherty: Joannes, möchten Sie der Definition der Problemstellung des PLM im Einzelhandel noch etwas hinzufügen?
Joannes Vermorel: Für den Einzelhandel macht es durchaus Sinn, es so darzustellen. PLM ist ein riesiger Markt, und je nach Branche kann es ganz unterschiedliche Bedeutungen haben. Beispielsweise in der Luft- und Raumfahrt: Jedes einzelne Produkt enthält potenziell ein Terabyte an Informationen, mit Tausenden von Experimenten, die durchgeführt wurden, um zu beweisen, dass das Teil unter allen erdenklichen Flugbedingungen sicher ist. Sie haben alle Aufzeichnungen von Experimenten, alle Nachweise, sogar Computersimulationen, um zu beweisen, dass Ihr Design sicher, solide, normgerecht und alles Weitere ist. Das Ganze ist extrem rekursiv: Ein Modul hat eine Liste von Submodulen mit weiteren Submodulen, und jedes verfügt über Konformitätsnachweise und Ingenieurwissen. Diese Dinge sind über Jahrzehnte hinweg extrem langlebig.
Am anderen Ende des Spektrums ist die Herausforderung eine andere: Das Wissen ist pro Produkt relativ dünn. Für einen Einzelhändler – selbst bei Walmart – bezweifle ich, dass für die meisten Produkte mehr als ein paar Dutzend Seiten an Dokumentation vorliegen. Vielleicht einige Medienassets, aber insgesamt ist es relativ oberflächlich, und zehntausende Produkte wechseln ständig. Die Herausforderung besteht also nicht darin, ein Produkt mit einem immens komplexen Lebenszyklus über Jahrzehnte hinweg zu haben; es geht vielmehr um zehntausende von Produkten, die sich schnell ändern, wobei man die Dinge äußerst agil halten möchte. Dasselbe Produkt kann von einem halben Dutzend Unternehmen bezogen werden; man möchte vielleicht die Quelle wechseln und Kontinuität gewährleisten, auch wenn das Produkt weiterhin von jemand anderem bezogen wird.
Meiner Ansicht nach ist PLM stark vertikal abhängig, und die Herausforderung im Einzelhandel besteht darin, die Komplexität des Sortiments enorm zu managen – Walmart hat, wenn man ihr Portfolio betrachtet, eindeutig Hunderttausende von Produkten.
Rupert Schiessl: Ich stimme der vertikalen Ausrichtung vollkommen zu. Das ist tatsächlich unser Ansatz bei Bamboo Rose: sehr auf den Einzelhandel fokussiert, sehr stark im Bereich Mode und zunehmend noch stärker im Bereich Lebensmittel, wo viele Inhaltsstoffe und rechtliche Einschränkungen eine Rolle spielen, und dann im Bereich allgemeiner Waren. Im Bereich Mode geht es zwar nicht um die Luftfahrt, aber Produkte können dennoch komplex werden: unterschiedliche Größen, verschiedene Komponenten, und komplexe Produkte wie Bekleidung, Schuhe oder Sportartikel können ziemlich komplex sein und erfordern ein kollaboratives Design sowie all diese verschiedenen Schritte, die wir in unserer Software vereinen.
Conor Doherty: Bevor wir darauf eingehen, wie KI das PLM verändert, wie haben Unternehmen im Einzelhandel historisch die von Ihnen so beschriebenen Probleme bewältigt? Was hat bei diesem Ansatz funktioniert und was war nicht so toll?
Rupert Schiessl: Historisch gesehen besteht die intuitive Reaktion auf einen komplexen Prozess darin, ihn in viele Teilprozesse aufzubrechen – was zu Silos geworden ist. Das ist in den letzten 20–30 Jahren im PLM passiert. Im PLM gibt es beispielsweise Planung, Design, Entwicklung, Beschaffung, Bestellungen, Logistik und so weiter. So arbeiten typischerweise die meisten software vendors im PLM-Markt heute: verschiedene Module, Kunden kaufen das eine oder das andere, die Module arbeiten zusammen und unterschiedliche Teams nutzen die Module. Was funktioniert hat, ist, dass dies ein sehr guter Ansatz für komplexe Prozesse ist, weil der Prozess vordefiniert ist, und sobald die Lösung eingerichtet ist – manchmal mit sehr langen Implementierungsprojekten – funktioniert es sehr gut, den für diese Einrichtung vorgesehenen Prozess zu reproduzieren.
In den letzten Jahren, mit supply chain disruptions und so weiter, ändern sich Prozesse und Produkte sehr häufig und sehr schnell. Die Produkte, für die die Software konzipiert wurde, entsprechen nicht mehr diesen Prozessen, und siloed, vordefinierte Produkte sind schwer anzupassen oder können obsolet werden, weil sie für Prozesse entwickelt wurden, die es nicht mehr gibt. Dies ist eine der besten Chancen, die wir bei Bamboo Rose sehen: KI als Lösung einzubringen, um Prozesse schneller anzupassen, Silos zu durchbrechen, Elemente miteinander sprechen zu lassen, Informationen stromauf- und stromabwärts auszutauschen und Prozesse flexibler zu gestalten.
Conor Doherty: Joannes, Sie sind ein großer Fan von Silos in der supply chain, oder?
Joannes Vermorel: Riesiger Fan. Silos definieren die Grenzen dessen, was Sie optimieren können. Wenn Sie Silos haben, bedeutet das, dass ganze Klassen von Optimierungen oder Wege für Sie gar nicht erst zugänglich sind. Wenn Sie die Dinge mit einem hohen Grad an Arbeitsteilung über Dutzende von Personen handhabbar halten möchten, benötigen Sie so etwas wie Silos; die Alternative – dass jeder mit jedem spricht – skaliert nicht über ein Team von fünf oder vielleicht zehn Personen hinaus.
Aber mit moderneren Technologien gibt es die Möglichkeit, die Unterstützung bei Entscheidungen, die Automatisierung von Entscheidungen oder einfache Automatisierung neu zu überdenken. Viele Schritte waren extrem mühsam, aber zeitaufwendig, und es gab keine Möglichkeit, sie zu automatisieren. Damit meine ich alles, was bis vor kurzem mit Text zu tun hatte – wie zum Beispiel die Auswahl eines Etiketts, das gut in 80 Zeichen für In-Store-Tags passt. Man musste sorgfältig einen Namen auswählen, der in das Limit passte. Kein massiver Mehrwert, aber es gab keine Alternative, und man verschleuderte hunderte oder tausende Arbeitsstunden pro Jahr an einem banalen Problem. Jetzt ist vieles davon weg, und die Menschen können sich auf strategischere Probleme konzentrieren.
Rupert Schiessl: Wir haben einen sehr ähnlichen Anwendungsfall mit unseren Kunden im Bereich Zölle – die Auswahl der richtigen HTS-Nummer in den USA. Viele unserer Kunden sind in den USA ansässig. Das ist die Zollnummer, die man verwendet, um ein Produkt in die USA zu importieren; das ist das universelle globale System, das nach wie vor existiert. Sie müssen die richtige Nummer basierend auf den Produkteigenschaften auswählen und haben einen gewissen Spielraum, um bei verschiedenen Optionen einen besseren Zollsatz zu wählen. Bis heute war – und ist – das ein vollständig manueller Prozess. Jetzt kann KI ins Spiel kommen, die neuesten Vorschriften lesen, verstehen, wofür die HTS-Nummern gedacht sind, und all das zusammenführen. Ein vollständiger Basisprozess wurde dank GenAI vollständig ersetzt, was vorher nicht möglich war.
Joannes Vermorel: Das nennt man Zero-Shot-Klassifikation. Der technische Begriff bedeutet, dass man einen machine learning Klassifikator ohne vorherige Beispiele aufbaut. Man hat die Gesetzesspezifikation zusammengestellt und als Teil des Prompts eingebettet, dann eine angemessene Vorverarbeitung vorgenommen, um PDFs in Markdown umzuwandeln und alle sonstigen Quellen über die Produkte zu nutzen. Danach arbeitet der Klassifikator – ein LLM – ohne spezielles Training.
Das Konzept ist mit GenAI interessant: Man kann plötzlich Klassifikatoren erstellen, ohne zuvor eine Datenbank mit Beispielen anzulegen, was vor fünf Jahren noch Praxis war. Damals sagte man: „Wir verwenden einen Random Forest: Zuerst klassifizieren wir manuell, sagen wir, 1.000 Beispiele, und dann nutzen wir diesen Klassifikator, um den Rest zu klassifizieren.“ Aber diese 1.000 Beispiele waren kostspielig und langsam. Das Schöne an GenAI ist, dass man eine Zero-Shot-Klassifikation durchführen kann: Man formuliert die Regeln und die Logik – die auch ungenau und wertend sein können – und erhält dann einen halbwegs brauchbaren Klassifikator, der ohne Vorabdaten funktioniert.
Das erschließt viele Anwendungsfälle, die zuvor wirtschaftlich nicht tragfähig waren. Man könnte eine Datenbank für tausend Produkte für Zölle aufbauen, aber Zölle verändern sich schnell, und es würde in ein „Machen wir es eben manuell; das ist schneller“ ausarten. Also ja, absolut.
Conor Doherty: Das Beispiel mit den Zöllen ist leicht zu verstehen, weil es unmittelbar ist. Aber die zugrunde liegende Logik – die Einführung von KI in den Arbeitsablauf – besteht unabhängig von einem enormen Makroereignis. Wenn es darum geht, die Rendite einer Entscheidung zu maximieren, gilt das sowohl bei schwankenden Zollsätzen als auch ohne sie. Rupert, wie erklären Sie den Nutzen, KI allgemein in PLM einzubringen?
Rupert Schiessl: Es gibt vermutlich zwei Kategorien. Eine ist das Zollbeispiel: Wir behalten den gleichen Prozess bei, aber wie Joannes erklärte, können wir die Daten anpassen und einfacher arbeiten, ohne Datenquellen sammeln zu müssen, da wir vortrainierte Modelle haben, die in der Lage sind, Datenquellen wie Menschen zu verstehen. Beim Zollanwendungsfall laden wir einfach das PDF mit den 4.000 Seiten an Vorschriften hoch – wenn es sich täglich ändert, laden Sie einfach die neue Version hoch – und das Modell kann es lesen, was kein Mensch vermag. Das ist transformierend, nicht nur für Zölle, sondern auch für so viele unstrukturierte Datenquellen: PDFs, Bilder, Designs, die ständig aktualisiert werden.
Designer erstellen Adobe Illustrator SVG-Dateien und verändern diese – indem sie etwa Schaltflächen ein wenig nach links verschieben, entsteht eine neue Version, die von einem Produktentwickler angesehen und überprüft werden muss. Viele PDFs kommen von Lieferanten, wenn sie auf Ausschreibungen (RFPs) und Informationsanfragen (RFIs) antworten; sie möchten keine Formulare ausfüllen, sondern die bereits vorhandenen Informationen senden: Kataloge, Broschüren. Bis heute mussten Einkaufsleiter all dies überprüfen. Jetzt lässt sich das durch GenAI ersetzen.
Die zweite Transformation betrifft die Organisation – die Art und Weise, wie Prozesse und Entscheidungen innerhalb der Software getroffen werden. Jetzt sind wir in der Lage, uns innerhalb der verschiedenen Silos und Module an vergangene Ereignisse anzupassen. Nehmen wir an, ein Lieferant geht in Konkurs oder kann nicht mehr liefern: Dann muss man den Plan oder das Sortiment anpassen oder das Design ändern – vielleicht handelt es sich um einen Knopflieferanten oder um ein spezifisches Material. Dieser gesamte Prozess nahm viel Zeit in Anspruch; vielleicht wurde er in der Modebranche einfach nicht durchgeführt, weil der Lebenszyklus zu kurz ist. Jetzt ist das mit KI möglich: Man kann die Datenbank dauerhaft überwachen, Prozesse anpassen, automatisch neu planen, ein Sortiment neu erstellen, Preise ändern, Designs anpassen und den Prozess dynamisch verknüpfen.
Joannes Vermorel: LLMs sind nicht besonders geeignet, um sehr strukturierte Aktivitäten durchzuführen. Wenn Sie beispielsweise eine Liste von 10.000 Produkten durchgehen möchten, benötigen Sie eine Schleife, und das wird mit einem LLM langsam sein. LLMs sind gut, wenn Text ins Spiel kommt. Zum Beispiel bei der Preisoptimierung: Ein LLM eignet sich dazu, Ihnen beim Schreiben des Codes für eine Preisstrategie zu helfen, aber nicht dazu, Eigenschaften einzugeben und zu sagen: „Gib mir den Preis.“ Es ist kein gutes Werkzeug dafür.
Was ich in Zukunft sehe, ist Agent-zu-Agent. Google hat vor ein paar Wochen gerade eine Protokollspezifikation für Agent-zu-Agent veröffentlicht. Die Idee ist, dass Unternehmen, ähnlich wie sie eine Website bereitstellen, auch einen Agent öffentlich zugänglich machen könnten. Dem Agenten geben Sie alles, was Sie bereit sind, mit der größeren Welt zu teilen. Wenn Sie ein Lieferant sind, hätten Sie Ihren Katalog sofort verfügbar; dieser Agent könnte von Ihren Kunden abgefragt werden, um Informationen zu erhalten, und Sie pflegen die Datenbank, die den Agenten speist. Ihre Kunden könnten diese Agenten – die für andere Agenten konzipiert sind – abfragen, wodurch das Problem entfällt, PDFs und Medien durchzugehen, die nicht optimal für die Verarbeitung durch LLMs geeignet sind. Immer wenn Sie PDFs haben, müssen Sie sie zuerst in Text umwandeln; dies beseitigt mehrere Hürden.
Rupert Schiessl: Das ist definitiv interessant: die Einhaltung von Compliance in den verschiedenen Agentennetzwerken von Kunden und Lieferanten. Was sehr damit zusammenhängt – und bereits eine Frage ist, die wir bekommen – lautet: „Ich bin der Lieferant und teile meine Daten mit Ihnen, dem Kunden. Wie stelle ich sicher, dass Sie nicht alle Informationen übernehmen? Wie kann ich gewährleisten, dass Sie nur das nehmen, was ich teilen möchte?“ Das wird in den nächsten Jahren zu einem der wichtigsten Themen werden. Wie können wir kontrollieren, was die Agenten teilen? Wie können wir sicherstellen, dass sie keine Fehler machen? Agenten werden zwangsläufig mit Agenten kommunizieren, aber wie können wir kontrollieren, welche Daten nach außen gehen, besonders aus dem Unternehmen? Es wird enorme Chancen, enorme Herausforderungen und wahrscheinlich auch gewaltige Zwischenfälle in diesen Bereichen geben – hoffentlich ohne Beteiligung unserer Unternehmen.
Joannes Vermorel: Es gibt momentan viele IT-Probleme – zum Beispiel Ransomware – die weitaus kritischer und gravierender sind. Meiner Ansicht nach sind Daten für die meisten Unternehmen bei weitem nicht so kritisch, wie viele denken, es sei denn, man ist ASML mit hochentwickelten physischen Prozessen oder SpaceX mit Raketentriebwerken – dann besitzt man äußerst sensible Vermögenswerte. Aber 99 % der Unternehmen haben sehr wenige Daten, die wirklich kritisch sind. Die Daten, die als kritisch gelten, sind eher Verbindlichkeiten als Vermögenswerte. Wenn Sie ein Einzelhändler sind, wollen Sie wahrscheinlich keine persönlichen Informationen Ihrer Kunden; das ist eine Verbindlichkeit. Wenn diese durchsickern, entsteht ein großes Pressethema; es wird Ihr Geschäft nicht grundlegend fördern.
Also, der Produktkatalog – den kann praktisch jeder aus dem E-Commerce extrahieren. Es hat jedoch einen Wert, ihn intern gut organisiert zu haben; ich behaupte nicht das Gegenteil. Ich sage lediglich, dass, wenn diese Daten etwas zu sehr mit Mitbewerbern geteilt werden, das nicht das Ende der Welt bedeutet. Daten, die Sie nicht teilen möchten – persönliche Daten Ihrer Kunden – sind eine Verbindlichkeit. Bei Lokad stellen wir für fast alle unsere Kunden sicher, dass wir keinerlei persönliche Daten besitzen, weil es eine Verbindlichkeit darstellt. Selbst im Falle eines Angriffs auf Lokad – was zwar noch nie passiert ist, aber passieren könnte – ist es so gedacht, dass wir nur Informationen haben, die aus PR-Sicht nicht schädlich wären: kommerzielle Informationen, Produktlisten, Flusslisten, Lagerbestände. Sie wollen nicht, dass Ihre Lagerbestände mit Wettbewerbern geteilt werden, aber wenn sie auf Reddit veröffentlicht würden, wäre das nicht das Ende der Welt für Ihr Unternehmen.
Conor Doherty: Es mag nicht das Ende der Welt sein, aber in dem LinkedIn-Artikel „The End of Software as We Know It“, den Sie geschrieben haben, Rupert, schrieben Sie, dass KI die Logikschicht tötet. Was war das zentrale Argument, das Sie vorbrachten, und wie tötet KI die Logikschicht von PLM?
Rupert Schiessl: Der Titel ist etwas provokant, aber wahrscheinlich beschreibt er, was gerade passiert. Ich bin seit 17 Jahren in der Softwarebranche; als Softwareanbieter sind wir am meisten stolz auf die Logik und Geschäftslogik, die wir entwickeln – die Geschäftsprozesse unserer Kunden elegant und generisch abzubilden, sodass viele Probleme mit minimalem Code gelöst werden können. Zusätzlich gibt es eine wunderschön gestaltete Benutzeroberfläche, um mit dieser Logik zu interagieren. Am unteren Ende des Stapels befinden sich Daten, die miteinander verknüpft sind, um die Prozesse und die Geschäftslogik der Kunden, die die Software nutzen, abzubilden. Das war die traditionelle Vorgehensweise.
Wie Joannes sagte, werden LLMs keine Preis-, Optimierungs- oder Prognosealgorithmen erstellen – diese sind mathematisch optimiert – aber sie können Code generieren und logische Abläufe beschreiben. Diese Algorithmen können die von Softwareanbietern vorgegebene Logik und Prozesse auf dynamischere, interaktive und kontextbewusste Weise anpassen – basierend auf dem aktuellen wirtschaftlichen Umfeld, welcher Lieferant reagiert oder welcher Benutzer die Software nutzt. Der Prozess muss nicht derselbe sein und kann dynamisch vom LLM angepasst werden, ohne dass ein Programmierer jeden einzelnen Schritt im Voraus bedenkt. Das ist eine bedeutende Veränderung.
Es wirkt sich auch auf die Benutzeroberfläche aus. UIs wurden auf eine solide, stabile Weise entworfen – ähnlich wie die Logik –, um Fälle und Benutzeranforderungen vorherzusehen. Designer sehen nicht dasselbe wie die Finanzabteilung. Jetzt, mit code-schreibenden Agenten und Logikagenten – diesen GenAI-Algorithmen – können Sie die UI je nachdem generieren, was aus der Datenbank kommt, wie der Prozess verläuft und wer die Person vor Ihnen ist. Kommt man zusammen, verschwindet die Logik gewissermaßen; Benutzeroberflächen verschwinden. Das Einzige, was bleibt, sind die Daten und die darin enthaltene Geschäftslogik. Der Wert der Datenschicht steigt. Wir müssen die Methoden verbessern, wie wir diese Daten schützen und Metadaten-Schichten erstellen, die unsere Daten erklären, sodass das LLM versteht, was passiert, und sie internen Agenten sowie Agenten anderer Unternehmen – Kunden und Lieferanten – zugänglich machen kann.
Joannes Vermorel: Wenn man sich Systeme der Aufzeichnung anschaut – Unternehmenssoftware, die einen elektronischen Gegenpart von etwas in Ihrem Unternehmen darstellt: Produkte und deren Lebenszyklen, Lagerbestände, Bestellungen usw. – dann existiert der Großteil der Logik, um die Arbeitsteilung zu unterstützen. Wenn es gelingt zu automatisieren, muss man diese Arbeitsteilung nicht mehr verwalten. Plötzlich benötigt man keine Schichten aus Benutzeroberflächen, Logik, Workflows und Ähnlichem mehr für etwas Automatisiertes. In vielen Unternehmenssoftwaresystemen entfällt über 90 % der Logik zugunsten der Arbeitsteilung.
Man erstellt Phasen, Workflows, Überwachung, KPIs, Handlungsaufforderungen usw. Wenn Sie in der Lage sind zu automatisieren, benötigen Sie diese detaillierten Phasen, Workflows und KPIs wirklich? All das verschwindet. Vielleicht reduziert man es auf einen technischen Indikator, der anzeigt, ob Ihre Automatisierung unter guten Bedingungen läuft – grün oder nicht – und das war’s. Um die Auswirkungen der Automatisierung zu verstehen, denken Sie an den Spamfilter. In den 90er-Jahren war Unternehmens-Anti-Spam-Software äußerst komplex: Unmengen an Regeln, Überwachung und hunderte Parameter. Heutzutage – was passiert mit Ihrem Spamfilter? Nichts. Er existiert, er funktioniert, und es ist Ihnen egal. Es gibt einen Spam-Ordner, den Sie nie öffnen. Die Logik verschwindet, weil die Automatisierung für Dinge freigesetzt wird, die zuvor nicht möglich waren.
Ja, mit LLMs können Sie SQL-Abfragen automatisch zusammenstellen, um Berichte zu erstellen und damit etwas Logik einsparen, aber das ist klein im Vergleich dazu, Artefakte zu entfernen, die nur dafür da waren, mit vielen Menschen zurechtzukommen. Wenn Sie viele Mitarbeiter haben, benötigen Sie Administratoren mit unterschiedlichen Rechten, Manager, unterschiedliche Sichtbarkeitsbereiche usw. Unternehmensanbieter lieben es, Funktionen einzuführen, die auf viele Menschen zugeschnitten sind, aber wenn der Bedarf an vielen Menschen wegfällt, ist der Nutzen dieser Funktionen größtenteils hinfällig.
Rupert Schiessl: Was sich außerdem ändert, ist, dass der gesamte Prozess input-orientierter wird. Anstatt den kompletten Prozess, die Workflows und die geteilten Verantwortlichkeiten einzurichten, setzen Sie Grenzen, Limits, Beschränkungen und Ziele. Anschließend organisiert sich die neue Art von Software automatisch – ähnlich wie es eine menschliche Organisation tun würde – mit einem Orchestrator und Teams, die zusammenarbeiten, weil Sie es so vorgegeben haben. Das ist in menschlichen Organisationen notwendig: Regeln und Hierarchien.
Das ist die Hauptbewegung: eine Veränderung darin, wie wir Softwareanbieter arbeiten müssen. Wir müssen Software entwickeln, die es den Kunden ermöglicht, Regeln und Organisationsstrukturen für diese Automatisierungstools festzulegen, anstatt die kompletten Prozesse zu bauen.
Conor Doherty: In dem Artikel sprachen Sie über KI und darüber, dass neue Regeln oder zielorientierte Verfahren entstehen werden – dass sich die KI selbst beibringt. Können Sie das etwas näher erläutern?
Rupert Schiessl: Anstatt jeden Schritt im Voraus zu antizipieren, richten Sie eine Organisation verschiedener Agenten ein, die zusammenarbeiten – LLM-basierte KI-Tools – und beschreiben, wie sie kooperieren, wer mit wem kommunizieren darf, welche Grenzen es gibt, was sie tun können, auf welche Werkzeuge sie zugreifen können – intern oder extern –, welche Benutzerrechte sie besitzen und auf welche Daten sie zugreifen können. Ist das eingerichtet, lassen Sie sie agieren – zunächst noch sehr grundlegende Aufgaben, die aber immer komplexer werden – und zusammenarbeiten, um die zu Beginn gesetzten Aufgaben oder Ziele zu erfüllen.
Conor Doherty: Wir haben die aktuelle Vision von PLM den alten, menschenzentrierten Silos gegenübergestellt. Wie durchbrechen Sie diese Silos und kommen der von Ihnen gerade beschriebenen Lösung näher?
Rupert Schiessl: Bei Bamboo Rose haben wir sechs Elemente – die sechs Silos von der Planung bis zur Distribution – und darüber hinaus integrieren wir das, was wir Entscheidungsintelligenz nennen. Man könnte es auch KI nennen; es beschreibt die Art und Weise, wie wir Entscheidungen treffen, die sowohl vor- als auch nachgelagert kompatibel sind und abteilungsübergreifend gemeinsam getroffen werden. Im Rahmen der Entscheidungsintelligenz ermöglichen wir es unseren Kunden, Regeln und Ziele festzulegen, die sie erreichen möchten, und anschließend laufen die verschiedenen Prozesse automatisch ab.
Im Moment machen wir das bei spezifischen Aufgaben. Wir sprachen darüber, die richtige Tariffnummer zu finden: Früher ein Prozess mit einigen integrierten Schritten; jetzt sagt man einfach: „Finde die richtige Tariffnummer für dieses Produkt,“ und der Agent läuft die einzelnen Schritte durch, ruft die notwendigen Informationen ab, holt die aktuellsten rechtlichen Informationen, lässt den Klassifikator laufen, um alles zusammenzustellen, validiert und erklärt es und füllt dann die richtige HTS-Nummer zusammen mit einer Erklärung in das Feld für den Benutzer ein.
Das bewegt uns in Richtung komplexerer Prozesse wie der Erstellung von Tech-Packs – ein sehr wichtiger Teil des PLM: die technische Beschreibung der Stückliste und der Messpunkte in Mode und Bekleidung. Manchmal 50–100 Seiten für ein einzelnes Produkt: alle Compliance- und rechtlichen Einschränkungen, Bio-Baumwolle oder nicht, alle Größen, und dann wird das an einen Lieferanten gesendet. Heute, wenn Kunden einen neuen Pullover wünschen, kopieren sie entweder ein ähnliches Produkt und passen es an – was immer noch Zeit in Anspruch nimmt – oder erstellen ein neues Produkt und fangen von vorne an. Das ist sehr zeitaufwendig: Alle 50–100 Seiten technischer Informationen müssen erstellt werden.
Ein Agentennetzwerk kann in neueste Produkte einsteigen – einige Kunden haben Hunderttausende von Artikeln in der Datenbank – findet ähnliche Produktinformationen, holt die aktuellsten rechtlichen Einschränkungen ab und führt alles zusammen, um das Tech-Pack zu erstellen. Das ist die Automatisierung eines komplexen Prozesses, der vollständig oder fast vollständig von einem Agentennetzwerk – von KI – durchgeführt wird. Unser Nordstern lautet: Der Kunde möchte Produkte auf den Markt und in Distributionszentren bringen. Was zwischen all den Schritten geschieht, ist Arbeit, die erledigt werden muss, aber Arbeit, die die Kunden einer KI überlassen würden, wenn diese dazu in der Lage wäre. Die Endvision von PLM lautet: „Erstelle die Kollektion für das nächste Jahr und bringe sie auf den Markt“, und das funktioniert automatisiert. Vielleicht wird es Startups geben, die das Ein-Mitarbeiter-Einhorn bauen – vielleicht kann der Modevertrieb einer davon sein.
Conor Doherty: Joannes, irgendwelche Gedanken?
Joannes Vermorel: Zur Anwendbarkeit müssen wir unterscheiden zwischen dem Zusammenstellen eines Sortiments – welche Kleidungsstücke, Größenspektren, Farben, Muster, Stile – und der dazugehörigen Dokumentation. LLMs sind nicht gut geeignet, Sortimente zu erstellen: Man kann einem LLM keinen Katalog von 20.000 Varianten eingeben und eine sinnvolle Ausgewogenheit der Farbtiefe über Produkttypen hinweg erwarten. Man benötigt andere Klassen von Algorithmen – klassische oder stochastische Optimierung –, um das Sortiment selbst zusammenzustellen. Sobald Sie die grobe Beschreibung Ihres idealen Sortiments haben, beginnt für jedes Produkt der Prozess, Anforderungen zu sammeln und die Dokumente zusammenzustellen. Dort glänzen LLMs wirklich.
LLMs sind äußerst gut darin, mit unstrukturierten Inhalten umzugehen – meist Text, ein wenig Bilder – aber nicht bei Berechnungen. Sie können für Berechnungen verwendet werden, indem sie Code generieren, den Sie dann ausführen – auf verschiedenen Ebenen. LLMs können Ihnen also dabei helfen, den Code zu schreiben, um das Sortiment zu analysieren und neu auszubalancieren, und anschließend die tausenden Seiten Dokumentation über viele Produkte zu erstellen – eine enorme Zeitersparnis. Denken Sie an eine sehr intelligente Vor-Template-Logik, die die einfachen Dinge standardmäßig anpasst; dann greifen Menschen ein, um dort Anpassungen vorzunehmen, wo dem Modell die Informationen fehlen. Manchmal ist es aufwändiger, alle relevanten Informationen dem Modell zugänglich zu machen, als dass ein menschlicher Schritt nötig wäre, sodass es Kompromisse gibt. Aber für den Großteil der Arbeit und die Automatisierung des größten Teils des Austauschs zwischen dem, was das Unternehmen möchte, und dem, was der Lieferant vorschlagen kann, gibt es einen enormen Papierkram, den LLMs automatisieren können, damit alle auf dem gleichen Stand sind.
Rupert Schiessl: Danke für die präzise Formulierung. LLMs sollten als Orchestratoren für andere bereits vorhandene Tools und Algorithmen gesehen werden. Bei Bamboo Rose oder in PLMs gibt es Algorithmen, um eine Stückliste zu erstellen, in einer Stückliste zu analysieren oder zu suchen. LLMs sind dafür nicht gebaut, aber sie können wissen, dass diese Algorithmen existieren, entscheiden, wann sie als Werkzeuge eingesetzt werden, und Informationen bereitstellen, um den nächsten Schritt im Prozess voranzubringen.
Conor Doherty: Wenn ich alle Phasen des PLM zusammenfasse, Rupert, wo siehst du den größten positiven Einfluss von KI – LLMs, generative KI oder jeglichen Algorithmen?
Rupert Schiessl: Ich würde sagen, auf drei Ebenen. Zuerst, defensive KI: Einen Prozess übernehmen und mit KI automatisieren, sodass er schneller, robuster wird und den Mitarbeitern Zeit spart – ohne Änderungen an den Gesamtprozessen, einfach schneller, genauer, höhere Leistung. Zweitens, erweitern: Prozesse transformieren, sie dynamisch anpassen, wie wir es beschrieben haben – Prozesse zusammenführen und automatisieren, Prozesse mithilfe von KI neu gestalten. Komplexer einzurichten, aber mit mehr Mehrwert.
Drittens, anhängen: Etwas Neues dank KI kreieren – etwas, das zuvor nicht möglich war – zusätzlich zu Ihrem bestehenden Prozess. Unternehmen können mit KI neue Produkte, Angebote und Dienstleistungen erfinden. Man denke sofort an die Pharmaindustrie: Ihr ganzer Transformations- und Produktentwicklungsprozess kann nun automatisiert werden, was die Schaffung neuer Produkte mit GenAI in deutlich kürzeren Zeitspannen ermöglicht. Für uns bei Bamboo Rose gibt es viele Automatisierungsfunktionen auf der ersten Ebene, die sofortige Zeit- und Kosteneinsparungen bringen. Wir haben Prozesse, die zusammengeführt und transformiert werden können – die Erstellung von Tech-Packs ist ein typischer Prozess, an dem mehrere Personen beteiligt sind. Ein weiterer, den wir kürzlich eingeführt haben, ermöglicht es Modedesignern, sofort auf eine Kostenschätzung zuzugreifen. Früher schickten Designer diese an Produktentwickler, erhielten sie zurück, nahmen Änderungen vor und sendeten sie erneut. Jetzt sind diese Prozesse miteinander verbunden, und wir berechnen die Kostenschätzung basierend auf Designänderungen neu.
Natürlich erlaubt uns die letzte Ebene – anhängen – zu transformieren, wie Kunden Produkte entwerfen und auf den Markt bringen, und ihnen möglicherweise die Möglichkeit zu geben, neue Produkte oder bessere Dienstleistungen zu schaffen.
Conor Doherty: Danke, Rupert. Joannes, wie unterstützt KI die Kunden von Lokad?
Joannes Vermorel: Wir haben einen leicht anderen Ansatz, denn die vollständige Robotisierung von supply chain Entscheidungen begann vor mehr als einem Jahrzehnt bei uns, und der Großteil davon beinhaltet überhaupt kein GenAI. Prädiktive Optimierung für Flüsse physischer Güter – das ist es, was wir tun: Entscheiden, wann eingekauft, wohin versendet, wo gelagert, was produziert und wohin versandt wird, sowie die Preise anzupassen. Diese Entscheidungen sind hoch quantitativ und basieren seit über einem Jahrzehnt auf numerischen Rezepten. Sie waren bereits automatisiert, ohne generative KI.
GenAI erleichtert die Pflege von Code und unterstützt Aufgaben wie die Bereinigung des Produktkatalogs, wenn das PLM nicht gut organisiert ist und die Daten etwas chaotisch sind. Aber für uns begann die vollständige Automatisierung schon vor langer Zeit. Mit GenAI können nun die Vorgänge vor und nach den quantitativen Entscheidungen automatisiert werden. Vorher: Nehmen wir an, die MOQ, die Sie von einem Lieferanten haben, ist veraltet – Sie möchten frische Informationen. Früher war dieser Prozess manuell: E-Mails schreiben oder Vorlagen verwenden, um Informationen zu sammeln, wobei die Antworten nicht besonders sauber waren. Mit LLMs kann das vollständig automatisiert werden.
Nachdem die Entscheidung getroffen wurde: Angenommen, Sie entscheiden sich, zu versuchen, eine bereits bei einem Lieferanten aufgegebene Bestellung zu beschleunigen. Das bedeutet, dass Sie sich mit dem Lieferanten auseinandersetzen und möglicherweise ein Hin und Her haben – „Ja, das können wir, aber es gibt einen Mehraufwand.“ Die Antwort ist weder einfach noch binär. Interaktionen mit Dritten nach dem Prozess können mit GenAI automatisiert werden, auch wenn die Kernd Entscheidung – die Identifizierung von Kandidaten für eine Beschleunigung – keine GenAI umfasst und eine sehr analytische Berechnung darstellt.
Conor Doherty: Ich habe die Zeit im Blick. Als abschließender Gedanke für Nicht-Techniker: Wie präsentieren Sie das Wertversprechen der Einführung von KI in einen PLM-Workflow, sodass 100% der Zuhörer den Mehrwert verstehen?
Rupert Schiessl: Für unsere Kunden ist der PLM-Prozess oft zeitaufwendig, schmerzhaft an verschiedenen Stellen und nicht optimal. Kunden verpassen Chancen, weil einige Lieferanten nicht mehr verfügbar sind und keine Produkte mehr versenden können. Es gibt viele Schmerzpunkte entlang der gesamten Produktreise. KI wird morgen nicht alles lösen, aber es ist eine enorme Chance, diese Schmerzpunkte einzeln zu beheben: mehr Genauigkeit zu erzeugen, eine bessere Produktverfügbarkeit, höhere Produktqualität, bessere Produktkonformität und eine bessere Beziehung zu den Lieferanten, da die Einzelhändler weniger zeitintensiv für die Lieferanten sein werden.
Für alle Beteiligten in der gesamten Kette gibt es Vorteile, und das schneller als zuvor. Alles wird reibungsloser laufen. Es wird Zeit brauchen; unsere Aufgabe als Softwareanbieter ist es, diese Technologie unseren Kunden innerhalb des bekannten Stacks zur Verfügung zu stellen, der beschreibt, wie der Produktlebenszyklus gemanagt werden sollte. Unsere Kunden werden von Kosteneinsparungen, Zeitersparnissen und einer besseren Produktqualität profitieren, die sie mit unserer Software erreichen können.
Conor Doherty: Joannes, bevor wir abschließen, noch etwas hinzuzufügen?
Joannes Vermorel: KI wird wahrscheinlich 90% der Büroangestellten im Back-Office ersetzen. Viele alltägliche Abläufe im PLM werden in den nächsten Jahrzehnten automatisiert werden. Wenn eine Aufgabe keinen signifikanten Mehrwert bringt – meist das Umorganisieren oder Neuordnen von Informationen von einem Format ins andere – wird dies in den kommenden Jahrzehnten automatisiert werden. Das wird eine große Transformation sein, denn für diese Unternehmen sprechen wir von Horden von Büroangestellten, die automatisiert werden – das war es für heute.
Conor Doherty: Nun, meine Herren, ich habe keine weiteren Fragen. Rupert, vielen Dank für Ihre Zeit und dafür, dass Sie an der Unterhaltung im Studio teilgenommen haben. Und an alle anderen: Zurück an die Arbeit.