00:00:06 Einführung in die generationenübergreifende Entwicklung von machine learning.
00:00:38 1. Generation: Statistische Prognosealgorithmen der 1950er/60er.
00:03:26 Übergang zur 2. Generation: Nichtparametrische Modelle Ende der 80er/90er.
00:06:20 Zusammenführung von Statistik und machine learning.
00:07:55 Auswirkungen technischer Verbesserungen auf die Entwicklung von machine learning.
00:09:54 Einfluss von deep learning auf Prognosen im Vergleich zu standardmäßigem machine learning.
00:11:31 Parametrische Modelle, um Überanpassung bei deep learning zu vermeiden.
00:13:01 Das Zusammenspiel von deep learning mit Hardware, GPUs und linearer Algebra.
00:14:50 Die Rolle von Cloud Computing bei der Datenverarbeitung in deep learning.
00:16:01 GPU-Herausforderungen, Vorteile von Cloud Computing für Forecasting in supply chain.
00:17:22 Zukunft von machine learning: Aufstieg des differentiable programming.
00:19:13 ML-Investitionen der supply chain Branche, Anpassung an Big Data.
00:22:44 Tempo des technologischen Wandels, Anpassung von supply chain-Führungskräften.
00:25:24 Fazit: Die Wichtigkeit von SaaS und Cloud Computing in der technologischen Entwicklung.
Zusammenfassung
In einem Interview diskutierte der Lokad-Gründer Joannes Vermorel die Geschichte von machine learning (ML), von seinen Ursprüngen in den 1950er Jahren mit time series-Prognosealgorithmen bis hin zum Aufkommen von deep learning. Er hob die Anwendungen von ML im supply chain management hervor, einer Spezialität seines Unternehmens. Vermorel skizzierte den Fortschritt von einfachen, datengesteuerten Modellen hin zu nichtparametrischen statistischen Modellen, die in der Lage sind, jedes Muster bei ausreichender Datenmenge zu erlernen. Das Gespräch behandelte wichtige Meilensteine im Bereich ML, die Rolle der Technologie und die Herausforderung des overfitting. Vermorel prognostizierte zukünftige Entwicklungen im ML, darunter differentiable programming, sowie den andauernden Fokus auf Sprach- und Bilderkennung. Abschließend plädierte er dafür, Software as a Service einzusetzen, um supply chain executives dabei zu unterstützen, mit dem rasanten technologischen Wandel Schritt zu halten.
Erweiterte Zusammenfassung
Das Interview zwischen dem Moderator Kieran Chandler und Joannes Vermorel, Gründer von Lokad, beleuchtet die Entwicklung von machine learning mit besonderem Schwerpunkt auf dessen Anwendung im supply chain management.
Vermorel weist darauf hin, dass die Ursprünge von machine learning bis in die 1950er und 60er Jahre zurückverfolgt werden können, als die ersten Zeitreihen-Prognosealgorithmen aufkamen. Diese Algorithmen, die bei ihrer Entstehung nicht traditionell als machine learning angesehen wurden, wiesen wesentliche Eigenschaften von machine learning auf, wie datengesteuert, statistisch und darauf ausgelegt, Muster aus Daten zu erlernen. Vermorel betont zudem, dass der ursprüngliche Einsatz dieser Algorithmen eng mit der Optimierung von supply chain verbunden war, einem Bereich, auf den sich sein Unternehmen, Lokad, heute spezialisiert.
Bezüglich der in dieser frühen Phase von machine learning eingesetzten spezifischen Methoden nennt Vermorel mehrere Verfahren, die supply chain-Praktikern geläufig sein dürften. Dazu gehören gleitende Durchschnitte, exponentielle Glättung und komplexere Modelle wie das Holt-Winters- und das Box-Jenkins-Verfahren. Er beschreibt diese ersten Algorithmen als relativ einfach, primär darauf ausgelegt, den begrenzten rechnerischen Fähigkeiten der damals verfügbaren Computer gerecht zu werden. Diese frühen Modelle mussten schnell und effizient sein, um Hunderte von Datenpunkten mit Tausenden von Operationen innerhalb der Beschränkungen von begrenzter Rechenleistung und Speicherkapazität zu verarbeiten.
Wendet man sich dem Fortschritt von machine learning zu, berichtet Vermorel, dass der nächste bedeutende Sprung in den späten 80er und in den 90er Jahren stattfand, gekennzeichnet durch das Aufkommen nichtparametrischer statistischer Modelle. Diese Entwicklung von den parametrischen Modellen der ersten Generation, die durch eine feste Anzahl einstellbarer Parameter (in der Regel nicht mehr als ein Dutzend) charakterisiert waren, stellte einen entscheidenden Fortschritt dar.
Parametrische Modelle, die durch ihre festen Parameter begrenzt sind, konnten sich nur an einen bestimmten Bereich von Datenmustern anpassen. Im Gegensatz dazu hatten nichtparametrische Modelle keine vorgegebene Form, was es ihnen ermöglichte, potenziell jedes Muster zu erlernen, sofern genügend Daten vorhanden waren. Dieser Wandel bedeutete einen Durchbruch in den Fähigkeiten und der Flexibilität von machine learning und bildet die Grundlage für die heute zu sehenden komplexeren und vielseitigeren Anwendungen von machine learning.
Vermorel beginnt damit, die Herausforderung des overfitting in frühen Prognosemodellen hervorzuheben, bei denen eine Erhöhung der Parameterzahl zu Modellen führen konnte, die historische Daten perfekt abbildeten, jedoch keine prädiktiven Fähigkeiten für die Zukunft besaßen. Dies stellte über Jahrzehnte hinweg ein großes Rätsel dar, bis Ende der 90er Jahre mit dem Aufkommen nichtparametrischer Modelle zufriedenstellende Lösungen gefunden wurden.
Anschließend erörtert er die beiden in diesem Zeitraum entstandenen Lager im Bereich: statistisches Lernen und machine learning. Ersteres bestand aus Mathematikern, die Statistik betrieben und Computer intensiv nutzten, um ihre Arbeit zu unterstützen, während letzteres aus Informatikern bestand, die allmählich zu statistischen Algorithmen übergingen. Er merkt an, dass diese Perspektiven zu unterschiedlichen Modellierungsstilen führten. So bevorzugte das Lager des statistischen Lernens Support Vector Machines, ein mathematisch gut verstandenes Modell. Demgegenüber zog das Lager von machine learning Neuronale Netze vor, die mit umfangreichen numerischen Berechnungen verbunden sind.
Chandler lenkt anschließend das Gespräch auf die Rolle der Technologie in der Entwicklung dieser Bereiche. Vermorel erwähnt einen bedeutenden Durchbruch Ende der 90er Jahre, die Erkenntnis, dass mehr Daten zu besseren Ergebnissen führen. Dieses Konzept bezog sich nicht nur auf längere Zeitreihen, sondern auch auf vielfältigere Datensätze. Anfangs war dieser Ansatz ein langsamer Prozess, da es erforderlich war, auf mehr angesammelte Historie zu warten. Fortschritte im Bereich machine learning und statistischem Lernen ermöglichten jedoch, Daten von mehr Produkten zu nutzen, was zu genaueren Nachfrageprognosen führte.
Vermorel führt die Einführung von Modellen wie Support Vector Machines in den späten 90er Jahren und Random Forests in den frühen 2000er Jahren als bedeutende Fortschritte zur Erfassung von Informationen aus größeren, vielfältigeren Datensätzen an.
Die Diskussion wendet sich dann dem Aufkommen von deep learning zu. Vermorel erklärt, dass die allmähliche Ansammlung wesentlicher Erkenntnisse dazu führte, dass deep learning sich erheblich von standardmäßigem machine learning unterschied. Einer der Hauptvorteile von deep learning ist seine Fähigkeit, komplexere Funktionen mit weniger Daten im Vergleich zu flachen Lernalgorithmen zu erlernen.
Interessanterweise weist Vermorel darauf hin, dass deep learning klassische Algorithmen bei kleinen Datensätzen nicht zwangsläufig übertrifft. Allerdings brilliert es, wenn es um sehr große Datensätze geht, bei denen flache Lernalgorithmen die zusätzlich verfügbare Information nicht nutzen können.
Überraschenderweise führte deep learning zur Wiederverwendung parametrischer Modelle, wenn auch mit mehreren Millionen Parametern, im Gegensatz zu den frühen parametrischen Modellen, die eine feste Anzahl von Parametern aufwiesen. Die Herausforderung bestand darin, ein massives overfitting zu vermeiden, was durch eine Reihe intelligenter Techniken gelöst wurde.
Vermorel erörterte ferner die Rolle von Graphical Processing Units (GPUs) im Fortschritt von machine learning. Diese sind für deep learning-Aufgaben unerlässlich, aber teuer und energieintensiv. Cloud-Computing-Plattformen milderten dieses Problem, indem sie bedarfsgesteuerte GPU-Farmen bereitstellten, wodurch Kosten- und Energieverbrauchsprobleme effektiv angegangen wurden. Dies war besonders vorteilhaft für die Optimierung von supply chain, bei der statistische Prognosen typischerweise einmal täglich durchgeführt werden und nur für eine kurze Dauer GPU-Ressourcen beanspruchen.
Mit Blick auf die Zukunft von machine learning prognostizierte Vermorel eine Rückkehr zu nichtparametrischen Modellen im Bereich des deep learning. Er verwies auf einen neuen Ansatz, “differentiable programming”, bei dem die Struktur des deep learning-Modells während der Lernphase angepasst wird. Dieser dynamische Ansatz könnte die nächste bedeutende Phase in machine learning und statistischem Lernen darstellen.
Auf die Frage nach dem aktuellen Fokus der großen Technologieunternehmen erwähnte Vermorel, dass Spracherkennung, Sprachsynthese, Bilderkennung und maschinelle Übersetzung derzeit erhebliche Investitionen erhalten. Dies sind Kernbereiche von Forschung und Entwicklung, die die Zukunft von machine learning vorantreiben. Supply chain-Unternehmen, einschließlich Lokad, liegen jedoch etwas zurück, da ihnen die Ressourcen fehlen, um stark in machine learning-Technologien zu investieren.
Die Optimierung von supply chain stellt einzigartige Herausforderungen für den Einsatz von machine learning dar, insbesondere da sie mit kleineren Datenmengen arbeitet im Vergleich zu anderen Bereichen wie der Bildverarbeitung. Dies erfordert eine ausgewogene Nutzung von sowohl CPUs als auch GPUs.
Chandler brachte daraufhin das Thema des rasanten technologischen Wandels und die damit verbundenen Herausforderungen für supply chain executives zur Sprache, deren implementierte Lösungen schnell veralten könnten. Vermorel riet dazu, dass Software as a Service (SaaS) eine geeignete Lösung sein könnte. Er hob Lokad als Beispiel für einen SaaS-Anbieter hervor, der seine Dienste ständig aktualisiert und optimiert, um seinen Kunden die Last zu erleichtern.
Vollständiges Transkript
Kieran Chandler: Heute bei Lokad TV werden wir zum Anfang zurückgehen und die generationenübergreifende Entwicklung von machine learning untersuchen sowie herausfinden, ob dieser schrittweise Fortschritt uns Hinweise darauf geben kann, was die Zukunft von machine learning bereithält. Also, Joannes, wie sah die erste Generation von machine learning aus? Wann kam sie zustande?
Joannes Vermorel: Interessanterweise würde ich sagen, dass die ersten machine learning-Algorithmen in gewisser Weise mit supply chain zusammenhingen, und zwar mit dem allerersten Zeitreihen-Prognosealgorithmus, der in den 50er und 60er Jahren entstand. Er verfügte über alle wesentlichen Bestandteile: er war datengesteuert, statistisch und versuchte tatsächlich, Muster aus den Daten zu erlernen. Damals bezeichnete man das nicht als machine learning; es handelte sich lediglich um Prognosealgorithmen. Aber alle Elemente waren vorhanden.
Kieran Chandler: Welche Methoden wurden also verwendet? Ich meine, die meisten supply chain-Praktiker würden sie kennen, oder?
Joannes Vermorel: Sie würden den gleitenden Durchschnitt, exponentielle Glättung kennen, und es gab dann auch ausgefallenere Methoden aus dieser Ära, wie das Holt-Winters-Modell, die Box-Jenkins-Modelle usw. Es entstand also eine Reihe relativ einfacher Algorithmen, die gleich zu Beginn der Computerzeit auftauchten. Es ist interessant zu sehen, dass, sobald Computer in Unternehmen vorhanden waren, sie tatsächlich dazu genutzt wurden, supply chains optimieren, wenn auch zu relativ bescheidenen Zwecken.
Kieran Chandler: Damals sah die Welt der computergestützten Analyse ganz anders aus. Was stand in jenen Zeiten im Mittelpunkt?
Joannes Vermorel: Der Hauptfokus lag darauf, mit so wenig Rechenleistung, Speicher und Kapazität für zahlreiche Berechnungen auszukommen. Alle jene Modelle der ersten Generation, die aus den 60er und 70er Jahren stammen, waren darauf ausgelegt, extrem schnell zu sein. Das bedeutet, wenn man 100 Datenpunkte zu verarbeiten hatte, gab es nur wenige tausend Operationen, die an diesen Datenpunkten durchgeführt werden konnten. Diese Algorithmen waren für Maschinen konzipiert, die nur über Kilobyte an Speicher und Prozessorfrequenzen unter 1 MHz verfügten.
Kieran Chandler: Ich nehme an, damals wurden für computergestützte Analysen deutlich weniger Ressourcen eingesetzt als heute, wo Hunderttausende daran arbeiten. Wie lange hat es gedauert, bis die nächste Generation entstand? Hat das lange gedauert?
Joannes Vermorel: Es war eine allmähliche Entwicklung. Wir hatten die erste Welle von Modellen, die in den 60er und 70er Jahren aufkamen, und das waren alles parametrische Modelle. Dies waren statistische Modelle mit einer festen Anzahl von Parametern, in der Regel nicht mehr als ein Dutzend.
Kieran Chandler: Was bedeutet das, ein Parameter?
Joannes Vermorel: Ein Parameter ist wie eine Zahl. Also hatte Ihr statistisches Modell ein paar Zahlen, die Sie anpassen konnten, damit das Modell zu den Daten passte. Das Wesentliche der Lernphase besteht darin, diese Parameter zu finden. Typischerweise hatte man etwa ein halbes Dutzend, vielleicht bis zu einem Dutzend bei den ausgefalleneren Modellen, und das war es. Was in den späten 80er und insbesondere in den 90er Jahren geschah, war das Aufkommen nichtparametrischer statistischer Modelle. Das war interessant, weil die Modelle der ersten Generation nicht in der Lage waren, irgendwelche Zeitreihen- oder Nachfragemuster zu erfassen; sie hatten nur eine sehr begrenzte Anzahl von Parametern und konnten daher nur begrenzt aus historischen Daten lernen.
Kieran Chandler: Der Übergang von parametrischen zu nichtparametrischen Modellen in der zweiten Generation war bedeutend. Hatte man genügend Daten, konnte man potenziell jedes Muster erlernen. Dieser Durchbruch Ende der 90er Jahre führte zur Entwicklung von Modellen mit ansprechenden mathematischen Eigenschaften. Bei einer beliebig großen Menge an Daten konnte man dem besten Modell beliebig nahekommen, ohne ein overfitting-Problem zu riskieren. Overfitting tritt nämlich auf, wenn man die Anzahl der Parameter so weit erhöht, dass das Modell die historischen Daten perfekt abbildet, dabei jedoch die prädiktiven Fähigkeiten für die Zukunft verliert. Overfitting ist ein rätselhaftes Problem – es geht darum, ein Prognosemodell zu haben, das bei den Daten, die man nicht besitzt, genau ist. Dieses Problem stellte Entscheidungsträger über Jahrzehnte vor ein Rätsel, bis Ende der 90er Jahre mit der Einführung nichtparametrischer Modelle zufriedenstellende Lösungen gefunden wurden. Mit diesen Modellen begannen wir, das Aufkommen von machine learning zu beobachten. Wie kam es dazu und welchen Einfluss hatte es?
Joannes Vermorel: Es ist interessant. Was die Terminologie angeht, hatten wir mehrere Lager. Es gab das Lager des statistischen Lernens, in dem Mathematiker, die Statistik betrieben, Computer intensiv nutzten, um ihre Arbeit zu unterstützen. Auf der anderen Seite stand machine learning, dessen Befürworter aus dem Bereich der Informatik kamen, die mit diesen Problemen konfrontiert wurden und allmählich zu statistischen Algorithmen übergingen. Es war eher eine Frage der Perspektive.
Beispielsweise gab es im Lager für statistical learning Support vector machines, die aus mathematischer Sicht gut verstanden wurden und die die kernstatistische Community anzogen. Auf der anderen Seite gab es neuronale Netze, viel numerisches Kochen, das die machine learning Community ansprach. Diese unterschiedlichen Perspektiven auf das Fachgebiet konvergierten allmählich.
Kieran Chandler: Unabhängig davon, welchem Lager du angehörtest, entwickelte sich um dich herum die Technologie und die Möglichkeiten, die du mit ihr realisieren konntest. Welche bedeutenden technischen Verbesserungen und Durchbrüche haben all dies wirklich vorangebracht?
Joannes Vermorel: Der Durchbruch Ende der 90er Jahre war die Idee, dass wenn man mehr Daten hätte, man bessere Ergebnisse erzielen würde. Und damit meinte ich nicht nur längere Zeitreihen, sondern auch mehr Zeitreihen. Für supply chain bedeutet das: Kannst du eine präzisere Nachfrageprognose erhalten, nur weil du mehr Historie hattest? Das Problem ist jedoch, dass du, wenn du ein Jahr oder mehr Verkaufsdaten möchtest, ein weiteres Jahr warten musst, was ein sehr langsamer Prozess ist. Außerdem, da new products eingeführt werden und einige Produkte auslaufen, erhält man nie wesentlich mehr Historie.
Es gab einige Durchbrüche, um mehr Daten aus einer größeren Produktpalette nutzen zu können. Dies kam nicht Ende der 90er, sondern eher in den 2000er Jahren. Ermöglicht wurde dies durch Fortschritte im maschinellen Lernen und im statistischen Lernen, die alle mit diesen nichtparametrischen Modellen zusammenhingen.
Es gab eine Reihe dieser statistischen Modelle, die Durchbrüche repräsentierten, wie zum Beispiel support vector machines, die um ‘96 publiziert wurden und bis ‘98 funktionierende Implementierungen hatten, sowie random forests um 2001. Diese Modelle begannen, Informationen aus größeren Datensätzen mit einer größeren Vielfalt an Merkmalen sehr gut zu erfassen.
Kieran Chandler: Deep Learning – was war dessen Einfluss und was war der entscheidende Unterschied zwischen Deep Learning und herkömmlichem maschinellen Lernen?
Joannes Vermorel: Es ist interessant, denn Deep Learning ist die Verknüpfung von wahrscheinlich einem Dutzend kritischer Einsichten, allerdings verlief alles sehr allmählich. Wenn man all diese Aspekte zusammenführt, machte es einen ziemlich großen Unterschied. Ein wesentlicher Vorteil von Deep Learning ist die Fähigkeit, komplexere Funktionen mit weniger Daten zu erlernen. Das Problem bei Machine-Learning-Algorithmen der zweiten Generation, wie Shallow Learning, besteht darin, dass sie jedes statistische Muster erlernen können, sofern genügend Daten vorhanden sind – in der Praxis erfordert das jedoch eine gewaltige Datenmenge, was völlig unpraktikabel ist. Deep Learning war in gewisser Weise in der Lage, sehr große Datensätze besser zu nutzen.
Zunächst übertrifft Deep Learning klassische Algorithmen bei kleinen Datensätzen nicht unbedingt, aber wenn die Datensätze sehr groß werden, nutzen diese Shallow-Learning-Algorithmen nicht wirklich all die zusätzlichen Informationen, die tatsächlich vorhanden sind, während Deep Learning dies kann. Was macht Deep Learning also anders? Wir kehren zu parametrischen Modellen zurück, die bereits in den 1950er oder 1960er Jahren verwendet wurden. Diese haben eine feste Anzahl an Parametern, und dann wechselten wir zu nichtparametrischen Modellen, bei denen die Anzahl der Parameter dynamisch ist. Mit Deep Learning kehren wir dann zu parametrischen Modellen zurück – der große Unterschied besteht darin, dass diese Modelle mehrere Millionen Parameter besitzen. Unsere Modelle können bis zu 20 Millionen Parameter haben.
Um massives Overfitting zu vermeiden, wurden im Zuge der Deep-Learning-Bewegung eine Reihe sehr raffinierter Tricks entdeckt. Ein weiterer zentraler Baustein war, statistische Modelle zu entwickeln, die eine maximale Affinität zur vorhandenen Rechenhardware hatten – wie Grafikprozessoren (GPUs), die in der linearen Algebra sehr effizient sind. Einer der rechnerischen Kniffe von Deep Learning besteht darin, alles auf lineare Algebra zurückzuführen. Durch den Wechsel von CPU- zu GPU-Berechnungen gewannen wir zwei Größenordnungen an zusätzlicher Rechenleistung, wodurch viele Dinge, die zuvor unmöglich waren, plötzlich machbar wurden.
Kieran Chandler: Du sprichst davon, dass sich die Hardware und die Verarbeitungskapazitäten weiterentwickeln. Welche anderen technischen Verbesserungen in der Branche haben dies ermöglicht? Und wie passt der Aufstieg der Cloud in dieses Bild?
Joannes Vermorel: Die Cloud hat wirklich dabei geholfen, alle Daten zusammenzutragen. Wenn Deep Learning wirklich interessant sein soll, braucht man eine Menge Daten. Das Bewegen von Terabytes an Daten ist mit der Cloud tatsächlich viel einfacher.
Kieran Chandler: Es scheint, als hätten Cloud-Computing-Plattformen alles für alle vereinfacht. Zum Beispiel musst du dich nicht mehr um Festplattenkontingente oder die manuelle Verwaltung deines Speichers über mehrere physische Laufwerke kümmern. Stimmt das?
Joannes Vermorel: Absolut. Cloud-Computing-Plattformen haben viele der manuellen Prozesse im Zusammenhang mit der Speicherverwaltung eliminiert. Außerdem haben sie die Konsolidierung aller notwendigen Schichten für Deep Learning erleichtert.
Kieran Chandler: Wie steht es um die Kosten von Deep Learning und GPUs? Sie sind ziemlich teuer und verbrauchen viel Strom, oder?
Joannes Vermorel: In der Tat, Grafikkarten können leicht zwischen 400 und 500 Watt verbrauchen. Wenn du mehrere davon hast, kann das zu einem elektrischen Problem werden. Allerdings hat Cloud Computing dies erleichtert, indem es GPU-Farmen auf Abruf anbietet. Im spezifischen Fall von supply chain ist das sehr praktisch, denn in der Regel musst du deine statistische Prognose nur einmal am Tag durchführen. Du kannst deine GPUs für eine Stunde reservieren, alle Berechnungen durchführen und sie dann an deine bevorzugte Cloud-Computing-Plattform zurückgeben – sei es Microsoft Azure, Amazon Web Services oder Google Cloud.
Kieran Chandler: Maschinelles Lernen hat sich in den letzten Jahrzehnten schrittweise entwickelt. Können wir daraus Hinweise darauf ableiten, wie die Zukunft des maschinellen Lernens aussehen könnte? Was können wir als Nächstes erwarten?
Joannes Vermorel: Interessanterweise verläuft alles in Zyklen. Wir begannen mit parametrischen Modellen und Zeitreihenprognosen, wechselten dann zu nichtparametrischen Modellen mit den ersten generischen Machine-Learning-Algorithmen. Anschließend gingen wir zu hyperparametrischen Modellen mit Deep Learning über. Jetzt treten wieder nichtparametrische Modelle im Deep-Learning-Spektrum hervor. Das sind ausgeklügeltere Deep-Learning-Methoden, die die Struktur des Modells während der Lernphase anpassen. Wenn ich auf das Schlagwort von morgen wetten müsste, wäre es “differentiable programming”. Dieser Ansatz ist Deep Learning ähnlich, allerdings viel dynamischer in der Art, wie das Modell aufgebaut wird und sich während der Lernphase entwickelt.
Kieran Chandler: Also ist differentiable programming das neue Schlagwort. Die supply chain Branche hinkt oft den Big Four in Bezug darauf, worauf sie sich konzentrieren, etwas hinterher. In was investieren sie derzeit in der Forschung und welche großen Entwicklungen können wir in den nächsten ein oder zwei Jahren erwarten?
Joannes Vermorel: Was das maschinelle Lernen betrifft, so sind die großen Probleme, in die die Technologieriesen Milliarden investieren, die Spracherkennung, Sprachsynthese, Bilderkennung und die Übersetzung natürlicher Sprache. Dies sind Kernprobleme des informationsgetriebenen Lernens und liegen in Sachen Forschung und Entwicklung voraus. Supply chains, einschließlich derjenigen, die Machine-Learning-Software entwickeln, liegen etwas zurück. Niemand in der supply chain verfügt über die Ressourcen, jährlich eine Milliarde Dollar in eine bessere Nachfrageprognose zu investieren.
Kieran Chandler: Es wurde erheblich in Prognosen investiert, aber es scheint, als sei das nur ein kleiner Teil dessen, was notwendig wäre. Es wirkt, als liege es einige Jahre hinter den großen Entwicklungen zurück. Was meinst du dazu?
Joannes Vermorel: Du hast Recht. Die große Entwicklung zurzeit besteht darin, die in anderen Bereichen angewandten Techniken – wie Bild- und Sprachverarbeitung – an supply chain Situationen anzupassen. Das erfordert eine erhebliche Neuentwicklung. Beispielsweise beinhalten diese großen Probleme typischerweise riesige Datenmengen. Ein Bild, zum Beispiel, kann mehrere Megabyte groß sein. Daher bedarf es keiner ausgeklügelten Pipeline, um deine Daten von der CPU zur GPU zu übertragen. Dein Bild ist ein großes Objekt mit vielen Informationen, das in der GPU relativ lange verbleibt, bevor die Berechnung abgeschlossen ist.
Auf der anderen Seite haben supply chains unterschiedliche Anforderungen. Die Objekte, die du optimieren möchtest, wie Lagerhaltungseinheiten, sind datenmäßig kleiner, aber zahlreich. Deine gesamte Bewegungsvergangenheit für einen SKU passt in wenige Kilobyte, aber du hast zig Millionen davon. Daher stellt die Anpassung dieser für große maschinelle Lernprobleme entwickelten Techniken an supply chains eine Reihe von Herausforderungen dar. Es erfordert, dass wir sowohl die CPU als auch die GPU optimal nutzen, da noch viele Berechnungen an der CPU besser erledigt werden können.
Kieran Chandler: Es klingt, als ob sich die Branche ständig weiterentwickelt und verändert. Implementierungen veralten schnell. Wie kann ein supply chain Manager da überhaupt noch mithalten, und hast du dafür irgendwelche Tipps?
Joannes Vermorel: Das Tempo des Wandels ist in der Tat eine Herausforderung. Aber das war schon immer ein Problem in der Welt der Computer. Mein Vorschlag ist, auf Software-as-a-Service (SaaS)-Lösungen wie Lokad zu setzen. Zum Beispiel befinden wir uns in der fünften Generation unserer Prognose-Engine, aber unsere Kunden müssen nichts Technisches tun, um ein Upgrade zu erhalten. Wir aktualisieren sie von einer Version zur nächsten in ihrem Auftrag als Bestandteil des Pakets.
Mit dem Aufkommen von SaaS-Software wird dieses Problem wesentlich einfacher zu handhaben. Du musst keine Ressourcen nur aufbringen, um mitzuhalten – dein Anbieter übernimmt das für dich. Bei On-Premises-Software war das anders, denn das Upgrade von einer Version zur nächsten war typischerweise ein großes Projekt.
Übrigens haben Cloud-Computing-Plattformen genau dieses Problem für uns gelöst. So wird ein supply chain Manager, der eine SaaS-App wie Lokad nutzt, welche fortschrittliche prädiktive Analysen liefert, um deine supply chain zu optimieren, mit dem Wandlungsprozess Schritt halten. Lokad wiederum hält mit dem Wandel Schritt, weil die von uns genutzte Cloud-Computing-Plattform eine Platform as a Service (PaaS) ist und ständig vieles für uns aktualisiert.
Kieran Chandler: Es klingt, als würden im Grunde alle mit den technologischen Fortschritten Schritt halten – das ist sehr aufschlussreich. Vielen Dank, dass du deine Gedanken mit uns geteilt hast, Joannes. Wir setzen diese Diskussion beim nächsten Mal fort. Danke, dass ihr alle zugeschaut habt.