00:00:00 Einführung in Rechenressourcen in supply chain
00:02:21 Bedeutung von Rechenressourcen in supply chain
00:07:04 Mechanische Sympathie im Kontext von supply chain
00:09:38 Entscheidungsfindung mit Computerhardware
00:12:42 Illusion von Expertise ohne Tiefe
00:13:59 Moderne supply chain-Abhängigkeit von Computing
00:18:32 Auswirkungen der Hardwaregeschwindigkeit auf Entscheidungen
00:21:40 Softwareineffizienzen erhöhen Kosten
00:24:42 Eigenschaften und Beschränkungen transaktionaler Datenbanken
00:27:59 Steigende Cloud-Kosten durch Ineffizienz
00:30:09 Einfachere und günstigere Software-Rezepte
00:32:40 Extrem viel Verschwendung von Rechenressourcen
00:36:14 Fortschritte in der Hardware vs. Rückstand in der Software
00:40:48 Bedeutung von Kenntnissen in der Anbieterauswahl
00:45:15 Theoretisches vs. praktisches Wissen
00:50:00 Größenordnungen in der Computer-Effizienz
00:54:33 Leistungsüberlegungen bei der Lagerauffüllung
00:56:18 Iterativer Prozess für Ergebnisqualität
00:58:50 Störungen erfordern ein Reengineering
01:00:18 Nächste Schritte für Praktiker
01:02:17 Kosten durch Ineffizienzen bei Anbietern
01:05:04 Finanzielle Auswirkungen von Entscheidungen
01:07:16 Mangelndes Verständnis der Wettbewerber
01:08:40 Schlussbemerkungen
Zusammenfassung
In einer aktuellen LokadTV-Episode führte Conor Doherty, Head of Communication bei Lokad, ein Gespräch mit Joannes Vermorel, CEO von Lokad, über die entscheidende Rolle von Rechenressourcen in supply chain Optimierung. Vermorel betonte die Notwendigkeit, sowohl Hardware als auch Software zu verstehen, um fundierte supply chain Entscheidungen zu treffen. Er verglich dieses grundlegende Wissen mit einer elementaren geographischen Orientierung, die unerlässlich ist, um Probleme zu vermeiden und effektive Entscheidungen zu ermöglichen. Vermorel hob hervor, dass Computer, obwohl sie Werkzeuge zur Mechanisierung von Entscheidungen sind, ein Verständnis ihrer Fähigkeiten und Grenzen entscheidend ist. Dieses Verständnis erstreckt sich auch auf Programmierparadigmen, wodurch Praktiker Ressourcen optimieren und bessere Ergebnisse erzielen können.
Erweiterte Zusammenfassung
In einer aktuellen Folge von LokadTV führte Conor Doherty, Head of Communication bei Lokad, eine zum Nachdenken anregende Diskussion mit Joannes Vermorel, CEO und Gründer von Lokad, einem französischen Softwareunternehmen, das auf predictive supply chain Optimierung spezialisiert ist. Das Gespräch tauchte in die komplexe Welt der Rechenressourcen innerhalb der supply chain ein, ein Thema, das weit über den bloßen Einsatz von Computern hinausgeht. Es erfordert ein feingliedriges Verständnis dafür, wie diese Maschinen optimal arbeiten, ein Konzept, das Vermorel als “mechanical sympathy” bezeichnet.
Doherty eröffnete die Diskussion, indem er den weiten Umfang von Rechenressourcen hervorhob, der sowohl Hardware als auch Software umfasst. Er bat Vermorel um eine praxisbezogene Definition, woraufhin Vermorel erklärte, dass Rechenressourcen alle Klassen von Hardware einschließen, aus denen ein moderner Computer besteht. Diese Klassifizierung, wenn auch etwas willkürlich, hat sich in den letzten 70 Jahren entwickelt und zu klar abgegrenzten Kategorien wie CPUs und Speicher geführt, die jeweils spezifische Zwecke im rechnerischen Ökosystem erfüllen.
Vermorel betonte die Bedeutung dieser Ressourcen im Kontext des supply chain Managements. Er argumentierte, dass wenn man die Annahme akzeptiert, dass supply chain Entscheidungen am besten mit Hilfe von Computern getroffen werden, das Verständnis der Hardware, die diese Berechnungen ermöglicht, von entscheidender Bedeutung ist. Dieses Verständnis bezieht sich nicht nur auf das Wissen über die physischen Komponenten, sondern auch auf das Erfassen der übergeordneten Gerätetypen und deren rechnerischer Leistungsfähigkeit.
Doherty versuchte daraufhin, diese Informationen für supply chain Praktiker zu destillieren, indem er fragte, wie sie dieses Wissen in ihren täglichen Betrieb integrieren sollten. Vermorel stellte klar, dass Computer nicht von Natur aus gut in der Entscheidungsfindung sind; sie sind einfach die besten verfügbaren Werkzeuge zur Mechanisierung von Entscheidungsprozessen. Diese Mechanisierung, die den Fortschritt seit Jahrhunderten vorantreibt, erstreckt sich jetzt durch den Einsatz von Computern auch auf Büroarbeiten.
Vermorel zog einen Vergleich zwischen dem grundlegenden Wissen über Rechenressourcen und einer elementaren geographischen Orientierung. So wie es als unerlässlich gilt, Länder auf einer Karte zu lokalisieren, ist das Verständnis der Grundlagen von computing hardware für supply chain Praktiker fundamental. Dieses Wissen hilft, eine Vielzahl potenzieller Probleme zu vermeiden und stellt sicher, dass Entscheidungen mit einem klaren Verständnis der zugrunde liegenden rechnerischen Infrastruktur getroffen werden.
Doherty ging weiter in die Tiefe dieses grundlegenden Wissens und fragte, ob es darum gehe, einfache Dinge wie die Lage eines USB-Anschlusses zu kennen oder komplexere Konzepte wie die Funktionsweise eines SSD-Laufwerks zu verstehen. Vermorel antwortete, dass es vielmehr darum geht, die Abstraktionen und stabilen Problembereiche zu verstehen, die in der Informatik seit Jahrzehnten bestehen. Dazu gehören Speicher, Speicherung, Bandbreite, arithmetische Berechnungen sowie Ein- und Ausgabeverfahren.
Das Gespräch verlagerte sich dann darauf, wie dieses grundlegende Wissen zu besseren Entscheidungen führt. Vermorel erklärte, dass ohne ein grundlegendes Verständnis der Hardware Entscheidungsprozesse wie Zauberei erscheinen können, was es schwierig macht, einzuschätzen, ob eine Methode für die verfügbare Hardware geeignet ist. Er zog den Vergleich zur Autowahl heran, um diesen Punkt zu verdeutlichen. So wie die Auswahl eines Autos das Wissen um dessen Verwendungszweck erfordert, bedarf die Auswahl von Computing-Ressourcen Kenntnisse über deren Fähigkeiten und Einschränkungen.
Vermorel ging auch auf die Bedeutung von Programmierparadigmen ein und darauf, wie sie in den Entscheidungsprozess eingebettet werden. Er bemerkte, dass, auch wenn spezifische Anwendungsfälle nicht immer offensichtlich sein mögen, ein grundlegendes Verständnis von Konzepten wie statischer Analyse, Array-Programmierung und Versionskontrolle entscheidend ist. Dieses Wissen hilft Praktikern, ein planloses Herumtappen zu vermeiden, und stellt sicher, dass sie fundierte Entscheidungen über die von ihnen genutzten rechnerischen Werkzeuge treffen können.
Abschließend betonte Vermorel, dass moderne supply chain Praktiken stark von Computing-Hardware abhängig sind. Selbst Unternehmen, die sich als low-tech betrachten, verlassen sich in hohem Maße auf Computer, sei es für komplexe Algorithmen oder einfache Werkzeuge wie Excel. Daher ist ein grundlegendes Verständnis von Rechenressourcen nicht nur vorteilhaft, sondern unerlässlich für ein effektives supply chain Management. Dieses Wissen ermöglicht es Praktikern, fundierte Entscheidungen zu treffen, ihre rechnerischen Ressourcen zu optimieren und letztlich bessere Ergebnisse für ihre Organisationen zu erzielen.
Vollständiges Transkript
Conor Doherty: Willkommen zurück bei LokadTV. Heute werden Joannes und ich über Rechenressourcen in supply chain sprechen. Wie Sie hören werden, geht es hierbei weit über das bloße Wissen, wie man einen Computer bedient, hinaus. Vielmehr erfordert es ein fundiertes Verständnis dafür, wie dieser am besten arbeitet. Dies nennt man mechanical sympathy, und wie wir besprechen werden, kann gute mechanical sympathy in eine bessere Nutzung von Rechenressourcen und letztlich in bessere Entscheidungen münden. Und wie immer, wenn Ihnen gefällt, was Sie hören, abonnieren Sie unseren YouTube-Kanal und folgen Sie uns auf LinkedIn. Damit präsentiere ich Ihnen das heutige Gespräch.
Also, Joannes, Rechenressourcen in supply chain – das ist ein sehr umfangreiches Konzept. Es umfasst sowohl Hardware als auch Software. Für die heutige Diskussion, und in Anbetracht, dass das Publikum supply chain Praktiker sind, was wäre eine gute praxisbezogene Definition von Rechenressourcen?
Joannes Vermorel: Rechenressourcen ist ein allgemeiner Begriff, der alle Hardware-Klassen umfasst, aus denen ein moderner Computer besteht. Heutzutage ist die Unterscheidung zwischen diesen Klassen etwas willkürlich, aber nur ein wenig. Es gibt in der Natur nichts, das vorschreibt, dass es eine Gerätekategorie geben muss, die wir als CPUs (Central Processing Units) bezeichnen, und eine andere Kategorie von Geräten, die wir als Speicher und Ähnliches bezeichnen. Es ist eine Koevolution von Computerdesign und der Rolle des Marktes, die dazu geführt hat, dass bestimmte Nischen von Unternehmen besetzt wurden, die sich als sehr wettbewerbsfähige Geräte für spezifische Zwecke erwiesen haben. So kam es zu dieser Entwicklung. Nun, 70 Jahre nach der Einführung von Computern haben wir sehr klare Kategorien von Computing-Geräten, die nicht alles von Anfang bis Ende erledigen. Sie sind wie Komponenten in der Berechnung.
Warum ist es wichtig, das zu haben? Wenn ich von Rechenressourcen spreche, meine ich im weitesten Sinne die Hardware, aber auch implizit die Gerätekategorien und das, was sie zur Durchführung von Berechnungen ermöglichen. Warum ist das für supply chain wichtig? Denn wenn wir supply chain als eine Übung in der Entscheidungsfindung betrachten und mit dem Glauben voranschreiten, dass diese Berechnungen besser von Computern durchgeführt werden, dann ist dies buchstäblich die physische Schicht, die diese Berechnungen trägt. Dieser Glaube ist schließlich nur ein bescheidener Akt. Computer haben sich heutzutage als ziemlich fähig erwiesen. Dennoch beginnt alles mit dieser Vorstellung, dass all diese Entscheidungen, jene Millionen von Entscheidungen, die eine große supply chain treffen muss, letztlich auf die eine oder andere Weise von einem Computer ausgeführt werden.
Wenn wir also darüber nachdenken, sollten wir der Hardware-Schicht etwas mehr Aufmerksamkeit schenken. Die Situation hat sich in den letzten vier Jahrzehnten erheblich verkompliziert. Computer machen weiterhin Fortschritte, aber auf eine wesentlich komplexere und weniger intuitive Weise im Vergleich zu dem, was bis Ende der 90er Jahre geschah.
Conor Doherty: Okay, um das noch einmal zusammenzufassen: Computer sind gut in der Entscheidungsfindung. Aber wie passt ein supply chain Praktiker, der dies hört, in die heutige Diskussion? Was ist die Kernaussage oder das grundlegende Verständnis für sie?
Joannes Vermorel: Zunächst einmal würde ich sagen, dass Computer nicht besonders gut in der Entscheidungsfindung sind. Sie sind lediglich die Werkzeuge, die uns zur Verfügung stehen, und derzeit haben wir keine praktikable Alternative, um Entscheidungsprozesse zu mechanisieren. Das ist gewissermaßen ein Vertrauensvorschuss. Warum wollen wir mechanisieren? Weil die Mechanisierung den Fortschritt in den letzten zwei, vielleicht sogar drei Jahrhunderten vorangetrieben hat. Im 20. Jahrhundert waren es die Mechanisierungen von Handwerksarbeiten mit Produktivitätssteigerungen, die absolut beeindruckend waren, zum Beispiel um den Faktor 100. Nun, im 21. Jahrhundert erleben wir exakt dasselbe, aber für Büroarbeiten, und das verdanken wir den Computern. Wir könnten an ein Paralleluniversum denken, in dem es mit anderen Dingen geschehen würde, aber derzeit ist Computer die beste Option, die wir haben.
Warum ist das wichtig? Ich würde sagen, dass wir Rechenressourcen und Computing-Hardware als Teil des grundlegenden Wissens betrachten müssen. Wann hat es Ihnen zuletzt geholfen, zu wissen, wo sich Kanada auf der Weltkarte befindet? Wann hat es Ihnen zuletzt genützt zu wissen, dass Russland keine Grenze zu Brasilien hat? Solche Dinge erscheinen im Alltag nicht als besonders praktisch, wie zum Beispiel grundlegende Kenntnisse der Weltgeographie. Dennoch, wenn Sie die Mehrheit der Anwesenden fragen würden, würden diese sagen, dass es wichtig ist. Was würden Sie von jemandem halten, der weder China, noch Kanada oder Russland auf einer Weltkarte einordnen kann? Das käme sehr merkwürdig, und Sie würden dieser Person wahrscheinlich nicht viele Aufgaben in Ihrer Organisation anvertrauen.
Man kann es also bis zu einem gewissen Grad als bloßes Trivia betrachten, aber es ist auch grundlegendes Wissen. Wenn man nichts darüber weiß, wird das Probleme verursachen. Welche Art von Problemen? Das hängt stark von den spezifischen Gegebenheiten, dem Unternehmen und der Branche ab. Aber man kann eine ganze Reihe von Problemen erwarten. Ich bin der Überzeugung, dass Wissen über Computing-Hardware und Rechenressourcen genau in diese Kategorie des grundlegenden Wissens fällt, dessen supply chain Praktiker sich bewusst sein sollten. Sie sollten eine gewisse mechanical sympathy besitzen, ein Begriff, der aus der Formel 1 stammt, in Bezug auf diese Dinge.
Conor Doherty: Nun, ich mag den Vergleich, den Sie verwenden, und ich werde versuchen, diesen Punkt weiter zu erörtern. Wenn Sie sagen, grundlegendes Wissen bedeutet, zu wissen, dass Brasilien und Russland keine gemeinsame Grenze haben, dann ist das eine Granularität geografischen Wissens. Eine andere Ebene ist es zu wissen, wie viele Hauptstädte Südafrikas es gibt. Das sind qualitativ unterschiedliche Ebenen der geographischen Wahrnehmung. Übertragen auf Hardware oder Rechenressourcen: Wenn Sie von grundlegenden Kenntnissen sprechen, meinen Sie damit das Wissen, wo sich der USB-Anschluss für meine Maus befindet, oder das Verständnis, wie ein SSD-Laufwerk funktioniert? Wie hoch ist in diesem Zusammenhang der Wissensumfang?
Joannes Vermorel: Ich spreche eher von den Abstraktionen. Es gibt unendliches Trivia über Computing-Hardware. Es geht nicht darum, jedes einzelne Gerät und seine Preispunkte zu kennen. Wenn Sie ein Geek sind, können Sie es genießen, darüber zu lesen – ich tue das auch. Aber im Wesentlichen geht es mehr um diese sehr großen, sehr etablierten Ressourcenklassen. Das ist ein wenig von der Architektur abhängig, aber diese Architekturen sind seit mindestens fünf Jahrzehnten sehr stabil, sodass man erwarten kann, dass dies so bleibt.
Worüber sprechen wir? Wir sprechen über Dinge wie Speicher, flüchtigen Speicher, persistente Speicherung, Bandbreite, arithmetische Berechnungen, Ein- und Ausgabe (I/O), Durchsatz, Latenz. All diese Bereiche sind seit vielen Jahrzehnten von Bedeutung und haben stabile Kategorien von Anliegen. Darunter verstehe ich das grundlegende Wissen, um zu erkennen, welche Klassen von Anliegen existieren und welche entsprechende Computing-Hardware dazugehört. Wie fügt sich das alles zusammen, um mit einem modernen Computer etwas zu bewirken?
Wenn wir die Ebenen betrachten, möchten Sie letztendlich, dass Ihre Entscheidungsfindungsprozesse dank dieser Rechenhardware berechnet werden. Wenn Sie überhaupt keine Kenntnisse darüber haben, was auf Hardware-Ebene passiert, ist das völlig magisch. Wie groß sind die Chancen, dass Sie überhaupt begreifen können, ob eine Methode wirklich zu der vorhandenen Hardware passt oder nicht? Ich spreche nicht von einem super detaillierten Verständnis, sondern nur von einem ganz grundlegenden Verständnis dafür, ob es überhaupt funktioniert.
Conor Doherty: Zum Beispiel verwenden Sie den Ausdruck… Entschuldigung, lassen Sie mich einen Schritt zurückgehen. Sie haben einige Programmierparadigmen genannt. Ich glaube, das war in einer Ihrer Vorlesungen. Sie sprachen über Programmierparadigmen, statische Analyse, RA-Programmierung, differentielle Programmierung, Versionskontrolle, Persistenz – all diese Konzepte. Meine Frage ist: Wie fügen sich diese zusammen, um die besseren Entscheidungen zu treffen, von denen Sie sprechen?
Joannes Vermorel: Das ist Grundlagenwissen, also erwarten Sie nicht sehr spezifische Anwendungsfälle von mir, genauso wie bei der grundlegenden Geographie. Wann haben Sie zuletzt unbedingt wissen müssen, wie das ist? Wahrscheinlich nie. Es ist allgegenwärtig. Das Problem ist, dass, wenn Schichten von Grundlagenwissen fehlen, man im Dunkeln tappst. Man merkt nicht einmal, dass man im Dunkeln ist. Man realisiert nicht einmal, wie viel es gibt, das man nicht versteht. Das ist wirklich mein Punkt.
Gehen wir einen Schritt zurück. Sie möchten diese Entscheidungen mit einem Computer generieren. Das bedeutet, dass Sie Anbieter auswählen werden – wahrscheinlich einige. Sie werden Rechenressourcen aus der Cloud kaufen oder mieten. Sie können das Ganze vollständig an Ihre IT delegieren, aber warum sollte die IT hervorragend darin sein, Hardware auszuwählen für etwas, von dem sie überhaupt nichts wissen? Zum Beispiel, wenn ich Ihnen sage: “Liebe IT, bitte wählen Sie mir das beste Auto aus,” ohne weitere Angaben. Okay, fein. Dann sagt die IT: “In Ordnung, dann nehme ich Ihnen einen Formel-1-Wagen.” Und Sie sagen: “Aber tatsächlich möchte ich in Dünen entlang des Strandes fahren.” Dann stellt sich heraus, dass der Formel-1-Wagen ein völlig miserables Fahrzeug ist, weil er überhaupt nicht dafür ausgelegt ist, im Sand zu fahren.
Wenn Sie mir nur sagen, ich solle etwas Gutes wählen, werden sie etwas grundsätzlich Gutes wählen – wie einen Formel-1-Wagen. Ist es ein gutes Auto? Ja, es ist ein gutes Auto für einen spezifischen Zweck. Aber wenn Sie sagen: “Ich möchte ein Auto, in dem ich meine Familie von acht Personen unterbringen kann”, dann ist das eine ganz andere Definition von “gut”. Wir haben die Illusion, dass es in der IT, der Rechenhardware und generell in der Computerwelt um Spezialisten geht. Genauso wie beim Autokauf – ich bin kein Autoexperte –, so werde ich einfach der Autoabteilung sagen, sie soll mir ein gutes Auto aussuchen und sich darum kümmern. Diese Leute haben so viele Optionen dafür, was “gut” überhaupt bedeutet, dass sie etwas zufällig auswählen. Dann können Sie sich auf der Empfängerseite beschweren: “Oh, aber die Kosten für diesen Formel-1-Wagen sind extravagant. Ich kann nicht einmal eine zweite Person in das Auto setzen, und wo ich fahren möchte – im Sand – schafft es nicht einmal 10 Meter, bevor die Räder aufgrund der niedrigen Bodenfreiheit den Grip verlieren.” Wenn es ein Auto wäre, würden die Leute zustimmen, dass das lächerlich wäre.
Aber wenn wir über Computerzeug sprechen, empfinden die meisten Unternehmen es als völlig akzeptabel, desinteressiert zu sein. Obwohl – noch einmal – ich komme zurück auf die Praxis der supply chain. Eine moderne Praxis der supply chain ist extrem abhängig von dieser Rechenhardware. Supply chains wurden schon vor Jahrzehnten digitalisiert, und selbst Unternehmen, die sich als Low-Tech betrachten, verlassen sich enorm auf Computer, selbst wenn es nur für Excel ist.
Wenn Sie täglich auf diese Werkzeuge angewiesen sind, dann in einer sehr ausgeklügelten Weise. Zum Beispiel bin ich auf die Verfügbarkeit von Wasser angewiesen, aber ich muss nichts über die Wasserversorgung wissen. Das ist korrekt, denn Wasser als Produkt ist äußerst einfach. Es ist chemisch simpel, und wenn man von Leitungswasser spricht, erwartet man 99,99 % H2O plus eine winzige Menge an Mineralien und ein wenig Chlor aus hygienischen Gründen – und das war’s.
Also sehen Sie, es ist so, und die Temperatur sollte etwa zwischen 10 und 20 Grad liegen – und das war’s. Es ist also etwas, das äußerst einfach ist. Deshalb haben Sie diese Abstraktionsebene, die sagt: “Ich bekomme Leitungswasser und es ist trinkbar”, ohne dass Sie wissen müssen, was stromaufwärts passiert. Aber das Problem – und hier komme ich zum Punkt der Rechenressourcen – ist, dass Rechenressourcen mehrdimensional sind. Wissen Sie, es ist nicht etwas Einfaches wie Wasser. Es ist viel mehr wie ein Auto. Es gibt so viele verschiedene Arten von Autos, so viele unterschiedliche Definitionen dessen, was ein gutes Auto ist.
Wenn ich sage: “Was ist gutes Wasser?” – es sei denn, Sie führen sehr, sehr spezifische Experimente durch, wie industrielle Prozesse, die ultra-reines Wasser erfordern und dergleichen –, ist in nahezu allen Situationen, denen Sie im Leben begegnen, einfaches Leitungswasser genau das, was Sie brauchen. Da müssen Sie nichts darüber wissen, weil es sich um ein Produkt handelt, das äußerst einfach ist. Aber wenn Sie es mit einem Produkt zu tun haben, das mehrdimensional ist, wie ein Auto, dann müssen Sie ein oder zwei Dinge über das Auto wissen, wenn Sie es kaufen möchten.
Also, wenn wir zu supply chain Praktikern übergehen, stellt sich heraus, dass Sie extrem abhängig von Rechenressourcen sind, um Unmengen von Dingen zu erledigen. Diese Dinge werden in Zukunft noch allgegenwärtiger werden. Was lässt Sie denken, dass Sie völlig unwissend gegenüber der physischen Ebene davon sein können?
Conor Doherty: Nun, da gibt es ein paar Punkte, von denen einer ist, dass supply chains offensichtlich sehr komplex sind. Sie versuchen, viele, viele Dinge zu lösen – und das hängt vom Kontext ab. Zum Beispiel möchten Sie vielleicht, dass das Auto in der Wüste fährt, bergauf fährt, in der Stadt fährt. Das sind alles verschiedene Kontexte, aber es gibt dennoch gemeinsame Eigenschaften in Bezug darauf, was wir zumindest denken, dass Unternehmen mit ihren Rechenressourcen erreichen sollten. Können Sie dazu bitte etwas ausführlicher werden?
Joannes Vermorel: Ja, ich meine, hier ist die Sache: Angenommen, Sie möchten – sagen wir – Ihre Transaktionshistorie als Grundlage analysieren. Das wäre etwas. Okay, das bedeutet, dass diese Daten gespeichert werden müssen. Also, wo werden sie gespeichert? Welche Art von Hardware? Wie sehen die Eigenschaften dieser Hardware aus? Wenn Sie die Daten speichern und darauf zugreifen wollen, hat das Auswirkungen? Die Antwort ist ja, das hat es. Um Ihnen eine ganz einfache Vorstellung zu geben, nehmen wir an, Sie möchten diese Daten auf einer rotierenden Platte speichern.
Es spielt keine Rolle, ob es Ihre eigene rotierende Platte ist oder ob Sie etwas von einer Cloud-Computing-Plattform mieten. Wenn die Daten auf einer drehenden Platte gespeichert werden, bedeutet das, dass im Durchschnitt, wenn Sie auf ein Stück der Daten zugreifen wollen, die Platte durchschnittlich eine halbe Umdrehung drehen muss, damit Sie den entsprechenden Bereich erreichen. Wissen Sie, das liegt einfach daran, dass die Daten überall auf der Platte sein können. Wenn Sie auf ein Datenelement zugreifen möchten, muss die Platte im Durchschnitt eine halbe Umdrehung drehen.
Okay, fein. Was sind die Konsequenzen davon? Nun, die Konsequenz ist: Wie schnell kann die Platte drehen? Normalerweise dreht sich eine Platte mit etwa 7.000 Umdrehungen pro Minute, und wenn es sich um ein sehr hochwertiges Laufwerk handelt, kann es vielleicht bis zu 11.000 oder 12.000 Umdrehungen erreichen – aber das war’s. Also, Umdrehungen pro Minute. Das bedeutet, dass Sie in Bezug auf Latenzen mit etwa 20 Millisekunden oder so rechnen sollten, um auf ein beliebiges Datenelement zuzugreifen.
Also würden Sie sagen: “Nun, 20 Millisekunden erscheinen kurz.” Aber sind sie das? Denn 20 Millisekunden bedeuten, dass Sie pro Sekunde, wenn Sie über Ihre Platte springen wollen, nur 50 verschiedene Datenelemente zugreifen können. Wenn Sie ständig hin und her springen müssen, sind 50 pro Sekunde nicht viel. Wenn Sie Millionen, zig Millionen Datensätze abrufen müssen, stellen Sie schnell fest, dass dieses Problem in verrückte, extreme Verzögerungen ausarten kann. Nun könnten Sie sagen: “Okay, aber meine Platte kann Terabytes an Daten speichern.”
Ja, aber wenn das Abrufen der Daten – weil Sie so stark über die Platte springen müssen – Tage dauert, ist das nicht besonders gut. Vielleicht kann ich also, wissen Sie, viel mehr Platten mit geringerer Kapazität einsetzen und so einen höheren Durchsatz beim Zugriff erreichen. Oder vielleicht kann ich sogar eine ganz andere Speicherklasse verwenden und auf SSDs, Solid State Drives, umsteigen, die für diese zufälligen Zugriffe viel, viel bessere Latenzen bieten.
Aber sehen Sie, das ist genau die Art von Sache, bei der, wenn Sie keinerlei Kenntnisse über Rechenressourcen und die Klassen von Rechenhardware besitzen, die diese Ressourcen bereitstellen, solche Fragen in Ihrem Denken niemals überhaupt auftreten würden. Und kann es Ihnen schaden? Wissen Sie, das ist wieder die Frage: Was Sie nicht wissen – kann es Ihnen schaden? Ich würde sagen, ja, denn Sie werden diese Dinge letztlich entweder direkt oder indirekt kaufen.
Sie werden sie direkt kaufen, wenn Ihre IT-Abteilung einfach Cloud-Computing-Ressourcen erwirbt, aber Sie werden diese Dinge auch indirekt kaufen, wenn Sie einen supply chain software Anbieter auswählen. Denn sehen Sie, wenn Sie einen Anbieter wählen, entscheiden Sie sich für eine bestimmte Art, diese Rechenressourcen zu nutzen, um das gewünschte Ergebnis zu erzielen. Und hier ist meine Botschaft: Wenn Sie denken, dass der durchschnittliche Softwareanbieter irgendeine Kompetenz in diesem Bereich hat, täuschen Sie sich gewaltig.
Die überwältigende Mehrheit – offensichtlich ist dies eine meinungsbetonte Darstellung – aber ich würde sagen, die allermeisten meiner Konkurrenten, der Lokad-Konkurrenten, zeigen, wenn man das Management und deren Interesse betrachtet, im Allgemeinen überhaupt kein Interesse, null mechanical sympathy für Rechenhardware. Und als Konsequenz sollte es nicht allzu überraschend sein, dass ihre Software infolgedessen entsetzlich ineffizient ist. Und warum ist das so? Nun, es kommt darauf zurück: Wenn Sie Ihrer Hardware keinerlei Beachtung schenken, warum sollten Sie dann erwarten, dass die Software, die Sie darauf aufbauen, die Hardware gut ausnutzt?
Wissen Sie, das wäre wieder so, als würde man einen Formel-1-Wagen auswählen, unabhängig von der Straße, auf der man fahren möchte, und sich dann wundern, warum er am Strand ein derart mickriges Fahrzeug ist. Überraschung, Überraschung – so ist es, wenn man der Rechenhardware keine Beachtung schenkt.
Also, wenn man in einer perfekten Welt leben würde, könnte man darauf vertrauen, dass Berater, Softwareanbieter und ähnliche Experten alle richtigen Entscheidungen für einen treffen. Aber es hat sich gezeigt, dass, weil die überwältigende Mehrheit der supply chain Praktiker völlig unwissend ist, sich auch Softwareanbieter leisten können, völlig unwissend zu sein. Warum sollten sie es nicht sein, wenn die Kunden zum Zeitpunkt des Kaufs der Software oder Lösung den Unterschied nicht feststellen können? Es spielt keine Rolle – jedenfalls nicht, bis sie die Konsequenzen dieser Unwissenheit zu spüren bekommen.
Conor Doherty: Nun, okay, zunächst einmal – eine Meinung zu haben, ist nichts verwerflich, das machen wir hier eben. Aber wenn Sie sagen, dass Unternehmen letztlich Software von einem Anbieter kaufen – ich glaube, Sie sagten, sie verbrauchen Ressourcen, um zu bekommen, was sie wollen, oder um das zu bekommen, was Sie wollen – seien wir praktisch: Wir sprechen über Entscheidungsfindung. Sie haben also ein Stück Theorie präsentiert, aber können Sie es für die Neugierigen etwas konkreter formulieren? Wie wirkt sich eine bessere Nutzung der Rechenressourcen, so wie Sie sie beschreiben, auf Entscheidungen aus, auf in der realen Welt getroffene Wahlmöglichkeiten?
Joannes Vermorel: Wenn Sie Entscheidungen treffen, gibt es viele, viele Wege, numerische Rezepte zu erstellen, die letztlich diese Entscheidung herbeiführen. Das Problem ist: Wenn die Art und Weise, wie Sie Ihre Rechenressourcen nutzen, fantastisch ineffizient ist – und lassen Sie mich ein Beispiel geben – wenn Sie anfangen, sagen wir, eine relationale, transaktionale Datenbank zu verwenden, eine SQL-Datenbank, was dasselbe ist und nichts mit Geld zu tun hat, dann zahlen Sie einen Overhead-Faktor von wahrscheinlich 100, also mindestens zwei Größenordnungen – wenn nicht sogar 300, drei Größenordnungen.
Und warum ist das so? Es liegt daran, dass diese Softwareschicht, die Transaktionsschicht, Ihnen einige sehr interessante Eigenschaften bietet, die jedoch nichts mit analytischen Berechnungen zu tun haben. Sie bietet im Wesentlichen die vier Eigenschaften, die als ACID bekannt sind: Atomicity, Consistency, Isolation, Durability. Diese Eigenschaften sind sehr nützlich für transaktionale Prozesse. Sie garantieren zum Beispiel, dass, wenn Sie erklären wollen, dass ein Lieferant bezahlt wurde, niemals eine Situation eintritt, in der das Geld gesendet wurde – der Auftrag an die Bank erteilt wurde – aber die Rechnung des Lieferanten nicht beglichen wurde, nur weil das Computersystem beispielsweise mitten im Vorgang abgestürzt ist.
Theoretisch könnten Sie in eine Situation geraten, in der Sie bereits den Auftrag zur Überweisung erteilt haben, aber nicht vermerkt haben, dass die Rechnung eines Lieferanten beglichen wurde. Beim nächsten Systemstart würden Sie eine zweite Zahlung veranlassen und den Lieferanten so effektiv doppelt bezahlen. Genau diese Art von Problem kann mit einer Transaktionsschicht auftreten. Sie ist sehr, sehr wichtig für transaktionale Prozesse, bei denen im Wesentlichen ein Konto erhöht und ein anderes, im buchhalterischen Sinn, verringert wird. Sie möchten, dass diese Dinge logisch gleichzeitig passieren, damit es nicht zu Inkonsistenzen kommt.
Nun, aber wenn Sie dieses Software-Paradigma verwenden, um Ihre analytischen Ressourcen aufzubauen, dann sind Sie extrem ineffizient. Und übrigens – Überraschung, Überraschung – genau das machen 99 % meiner Konkurrenten. Was bedeutet das in Bezug auf die Entscheidungsfindung? Wenn die Art und Weise, wie Sie Rechenressourcen nutzen, mit einem Overhead von dem Faktor 100 beginnt, dann sind Sie auf sehr, sehr einfache numerische Rezepte beschränkt. Denn sobald auch nur ein Hauch von Komplexität ins Spiel kommt, sind Sie in Bezug auf Rechenressourcen völlig außer Budget. Das bedeutet, dass die Kosten extrem extravagant sehr schnell steigen.
Sehen Sie, dies ist kein Werbeelement. Wenn Sie Ihr Budget für Rechenressourcen nicht unter Kontrolle halten, können Sie am Ende mit verrückten Ausgabenpegeln konfrontiert werden. Um einen Preisansatz zu geben: Viele meiner Kollegen – nicht Konkurrenten, sondern Kollegen, die als Software-as-a-Service-Unternehmen mit schweren analytischen Arbeitslasten arbeiten – wenn ich mir den S1 anschaue (das S1 ist ein Dokument, das Sie veröffentlichen müssen, wenn Sie in den USA an die Börse gehen wollen), sehen Sie, dass es im Grunde ein Bericht an die Investoren, an die zukünftigen Investoren ist. Hier können Sie die Aufschlüsselung der Ausgaben der letzten drei, vier Jahre einsehen.
Die meisten Softwareunternehmen, die analytisch waren, wie Lokad, nicht eigentlich supply chain, können alles Mögliche sein, wissen Sie, wie etwa Betrugserkennung, Systemprotokollverarbeitung oder Ähnliches. Sie gaben typischerweise die Hälfte ihrer Ausgaben für Cloud-Computing-Ressourcen aus. Daher sind die Ausgaben sehr, sehr erheblich. Trotz der Tatsache, dass sie extrem teure Ingenieure und einen extrem teuren Vertrieb in der Gehaltsliste haben, schaffen sie es trotzdem, die Hälfte ihrer Ausgaben an Cloud-Computing-Anbieter zu leiten. So wird deutlich, dass die Vorstellung, die Kosten für Computing-Ressourcen seien vernachlässigbar, absoluter Unsinn ist für die meisten Softwareanbieter, die der analytischen Klasse wie Lokad angehören.
Systeme, die keineswegs Systeme der Intelligenz sind, sondern entweder Berichtssysteme oder Systeme der Bedürftigkeit, können sehr, sehr kostenintensiv sein. Wenn ich sage, dass man, wenn man ineffizient ist, 100 Mal mehr ausgibt, sieht man, dass wenn man bereits die Hälfte der Einnahmen für Computing-Ressourcen aufwendet, 100 Mal mehr einfach nicht in Frage kommt. Es ist nicht einmal im Entferntesten möglich. Das bedeutet also, dass man, um im Budget zu bleiben, was tun muss? Nun, man erhöht einfach den Preis. Das ist, was sie tun, aber auch hier gibt es Grenzen. Man kann den Preis verdoppeln, vielleicht vervierfachen, aber man kann ihn nicht um das Hundertfache multiplizieren.
Was die meisten Softwareanbieter tun, ist also, auf einfachere und billigere Rezepte zu setzen, selbst wenn diese extrem simpel sind und ihren Kunden damit einen Nachteil verschaffen. Die Realität ist, dass sie es sich als Anbieter nicht leisten können, etwas weniger Dysfunktionales anzubieten, weil es viel zu kostspielig wäre. Und warum können sie sich das nicht leisten? Weil sie ihre Computing-Ressourcen absolut wahnsinnig verschwenden.
Conor Doherty: Nun, mir fällt wieder ein, dass wenn man spricht und erklärt, wie man der Meinung ist, dass Computing-Ressourcen zugewiesen werden sollten, dies im Streben nach grundsätzlich besseren Entscheidungen geschieht. In Ihrem Kopf ist das das Problem, das gelöst werden muss. Aber das ist nicht zwangsläufig dasselbe Paradigma, das alle Unternehmen – oder besser gesagt, nicht alle Unternehmen – anwenden. Zum Beispiel könnte man ein Unternehmen sein, das etwas wie die Verfolgung des service level oder der forecast accuracy priorisiert, und das ist das Ziel, das in den Wolken schwebt, auf das Sie hinauswollen. Wie würde sich in dieser Situation die Allokation von Computing-Ressourcen unterscheiden? Und fühlen Sie sich frei, dazu Stellung zu nehmen.
Joannes Vermorel: Also, okay, Sie setzen sich ein Ziel. Hier stelle ich diesen Aspekt nicht in Frage. Wenn ich von besseren Entscheidungen spreche, meine ich Entscheidungen, die nach welcher Metrik auch immer – je nachdem, welches Ziel Sie sich gesetzt haben – besser sind. Das spielt also keine Rolle. Wenn Sie ein besseres service level wollen, gut. Das ist Ihr Ziel. Nun haben Sie sich ein Ziel gesetzt, und nun steht Ihnen Rechenleistung zur Verfügung, Computing-Ressourcen, die Sie nutzen können, um Entscheidungen zu treffen, die gemäß der von Ihnen gesetzten Ziele besser sind. Gut.
Nun klären wir, was das allgegenwärtige Paradigma für nahezu alle meine Wettbewerber ist. Das allgegenwärtige Paradigma besagt, dass Sie Ingenieure haben, die an etwas arbeiten, und sobald dieses Etwas mit der besten Hardware, die man mit Geld kaufen kann, kompatibel ist, hören sie auf zu arbeiten und beginnen, es an die Kunden zu verkaufen. Wie sieht das aus? Es bedeutet, okay, ich möchte eine Bestands-replenishment für ein Einzelhandelsnetzwerk durchführen. Also habe ich, sagen wir, 20 Millionen SKUs. Gut. Zunächst probiere ich verschiedene Ansätze aus, es funktioniert nicht, also greife ich auf, sagen wir, die safety stock Analyse zurück, die hinsichtlich der Computing-Ressourcen überaus trivial ist.
Und dann, weil mein System mit extrem teurer Computing-Hardware derart ineffizient ist, kann ich es zum Laufen bringen. Dann höre ich auf und verkaufe es an den Kunden. Wie sah also das Denken in diesem Paradigma aus? Denn es war tatsächlich in der Softwareindustrie – so denke ich – das dominante Paradigma bis in die späten 90er des 20. Jahrhunderts. Dieses Paradigma beruhte im Wesentlichen darauf, dass sich die Computing-Hardware exponentiell weiterentwickelt. Die Idee war also, dass man die beste Hardware bekommt, die man mit Geld kaufen kann, und sobald sie funktioniert – dass man etwas hat, das innerhalb dieser Einschränkungen irgendwie funktioniert –, spielt es keine Rolle, wenn die Kosten absurd sind oder wenn man die Computing-Ressourcen nicht wirklich optimal nutzt.
Warum? Weil Sie eine exponentielle Entwicklung der Computing-Hardware in allen Metriken haben. Das war es, worauf sich die Leute als Moores Law bezogen, aber tatsächlich gab es so viele andere Gesetze für alles. Alle Computing-Ressourcen entwickelten sich weiter, alle Metriken verbesserten sich, und das war genau eine der Ideen, die Microsoft in den 90ern extrem erfolgreich machte. Die Idee ist, dass, wenn es funktioniert, es egal ist, wie schrecklich die Leistung ist, denn in fünf Jahren wird die Computing-Hardware so weit fortgeschritten sein, dass diese Ressourcen trivial erscheinen.
Dies funktionierte bis zum Ende der 90er, denn seit dem Jahr 2000 in diesem Bereich gibt es ganze Klassen von Metriken, die sich nicht verbessert haben. Zum Beispiel hat sich die Latenz zwischen CPU und Speicher in den letzten zwei Jahrzehnten nahezu nicht verändert. Da wir nun durch die Lichtgeschwindigkeit begrenzt sind, wird sich das in absehbarer Zukunft nicht ändern.
Ein weiteres Element ist erneut die Lichtgeschwindigkeit. Pakete, die über das Internet über große Entfernungen reisen, bewegen sich nun mit etwa zwei Dritteln der Lichtgeschwindigkeit, sodass kaum Spielraum besteht, die Geschwindigkeit der Pakete im Internet zu verbessern – denn wir sind bereits sehr, sehr nahe an der Lichtgeschwindigkeit. Wir können über mehr Bandbreite verfügen und somit viel mehr Pakete verschicken, aber was die reine Geschwindigkeit der Pakete angeht, sind wir jetzt sehr nah an den physikalischen Grenzen – zumindest den uns bekannten.
Das ist also genau die Art von Denkweise, bei der dieses Paradigma, das in der Softwareindustrie Ende der 90er Jahre sehr verbreitet war – nämlich “Mach einfach etwas, das funktioniert, verkauf es und mach dir dann keine Sorgen um die Leistung, denn das ist wie ein Narrenspiel” – galt. Die Hardwareindustrie wird alles so weit verbessern, dass all diese Leistungsbedenken innerhalb weniger Jahre irrelevant werden. Das war die Denkweise.
Interessanterweise erzielen wir weiterhin sehr gute Fortschritte in der Computing-Hardware, aber diese Fortschritte sind äußerst subtil geworden. Es gibt immer noch exponentielle Entwicklungen, allerdings in sehr spezifischen Bereichen – nicht alle Metriken, nur einige. Interessanterweise hat die gesamte B2C-Softwareindustrie sehr viel Augenmerk darauf gelegt. Zum Beispiel widmet die Videospielbranche solchen Details enorme Aufmerksamkeit. Aber im Bereich der Unternehmenssoftware leben 99 % von ihnen noch in den späten 90ern, wo sie keinerlei Beachtung schenken und so operieren, als ob in fünf Jahren der Fortschritt der Computing-Hardware die Kosten ihres Systems trivial machen würde. Das ist nicht der Fall.
Tatsächlich führt die ständig wachsende Datenmenge, die von Unternehmen verwaltet wird, dazu, dass Jahr für Jahr die Kosten, die aufgewendet werden müssen, um die Systeme am Laufen zu halten, bei den meisten Softwareanbietern schneller steigen, als die Preise für Computing-Hardware sinken. So gibt man Jahr für Jahr noch mehr aus, um nahezu funktional dasselbe Qualitätsniveau der Entscheidungsprozesse oder deren Unterstützung aufrechtzuerhalten – falls diese nicht vollständig automatisiert sind.
Conor Doherty: Nun, der Fortschritt bei der Hardware bzw. im Computing ist, glaube ich, subtil geworden – so war der Begriff, den Sie verwendet haben. Es ist subtil, es gibt keine exponentiellen Sprünge mehr.
Joannes Vermorel: Es verläuft in spezifischen Richtungen, nicht in allen Dimensionen. In den 90er Jahren war es interessant, dass sich alles in jeder Hinsicht verbesserte. Es gab keine einzige Metrik, die nicht besser wurde. Heutzutage gibt es viele Metriken, die sich buchstäblich seit einem Jahrzehnt nicht verändern.
Wenn man sich beispielsweise die Menge an Wärme anschaut, die ein Computer abführen kann – Ihr Computer muss die Wärme loswerden – kann man Kupferkabel, Lüfter und verschiedene andere Maßnahmen einsetzen, um die Wärme aus dem Inneren des Computers abzuleiten, damit es nicht zu Überhitzung kommt. Aber wir haben bereits das Maximum erreicht, was mit Luft machbar ist. Es gibt Grenzen, die schon vor zwei Jahrzehnten erreicht wurden. Sie können Wasser verwenden, um die Leistung ein wenig zu steigern. Und wenn Sie etwas besonders Ausgefallenes wollen, können Sie zu flüssigem Stickstoff greifen. Das ist zwar ziemlich unpraktisch, aber für vergleichende Benchmarks usw. möglich.
Also, wir haben unsere Grenzen erreicht. Wir verfügen über keine magischen Materialien, die es uns erlauben würden, doppelt so viel Wärme abzuleiten. Ich meine, man könnte vielleicht Diamant verwenden. Diamant ist ein fantastischer Wärmeleiter, aber die Vorstellung, Kilogramm Diamanten zur Wärmeableitung einzusetzen, ist noch weit hergeholt. Selbst das würde uns im Vergleich zu Kupfer, das bereits ein ausgezeichneter Leiter ist, nur einen bescheidenen Leistungsschub verschaffen.
Conor Doherty: Nun, das verdeutlicht meinen Punkt tatsächlich noch ein wenig mehr. Also, um den Gedanken abzuschließen, wenn…
Okay, ich nehme tatsächlich das Beispiel, das Sie gerade genannt haben. Sie sprachen also über den Unterschied zwischen Kupferdraht und Diamanten als Wärmeleiter. Um ein bisschen mehr Leistung aus den wärmeabführenden Eigenschaften eines Computers herauszuholen, bedarf es eines sehr nuancierten und spezialisierten Verständnisses der Computertechnik. Um nun zum Hauptthema zurückzukommen: Wie übersetzt sich die Erhöhung Ihres allgegenwärtigen grundlegenden Wissens in eine bessere supply chain performance, wenn die Margen so schmal sind, wie Sie sie beschreiben?
Joannes Vermorel: Nein, ich denke, dass es bei grundlegenden Kenntnissen genau darum geht, dass sich das Gesamtbild klärt. Kauft Ihre IT überhaupt in die richtige Richtung? Haben Sie auch nur eine Ahnung davon? Können Sie die Angelegenheit überhaupt mit Ihrer IT besprechen? Wenn nicht, warum sollten Sie überhaupt erwarten, dass das, was sie kaufen, auch nur annähernd Sinn macht?
Gehen Sie wieder von der Formel 1 zum Strand. Es ergibt keinen Sinn, aber genau das passiert, wenn Menschen keinerlei Wissen darüber haben, worum es wirklich geht. Wenn Sie einen Anbieter auswählen wollen, können Sie dann überhaupt eine intelligente Diskussion darüber führen, wie sie die Computing-Ressourcen einsetzen, um Ihnen entweder bessere Entscheidungen oder eine bessere Unterstützung Ihrer Entscheidungen zu ermöglichen? Nutzen sie diese Ressourcen in einer Weise, die angesichts der vorhandenen Computing-Hardware angemessen ist? Ergibt die Architektur Sinn oder überhaupt nicht?
Nochmal: Wenn Sie an ein Auto denken, gibt es so viele Dinge, die Sie intuitiv wissen. Zum Beispiel die Aerodynamik. Wenn Sie ein Auto sehen würden, das massiv gegen die Gesetze der Aerodynamik verstößt, würden Sie denken: “Okay, dieses Ding wird einen derart immensen Luftwiderstand haben, dass der Verbrauch schrecklich sein wird.” Es gibt keine Alternative. Sehen Sie, es ist genau diese Art von Sache, dass, allein aufgrund des grundlegenden Wissens, etwas instinktiv erkannt wird. Man muss nicht unbedingt darauf hingewiesen werden, dass ein sehr niedrig gebautes Auto eine gute Aerodynamik haben wird und höchstwahrscheinlich schneller fahren kann.
Genau darum geht es. Man muss gar nicht erst über die zugrunde liegenden Fluiddynamiken nachdenken. Es ist intuitiv. Wenn es darum geht, bessere Entscheidungen zu treffen, können Sie intuitiv Dinge entdecken, die extrem dysfunktional sind? Mein Punkt ist, dass, weil 99,9 % der Kunden oder supply chain practitioners völlig blind gegenüber dieser Fragestellung sind – wenn es ein paar Nerds gibt, dann sind Sie eine winzige, winzige Minderheit –, die Reaktion des gesamten Ökosystems, der Softwareanbieter, Lösungsanbieter, Berater, einfach darin besteht, dass sie nicht darauf achten müssen. Ihre Kunden achten nicht darauf. Warum sollten sie?
Wenn Sie in einem Land leben würden, in dem Benzin kostenlos ist, warum sollten Automobilhersteller dann auf den Verbrauch ihrer Autos achten? Für sie bedeutet kostenloses Benzin, dass es für die Kunden im Wesentlichen ein unbedeutendes Anliegen ist. Wenn die Kunden nicht darauf achten, dann achten auch die Autoanbieter nicht darauf. Übertragen auf Softwareanbieter: Wenn die Kunden ahnungslos sind und nicht darauf achten, warum sollten dann Unternehmensanbieter darauf achten? Die Antwort lautet: Nun, sie tun es nicht. Effektiv achten sie schlichtweg nicht darauf.
Deshalb sind die Leute heutzutage immer überrascht, wenn sie sich Unternehmenssoftware anschauen. Man klickt, möchte nur einen Bericht sehen, will etwas Minimalistisches tun, und es dauert Sekunden. In puncto Reaktionsschnelligkeit ist Unternehmenssoftware im Durchschnitt sehr schlecht. Sie ist sehr langsam. Verglichen mit der Websuche – wenn Sie beispielsweise bei Google suchen – schafft Google es, in etwa 50, vielleicht 100 Millisekunden das Web zu durchkämmen und Ihnen eine Zusammenfassung der Ergebnisse zu liefern, die zu Ihrer Suche passen. Das ist extrem schnell und reaktionsfreudig.
Im Gegensatz dazu will man nur etwas ganz Grundlegendes tun, wie “Ich möchte den Zustand dieser SKU überprüfen”, und es dauert Sekunden. Das Interessante daran ist, dass es auf der Computing-Hardware, die wir 2024 haben, Sekunden dauert. Vor 20 Jahren brauchte es bereits eine Sekunde, obwohl die Hardware damals 100 Mal weniger leistungsfähig war. Was ist passiert? Nun, es ist so, dass die zusätzliche Computing-Hardware, die extra Möglichkeiten dieser Hardware, durch ineffiziente Software schlichtweg verschwendet wurde.
Conor Doherty: Danke. Als Sie über grundlegendes Wissen sprachen, fiel mir während des Zuhörens auf, dass das, was Sie beschreiben, in gewisser Weise aufgeteilt werden kann, und ich möchte Ihre Gedanken dazu hören. Um eine Analogie von vorhin zu nehmen: Sie sagten, wenn man ein Auto nimmt und in die Wüste fährt, ist das das beste Fahrzeug für die Wüste? Mir fällt ein, dass es im Hinblick auf grundlegendes Wissen sowohl ein theoretisches als auch ein praktisches gibt. So kann man ein theoretisches Grundverständnis davon haben, wie ein Verbrennungsmotor funktioniert – so geht das Auto. Das ist ein theoretisches Verständnis. Es gibt aber auch ein praktisches grundlegendes Wissen, nämlich: Wenn der Reifen platt ist, habe ich die Fähigkeiten und das Grundwissen, um ihn zu wechseln? Wenn der Motor nicht anspringt, kann ich eine grundlegende Reparatur vornehmen? Und wenn Sie in der Wüste fahren, wo Sie allein sind, benötigen Sie im Grunde sowohl ein theoretisches als auch mindestens ein grundlegendes praktisches Grundwissen.
Um zum eigentlichen Thema zurückzukommen, haben Sie das theoretische Grundlagenwissen, das Menschen besitzen sollten, ziemlich ausführlich beschrieben. Was das praktische Grundlagenwissen betrifft: Gibt es Fähigkeiten, die Ihrer Meinung nach jeder in diesem Bereich haben sollte?
Joannes Vermorel: Ja, nochmals: Beim Praktischen geht es darum, ein Gefühl für die Preisniveaus zu entwickeln, über die wir sprechen. Wissen Sie, was kostet ein Terabyte Speicher? Was kostet ungefähr ein Terabyte Arbeitsspeicher? Was kostet eine CPU, die Ihnen 2 GHz Rechenleistung bietet? Es reicht schon, wenn man in der Lage ist, eine Zahl zu schätzen, die nicht um eine Größenordnung danebenliegt. Wissen Sie, das Problem bei Computerdingen ist, dass, wenn Menschen raten müssen, ihre Schätzungen meist um mehrere Größenordnungen abweichen.
Wiederum: Wenn ich Ihnen sage, was das Gewicht eines Autos ist und Ihnen das Auto zeige, wird Ihre Schätzung vielleicht um 50 % danebenliegen. Sie sagen: „Okay, eineinhalb Tonnen“, und es stellt sich heraus, dass es ein Elektroauto ist, das mehr als zwei Tonnen wiegt. Aber das war – wissen Sie – immer noch in derselben Größenordnung. Man sieht ein Auto nicht und schätzt, es wiege 20 Kilogramm oder 500 Tonnen. Wenn Sie jedoch Menschen fragen, was ein Terabyte dauerhaften Speichers kostet, das günstigste, das man finden kann, nennen einige Leute Preise, die von, ich weiß nicht, 10.000 bis 2 und so weiter reichen, und niemand hat da wirklich einen Anhaltspunkt.
Und dasselbe gilt, wenn ich Sie frage, was ein Chip kostet, der in der Größenordnung von 100 Milliarden Rechenoperationen pro Sekunde leisten kann – welches Chipset das leisten könnte, und was es kosten würde? Die Leute sagen: „Ich weiß nicht, 100.000 Euro oder vielleicht 50 Dollar.“ Das zeigt wieder, dass praktisches Wissen darin besteht, ein Gefühl für die Preisniveaus zu haben. Es muss nicht exakt sein, aber wenn Sie schon die Größenordnung kennen, befinden Sie sich im richtigen Bereich, um sinnvolle Entscheidungen zu treffen.
Das Seltsame an Rechenressourcen ist, dass man buchstäblich 15 Größenordnungen zur Verfügung hat. Das ist wirklich, ich denke, ziemlich einzigartig. Mir ist kein anderes Gebiet bekannt, in dem die Größenordnungen so unglaublich verteilt sind. 15 Größenordnungen bedeuten, dass wir einerseits über Einheiten sprechen – wissen Sie, eine Addition, eine Multiplikation, das wäre eine Recheneinheit. Und andererseits sprechen wir im Grunde von Milliarden mal Milliarden. Das ist wirklich ein enormes Spektrum an Größenordnungen.
Und das ist schwer für den Geist zu erfassen. Und deshalb, übrigens, als ich sagte, dass Fehler gemacht werden können, indem Rechenressourcen verschwendet werden, liegt das – wo der Autovergleich irreführend ist – darin, dass selbst das schlechteste Auto nur etwa zehnmal so viel im Verbrauch schlechter ist als das beste. Nehmen wir an, wenn ich 100 Kilometer fahren möchte, verbraucht ein super, super effizientes Auto vielleicht fünf Liter Benzin für 100 Kilometer.
Wenn ich mich jedoch für einen super schweren, ineffizienten SUV entscheide, werden es, sagen wir, 50 Liter sein – ein Faktor 10. Bei Computern verhält es sich nicht so. Es wäre, als würde das effizienteste System 5 Zentiliter für 100 Kilometer verbrauchen, während das ineffizienteste 5 Kubikmeter benötigt – die Größenordnungen sind also einfach enorm. Und deshalb muss man, nochmals: Im praktischen Sinne ein Gefühl für die Preisniveaus entwickeln. Ebenso sollte man ein Gespür dafür haben, was sich ändert und was stillsteht.
Conor Doherty: Was meinen Sie mit „was sich ändert und was stillsteht“?
Joannes Vermorel: Zum Beispiel haben sich GPUs in Bezug auf Netzwerktrends rasant weiterentwickelt. GPUs haben in den letzten 5 Jahren ein unglaubliches Fortschreiten erlebt, und es wird erwartet, dass sie in den nächsten fünf Jahren genauso rasant voranschreiten. Das ist also eine Klasse von Rechenressourcen, die sich schnell verbessert. Sie steigern die Anzahl der Operationen pro Sekunde, und auch der Speicher wird erweitert – das ist also wirklich sehr gut. CPUs befinden sich auf einem ähnlichen Weg. Sie verbessern sich vielleicht nicht ganz so schnell, aber sie entwickeln sich dennoch sehr zügig hinsichtlich der Anzahl der Kerne und der Größe des L3-Speichers, der sich in der CPU befindet.
Sie entwickeln sich immer noch schnell. Entsprechend, wenn wir DRAM betrachten – DRAM wird als Hauptspeicher des Computers verwendet, also flüchtiger Speicher. Wenn Sie Ihren Computer ausschalten, geht dieser verloren. In den letzten zehn Jahren hat sich daran kaum etwas geändert. Es gibt sehr wenige Hersteller – es gibt etwa vier Fabriken weltweit. Das ist also ein Markt, in dem man nicht mit großen Preisverfällen rechnen sollte. Kurzfristig sollte man nicht allzu viele Veränderungen erwarten. Ich meine, im praktischen Sinne geht es darum, ein Gefühl für die Größenordnungen zu haben, ein wenig über die Preisniveaus Bescheid zu wissen, ein Gefühl dafür zu entwickeln, was zu erwarten ist, und auch die Intuition zu schärfen, ob beispielsweise Hardware in Profiqualität wirklich einen signifikanten Unterschied zur Hardware für den Endverbraucher macht.
Je nachdem, worauf Sie schauen, ist manchmal das Beste, was man bekommen kann, schlicht Konsumgüter-Hardware, und das Beste, was ein Unternehmen kaufen kann, ist nur marginal überlegen. In manchen anderen Bereichen ist das jedoch nicht der Fall. Dort ist das, was ein Unternehmen kaufen kann, oft um viele Größenordnungen besser als das, was üblicherweise als für den Verbrauchermarkt geeignet gilt. Genau aus diesem Grund hilft Ihnen dieses Wissen, den Markt zu navigieren, den richtigen Anbieter auszuwählen oder vielmehr die inkompetenten herauszufiltern – sowohl bei Beratern als auch bei Anbietern und auch bei internen Projekten. Das ist wichtig.
Conor Doherty: Nun, Sie haben das Thema Kosten mehrfach angesprochen, aber hauptsächlich in Bezug auf die direkten Kosten der physischen Beschaffung von Hardware. Was die direkten und indirekten Kosten betrifft, wenn man nicht versiert mit seinen Rechenressourcen umgeht: Von welchen Größenordnungen sprechen wir hier? Nehmen Sie dazu ein großes Retail-Unternehmen an, Entschuldigung, ein großes Retail-Unternehmen, ein großes Filialnetz, Omnichannel – malen Sie sich aus, was Sie wollen – aber was wäre eine vernünftige Größenordnung, bezogen darauf, was man zu verlieren hat, wenn man nicht versiert mit seinen Rechenressourcen umgeht?
Joannes Vermorel: Nun, ich würde sagen, konservativ geschätzt scheitern über 90% der supply chain Optimierungsinitiativen. Und ein ziemlich großer Prozentsatz dieser 90 % – praktisch alle Softwareinitiativen scheitern – versagen größtenteils, wenn auch nicht ausschließlich, aufgrund miserabler Performance. Wenn wir jedoch über Performance nachdenken, müssen wir das aus verschiedenen Perspektiven betrachten. Die Leute denken vielleicht: „Okay, ich muss meine Lagerauffüllung jeden Tag durchführen, also muss die Berechnung für alles in weniger als 24 Stunden erfolgen.“
Okay, das versteht sich von selbst. Wissen Sie, wenn Sie die Berechnung jeden Tag durchführen wollen und sie nicht innerhalb von 24 Stunden fertigstellen können, sitzen Sie in der Klemme. Das ist also die zeitliche Obergrenze, die Ihnen zur Verfügung steht. Nun könnte man meinen, wenn man doppelt so viele Rechenressourcen kauft, könnte man den Vorgang doppelt so schnell durchführen. Aber nicht automatisch, denn es hängt ganz von der von Ihnen gewählten Softwarearchitektur ab. Es gibt viele Architekturen und Designmuster, die nicht dafür geeignet sind, einfach per “Scale-out” zu skalieren. Es gibt also viele Ansätze, bei denen Sie, wenn Sie mehr Hardware einsetzen, einfach keinen Geschwindigkeitsgewinn erzielen.
Conor Doherty: Im Wesentlichen abnehmende Erträge.
Joannes Vermorel: Ja, und manchmal gibt es gar keinen Zugewinn. Man kann buchstäblich mehr Ressourcen einsetzen und trotzdem exakt keine Beschleunigung feststellen. Es hängt wirklich davon ab, wie Sie Ihre Software so konzipiert haben, dass sie die zusätzlichen Rechenressourcen nutzen kann. Kommen wir nun weiter: Angenommen, Sie haben etwas, das Ihre Lagerauffüllung in, sagen wir, vier Stunden berechnen kann, und Sie denken: „Super, für Ihr retail network dauert es nur vier Stunden.“ Also haben Sie 24 Stunden am Tag zur Verfügung und planen, die Berechnungen nachts durchzuführen. Ist das zufriedenstellend?
Meine Antwort lautet: Nein, absolut nicht. Warum? Weil Sie sich hier nur das Ergebnis einmal in der Produktion anschauen. Sie berücksichtigen nicht, dass Ihr numerisches Rezept noch abgestimmt werden muss und Sie zahlreiche Iterationen durchführen müssen, bis Sie ein wirklich zufriedenstellendes Endergebnis erzielen. Dieser experimentelle Prozess wird wesentlich kostenintensiver sein.
Das hat mehrere Gründe. Erstens starten Sie bei Ihren Experimenten nicht gleich kosteneffizient. Sie werden erst dann kosteneffizient, wenn Sie etwas gefunden haben, das Ihnen in Bezug auf die Entscheidungsqualität zufriedenstellende Ergebnisse liefert. Es ist also ganz normal, dass Sie beim Prototyping neuer Rezepte wesentlich weniger effizient sind. Die Effizienz wird erst später kommen, wenn Sie anfangen, den Verbrauch der Rechenressourcen wirklich zu optimieren.
Das ist einerseits ein Punkt. Aber andererseits müssen Sie auch dafür zahlen, dass Leute einfach darauf warten, bis die Berechnung abgeschlossen ist, um die Ergebnisse zu prüfen, zu bewerten und die nächste Iteration durchzuführen. Und hier liegt das große Problem: Wenn ich an die scheiternde software supply chain Initiative zurückdenke, kann sich dieser Prozess dramatisch verlangsamen. Wir sprachen von etwa vier Stunden – nehmen wir an, dass die Experimente aufgrund der weniger optimalen experimentellen Bedingungen doppelt so lange dauern.
Das bedeutet also acht Stunden. Das heißt, Sie können nur ein Experiment pro Tag durchführen. Wenn Sie 500 Iterationen benötigen, wird das Ganze zwei Jahre dauern. Es wird so langsam sein, dass weitere Probleme entstehen – etwa, dass die Personen, die die Experimente durchführen, irgendwann zu anderen Jobs wechseln. Die Ingenieure, mit denen Sie arbeiten, bleiben nicht 40 Jahre bei Ihnen. Irgendwann werden also Personen, die auf dem Projekt angefangen haben, kündigen, und Sie müssen neue Leute einarbeiten, die sich nicht automatisch an alle bisherigen Experimente erinnern.
So sehen Sie, dieses Problem schafft so viele Herausforderungen. Selbst wenn Sie zu einem zufriedenstellenden numerischen Rezept konvergieren, sind Sie nur eine Störung entfernt – sei es ein Lockdown oder Ähnliches –, und dann müssen Sie das Rezept wieder neu entwickeln. Wenn Ihr iterativer Prozess unglaublich schleppend ist, werden Sie systematisch daran scheitern, mit all den Störungen Schritt zu halten. Bis Sie schließlich die Lösung für eine Störung entwickelt haben, sind Sie bereits zu etwas anderem übergegangen. Deshalb brauchen Sie etwas, das extrem leistungsfähig ist, damit Ihre Iterationen sehr schnell ablaufen.
Und das bringt noch einen weiteren Aspekt mit sich: Beim Übergang von einer Iteration zur nächsten können Sie „schummeln“. Denn vielleicht wiederholen Sie von einem Experiment zum nächsten den Großteil der gleichen Berechnungen. Müssen Sie also all diese Ressourcen erneut einsetzen, wenn Sie in Wirklichkeit fast exakt dasselbe numerische Rezept mit nur geringfügigen Abweichungen durchführen? Vielleicht können Sie mit einem intelligenten Ansatz das meiste recyceln, was Sie bereits berechnet haben, sodass Sie wesentlich schneller iterieren können, ohne jedes Mal alles neu berechnen zu müssen.
Aber das funktioniert wiederum nur, wenn Sie nachvollziehen können, wohin Ihre Rechenressourcen fließen, was Sie verschwenden, was Sie zweimal oder zehnmal hintereinander machen – etwas, das Sie eigentlich nur einmal tun sollten.
Conor Doherty: Okay, nun, Joannes, die heute zuhören – und ich bin sicher, sie alle sagen: „Ich stimme diesem Mann zu. Ich vertraue ihm. Er ist vertrauenswürdig.“ – Was sind die nächsten unmittelbaren Schritte für den typischen supply chain Praktiker und C-Level-Führungskräfte, die Ihnen zuhören und denken: „Okay, ich möchte in diesen Dingen versierter werden“?
Joannes Vermorel: Ich würde sagen, beginnen Sie damit, einführende Materialien darüber zu lesen, wie Computer funktionieren. Es gibt zahlreiche Bücher, die Ihnen erklären, wie Computer arbeiten, und die Ihnen helfen, ein Grundverständnis dafür zu entwickeln, was beispielsweise von Cloud-Computing-Anbietern verkauft wird. Wissen Sie, Sie können das nachschlagen – alle Preise sind öffentlich. Sie können also zu Microsoft Azure gehen und sehen: „Okay, was sind die Preisniveaus für Speicher, für CPUs, für virtuelle Maschinen, für Bandbreite usw.?“ Das dauert vielleicht ein paar Stunden. Ich würde sagen, es gibt auch grundlegende Bücher – es gibt sogar Bücher, die sich an Ober- oder Mittelschüler richten, und das ist völlig in Ordnung. Es geht darum, sich dieses Wissen anzueignen.
Und dann, wann immer das Thema einer technologischen Weiterentwicklung aufkommt, fragen Sie den Anbieter, fragen Sie den Berater: „Okay, wie stehen Sie zu Rechenressourcen? Wir wollen die bestmöglichen Entscheidungen treffen, basierend auf welchen Kennzahlen und Zielen auch immer Sie sich setzen.“ Gehen Sie in die Diskussion darüber, wie diese rohen Rechenressourcen, die Sie erwerben, in die bestmöglichen Entscheidungen umgesetzt werden. Wenn die Anbieter, von denen Sie viel kaufen wollen, keine Ahnung davon haben, sollten Sie sich von ihnen fernhalten. Wissen Sie, das ist mein Fazit. Nutzen Sie das als Lackmustest, um sogenannte Experten zu identifizieren, die niemals Experten sein sollten, weil sie, würde ich sagen, absolut inkompetent sind.
Denn letztendlich, wenn Sie sich für solche Anbieter entscheiden, zahlen Sie am Ende den Preis ihrer Ineffizienzen. Und dieser Preis ist zweifach: Zum einen zahlen Sie viel mehr für Rechenhardware, bis zu einem Punkt, der extravagant ist. Als Faustregel gilt: Lokad liegt typischerweise – wenn wir ein Abonnement verkaufen – bei den Kosten für Rechenressourcen weit unter denen unserer Wettbewerber, und das ganz ohne die Arbeitskraft bzw. die Ingenieure für Einrichtung und Wartung zu berücksichtigen. Allein bei den Hardwarekosten schneidet Lokad besser ab.
Das ist einerseits ein Punkt. Aber dann bekommen Sie noch etwas Größeres: Ihr Anbieter wird Sie in super simplistische Rezepte drängen und versuchen, Sie davon zu überzeugen, dass dies das Beste ist, was die Wissenschaft zu bieten hat, während es in Wirklichkeit nur ein Spiegelbild seiner Unfähigkeit ist, die Rechenressourcen richtig zu nutzen. Deshalb landen Sie mit übereinfachen Ansätzen wie Sicherheitsbeständen, die immer noch weit verbreitet sind. Tief im Innern wissen die Anbieter, dass das kompletter Mist ist. Aber das Problem ist, dass sie so ineffizient mit ihren Rechenressourcen umgehen, dass es für sie völlig unpraktisch wäre, überhaupt bessere Ansätze in Betracht zu ziehen.
Also, siehst du, zweifache Kosten: direkte Kosten, das heißt extravagant ausgegebene Mittel für Rechenressourcen, die überhaupt keinen Sinn ergeben, und dann hast du die Kosten zweiter Ordnung, nämlich dass du in vereinfachte Rezepte gezwungen wirst, bei denen du letztlich als Praktiker mit deinen Tabellenkalkulationen eingreifen musst, um all den Wahnsinn, der aus diesen Systemen resultiert, manuell zu beheben. Warum? Weil das System übermäßig vereinfachte Rezepte verwendet, die nahezu alle Feinheiten an dich delegieren, da das Rezept simpel ist und keinerlei Raffinesse berücksichtigt.
Conor Doherty: Es gibt tatsächlich – da war eine Analogie oder besser gesagt eine Faustregel, die du zuvor verwendet hast, oder, entschuldige, ich meine deine Frage. Du sagtest, “If you don’t know how or how much does a terabyte of cloud computing cost or something like that, if you don’t even have the order of magnitude, that’s basically a problem.” Und es ist interessant, das so zu sagen, weil die meisten Menschen in ihrem Privatleben, selbst die Zuhörer, wenn sie in ein Café gehen, um einen Kaffee zu bestellen und ihnen gesagt wird, “All right, that’s €45,” würden zögern. Sie wären schockiert und würden sagen: “Okay, das passt nicht. Ich weiß nicht, wie viel du mir persönlich berechnen solltest, aber 45 € sind etwas zu hoch.” Und vermutlich würden sie gehen und woanders hingehen.
Auch wenn es in einer touristischen Gegend ist, würdest du dennoch sagen, “45, nein, das ist falsch.” Aber letztlich hängt nichts davon ab. Ich meine, du wirst dich vermutlich nicht finanziell ruinieren. Du wirst deinen Job deswegen nicht verlieren.
Allerdings könnte derselbe Instinkt, der Überlebensinstinkt oder einfach die generelle Klugheit völlig fehlen, wenn es darum geht: “Okay, I have to make very expensive decisions over what kind of computational resources or software the company is going to use.” Die direkten und indirekten langfristigen Kosten davon, sowie die kurzfristigen indirekten und langfristigen Kosten, entzieht sich jeglicher Vorstellung. So etwas wie, “Oh, it costs 555,000 per second of computing whatever.” Wieder, das könnte tatsächlich stimmen. Ich weiß es nicht, wahrscheinlich nicht. Aber der Punkt ist: Wenn du diese Fragen nicht beantworten kannst, stimme ich zu, dass in deinem beruflichen Wissen eine enorme Lücke existiert, die du füllen solltest.
Joannes Vermorel: Ja, wieder einmal, es ist vielleicht ein wenig anspruchsvoll für supply chain Praktiker, aber was steht auf dem Spiel? Große Budgetlinien. Ich meine, große Unternehmen geben freiwillig Millionen und manchmal zig Millionen Euro oder Dollar pro Jahr für diese Systeme aus. Und ich bin immer völlig verblüfft, wenn man so viel ausgeben kann und – vendor eingeschlossen – niemand eine Ahnung von diesen grundlegenden Problemen hat.
Das wäre wieder so, als würde man ein Gebäude kaufen, weil das etwas sehr Teures ist. Also ist es, als würde man ein Gebäude kaufen und einen Architekten haben, der keinerlei Ahnung hat, was Beton eigentlich ist. Man würde sagen, “You know what, I’m not sure. Maybe the building is made out of cardboard or concrete or maybe wood or maybe marshmallows. You know, I don’t care, just put paint on it and it all looks the same.”
Weißt du, ich denke, Computerkram und Software – du weißt schon, die Softwarebranche ist in dieser Hinsicht sehr speziell. Es fließt Unmengen Geld und es gibt diese implizite Vereinbarung, dass es völlig in Ordnung ist, wenn jeder darüber völlig unwissend ist. Und das ist für mich als Branche sehr faszinierend.
Und ich habe mit den meisten meiner Konkurrenten gesprochen – und wenn ich von meinen Konkurrenten spreche, meine ich Managementteams – ich bin immer verblüfft, wenn niemand eine Ahnung von dieser Art von mechanischem Einfühlungsvermögen hat, bei der man ein grundlegendes Verständnis davon hat, was alles dazugehört.
Das könnte auch so sein, stell dir vor, ein Formel-1-Fahrer würde sagen, “You know what, I have four wheels. What is happening between the pedal and the wheels? You know, it’s magic, magic. You know, there’s stuff. It does make a loud noise. I know it’s loud, but other than that, there is just stuff.” Weißt du, meine Vorstellung vom Auto ist, dass da einfach irgendwas passiert. Auf diesem Detaillierungsgrad würden die Leute denken, das sei verrückt. Du solltest viel mehr wissen, wenn du vorhast, das Auto sinnvoll zu nutzen.
Und meiner Meinung nach verwenden supply chain Praktiker jeden Tag Unmengen digitaler Werkzeuge, so wie ein Formel-1-Fahrer einen Formel-1-Auto benutzt. Daher müssen sie ein wenig verstehen, um dieses mechanische Einfühlungsvermögen dafür zu entwickeln, was vor sich geht und wie dieser Kram funktioniert, damit sie fundierte Entscheidungen treffen können. Zumindest, damit ihnen nicht etwas verkauft wird, das völlig unsinnig ist und letztlich aus völlig vermeidbaren Gründen scheitert.
Conor Doherty: Ich hätte es nicht besser ausdrücken können. Vielen Dank, und vielen Dank für Ihre Zeit. Ich habe keine weiteren Fragen, und vielen Dank fürs Zuschauen. Wir sehen uns beim nächsten Mal.