00:00:08 Data Lakes und ihre Bedeutung.
00:00:39 Definition von Data Lakes und ihre Bedeutung im Geschäftsbereich.
00:02:13 Entwicklung von Data Lakes aus Data Warehouses.
00:04:15 Veränderung der Denkweise und Philosophie rund um Data Lakes.
00:07:43 Sicherstellung der Datenqualität in Data Lakes.
00:10:06 Wie sich die Technologie seit 20 Jahren auf das Data Warehousing verbessert hat.
00:12:14 Die Vorteile von On-Demand-Systemen in Data Lakes.
00:13:31 Einschränkungen der Business Intelligence und ihrer veralteten Herangehensweise.
00:15:22 Vergleich von Business Intelligence mit Data Lakes und deren Fähigkeit zur Entscheidungsfindung.
00:16:49 Implementierungskomplexität: Zugriff auf Datenquellen und Auswirkungen auf multinationale Unternehmen.
00:18:32 Einführung von Data Lakes: Vorteile für technologiegetriebene Unternehmen und ihre Verwendung zur funktionsübergreifenden Optimierung.
00:20:08 Die Zukunft der Data Lakes: Erhöhte Zugänglichkeit und Implementierung, nächste Schritte mit APIs.
00:22:45 Schlussbemerkungen und Fazit.

Zusammenfassung

In diesem Interview diskutieren Kieran Chandler und Joannes Vermorel, Gründer von Lokad, Data Lakes und ihre Rolle bei der Optimierung der Supply Chain. Data Lakes sind zentrale Repositories für Rohdaten, die maschinenlerngesteuerten Anwendungen intelligente Entscheidungen ermöglichen. Vermorel hebt die Einschränkungen herkömmlicher Business Intelligence Tools hervor und betont, dass Data Lakes effizientere und automatisierte Datenanalyse bieten. Er glaubt, dass technologiegetriebene Unternehmen bereits Data Lakes übernommen haben und sich auf die Implementierung von Application Programming Interfaces (APIs) für ihre Subsysteme zubewegen, um eine End-to-End-Automatisierung zu ermöglichen. Vermorel prognostiziert, dass große Unternehmen in den nächsten fünf Jahren zunehmend Data Lakes und APIs für eine bessere datengetriebene Entscheidungsfindung übernehmen werden.

Erweiterte Zusammenfassung

In diesem Interview diskutiert Kieran Chandler mit Joannes Vermorel, dem Gründer von Lokad, einem Softwareunternehmen, das sich auf die Optimierung der Supply Chain spezialisiert hat, Data Lakes. Sie beginnen mit der Definition von Data Lakes und ihrer Entstehungsgeschichte. Data Lakes sind eine Art Datenbank, die alle Kerntransaktionsdaten eines Unternehmens, wie Verkäufe, Einkäufe und Bestandsniveaus, konsolidieren soll. Diese Datenbanken sind für Anwendungen, nicht für Menschen, gedacht und ermöglichen datengetriebenen, domänenspezifischen Apps intelligente Entscheidungen für Marketing, Supply Chain, Personalwesen und mehr zu treffen.

Data Lakes haben eine Geschichte, die über 20 Jahre zurückreicht, bis zu Data Warehousing und Data Marts. Vermorel erklärt, dass der Hauptunterschied zwischen Data Lakes und Data Warehouses in der Technologie und der dahinterstehenden Philosophie liegt. Data Lakes sind effizienter beim Speichern und Bereitstellen großer Datenmengen, während Cloud Computing sie zugänglicher und erschwinglicher gemacht hat.

Vor zwanzig Jahren musste ein Unternehmen eine teure Appliance, wie zum Beispiel von Oracle, kaufen, um sein Data Warehouse zu hosten. Jetzt können Unternehmen mit Cloud-Computing-Plattformen Data Lakes nutzen, die nach Bedarf skalierbar und aggressiv bepreist sind. Diese Flexibilität ermöglicht es Unternehmen, ihren Ansatz zur Datenspeicherung bei Bedarf leicht anzupassen.

Die Philosophie hinter Data Lakes hat sich im Vergleich zu Data Warehouses ebenfalls weiterentwickelt. Der ältere Ansatz legte viel Druck auf die IT-Abteilungen, um Daten ordnungsgemäß zu organisieren und zu verwalten. Data Warehouses wurden mit Data Marts für verschiedene Abteilungen wie Marketing, Supply Chain und Finanzen konzipiert. Dies führte zu Herausforderungen bei der Verwaltung und dem Zugriff auf Daten in verschiedenen Abteilungen.

Data Lakes zielen darauf ab, Daten auf eine zentralere und zugänglichere Weise zu konsolidieren, um es Anwendungen einfacher zu machen, diese zu verarbeiten und intelligente Entscheidungen zu treffen. Diese Veränderung der Denkweise hat zu einer größeren Effizienz und Flexibilität bei der Datenverwaltung und -nutzung geführt.

Vor zwanzig Jahren war Data Warehousing eine beliebte Methode zur Verwaltung und Organisation von Daten. Dieser Ansatz erforderte einen hohen technischen Aufwand, um verschiedene Datentabellen zu verbinden, und erforderte ein einheitliches Modell der Unternehmensdaten. Dies führte jedoch oft dazu, dass IT-Abteilungen von der schieren Menge an Arbeit überfordert waren und viele Projekte scheiterten.

Heute haben sich Data Lakes als schlankerer und effizienterer Ansatz zur Datenverwaltung etabliert. Data Lakes dienen als Repository für Rohdaten, die aus verschiedenen Systemen wie CRM, ERP und Webplattformen extrahiert wurden. Anstatt zu versuchen, die Daten zu organisieren oder zu kombinieren, werden sie einfach in den Data Lake abgelegt, der große Datenmengen problemlos verarbeiten kann.

Eine der Herausforderungen bei der Verwendung von Data Lakes besteht darin, sicherzustellen, dass die Daten korrekt und aktuell sind. IT-Abteilungen sind dafür verantwortlich, dass der Data Lake eine genaue Abbildung der ursprünglichen Systeme enthält, müssen jedoch nicht die geschäftlichen Auswirkungen der Daten verstehen. Die Verantwortung für das Verständnis der Daten im CRM liegt beispielsweise bei den Abteilungen, die es nutzen, wie Vertrieb oder Marketing. Dieser Ansatz ermöglicht eine problembezogene Interpretation der Daten, da verschiedene Abteilungen unterschiedliche Anforderungen und Perspektiven auf die Daten haben können.

Die Technologielandschaft hat sich seit den Tagen der Data Warehouses erheblich verändert, was Data Lakes zu einer realistischeren Option macht. Zum einen hat sich die Qualität der Tools zur Datenübertragung über das Internet verbessert, was es einfacher macht, Daten aus verteilten Systemen wie Supply Chains zu konsolidieren. Darüber hinaus hat sich die Internetinfrastruktur verbessert, sodass auch kleinere Unternehmen große Datenmengen ohne Schwierigkeiten übertragen können.

Darüber hinaus haben Cloud-Computing-Plattformen Data Lakes zugänglicher und kostengünstiger gemacht. Diese Plattformen ermöglichen schnelle Iterationen und die Nutzung auf Abruf, sodass Unternehmen ohne erhebliches finanzielles Risiko mit Data Lakes experimentieren können.

Während Business Intelligence-Tools Unternehmen dabei geholfen haben, Erkenntnisse aus ihren Daten zu gewinnen, sind sie grundsätzlich für den menschlichen Verbrauch bestimmt. Das bedeutet, dass Unternehmen Mitarbeiter bezahlen müssen, um die Daten zu analysieren, anstatt den Prozess zu automatisieren. Data Lakes ermöglichen im Gegensatz dazu eine effizientere und automatisierte Datenanalyse, was sie zu einer attraktiven Option für multinationale Unternehmen macht, die ihre Datenverwaltung verbessern möchten.

Vermorel erklärt die Grenzen herkömmlicher Business Intelligence (BI)-Tools, die Vorteile von Data Lakes und die Zukunft des Datenmanagements in der Optimierung der Supply Chain.

Vermorel beschreibt BI als veraltete Technologie, die nur grundlegende Datenanalyse in einer etwas Echtzeit bietet. Diese Technologie war vor 30 Jahren revolutionär und ermöglichte es Unternehmen, auf ihre Daten zuzugreifen und sie zu aggregieren, bietet jedoch keine handlungsrelevanten Erkenntnisse oder Entscheidungen. Im Gegensatz dazu sind Data Lakes Teil eines größeren Bildes und dienen als Speicherrepository für Rohdaten aus verschiedenen Quellen. Apps, die auf maschinellem Lernen basieren, können diese Daten dann effizient verarbeiten, um handlungsrelevante Entscheidungen zu generieren, die das Unternehmen beeinflussen und einen greifbaren Mehrwert schaffen.

Die Implementierung eines Data Lakes hängt von der Komplexität des Zugriffs auf die Datenquellen eines Unternehmens ab. Für große multinationale Unternehmen kann dies ein schwieriger Prozess sein, da jedes Land möglicherweise sein eigenes System hat. Es gibt jedoch keine Alternativen, wenn ein Unternehmen Erkenntnisse gewinnen und datenbasierte Entscheidungen treffen möchte. Vermorel glaubt, dass kleine, technologiegetriebene Unternehmen bereits Data Lakes übernommen haben und sogar darüber hinausgegangen sind, indem sie Anwendungsprogrammierschnittstellen (APIs) für ihre Subsysteme implementiert haben. Dies ermöglicht eine funktionsübergreifende Optimierung und intelligente Entscheidungsfindung.

Vermorel sieht große Unternehmen in den nächsten fünf Jahren zunehmend Data Lakes übernehmen, da sie zugänglicher und erschwinglicher werden. Unternehmen, die es versäumen, Data Lakes zu implementieren, laufen Gefahr, von denen, die dies bereits getan haben, ausgestochen zu werden. Data Lakes sind jedoch nicht der letzte Schritt im Datenmanagement. Vermorel schlägt vor, dass APIs die Zukunft sind, da sie Unternehmen nicht nur das Lesen und Analysieren von Daten ermöglichen, sondern auch das Handeln danach. APIs können eine End-to-End-Automatisierung ermöglichen, indem sie Entscheidungen automatisch generieren und im System umsetzen.

Joannes Vermorel betont die Bedeutung, sich von traditionellen BI-Tools zu lösen und Data Lakes für eine effizientere datenbasierte Entscheidungsfindung in der Optimierung der Lieferkette zu übernehmen. Er sieht eine Zukunft, in der große Unternehmen Data Lakes und APIs implementieren, um ihre Prozesse zu automatisieren und intelligentere Entscheidungen zu treffen.

Vollständiges Transkript

Kieran Chandler: Heute bei Lokad TV werden wir etwas genauer über das Konzept der Data Lakes sprechen und verstehen, warum Unternehmen mehr Interesse daran haben sollten. Also Joannes, wie immer sollten wir vielleicht damit beginnen, ein wenig genauer zu definieren, was Data Lakes sind und woher sie kommen.

Joannes Vermorel: Ein Data Lake ist in der Regel eine Art Datenbank mit bestimmten Besonderheiten, die dazu gedacht ist, praktisch alle Kern-Daten Ihres Unternehmens zu konsolidieren, insbesondere alle Transaktionsdaten wie das, was Sie verkauft haben, was Sie gekauft haben, Ihre Lagerbestände usw. Der Zweck und die Verwendung des Data Lakes besteht darin, dass er für Apps, nicht für Menschen, gedacht ist. Die Idee ist, dass Sie einen Data Lake einrichten, damit Sie domänenspezifische Apps haben können, die sehr datengetrieben sind und tonnenweise Daten aus dem Data Lake verwenden können, um intelligente Entscheidungen für Marketing, Lieferketten, Personalwesen oder ähnliches zu generieren. Grundsätzlich ist es ein Ort, an dem Sie alle Daten konsolidieren können, um sie in Stapelverarbeitung für intelligente Apps bereitzustellen. Was den zweiten Teil Ihrer Frage betrifft, haben Data Lakes eine lange Geschichte, die bis zur Idee des Data Warehousing und der Data Marts zurückreicht.

Kieran Chandler: Data Warehouses waren vor etwa 20 Jahren ein Trend, den wir gesehen haben. Was hat sich seitdem geändert und was sind die wesentlichen Unterschiede?

Joannes Vermorel: Das ist interessant. Das Schlagwort heutzutage ist “Data Lake” und “Data Scientist”, während es vor zwanzig Jahren “Data Warehouse” und “Data Mining” waren, die im Grunde genommen die gleiche Entwicklung der gleichen Ideen sind, nur zwanzig Jahre später überarbeitet. Was sich geändert hat, sind einige Dinge. Erstens hat sich die Technologie der Data Lakes verändert, sodass sie viel effizienter beim Speichern und Bereitstellen großer Datenmengen sind. Dann hatten wir die Cloud-Computing-Revolution, was bedeutet, dass Sie heutzutage komplett bedarfsgesteuerte Data Lakes mit Pay-as-you-go-Preisen pro Terabyte haben können. Das ist ganz anders als vor 20 Jahren, als Sie eine sehr teure Appliance, wie zum Beispiel von Oracle, kaufen mussten, um alle Ihre Daten zu speichern. Heutzutage können Sie mit Cloud-Computing-Plattformen Terabytes nach Bedarf haben und in Bezug auf die Preisgestaltung äußerst aggressiv sein.

Kieran Chandler: Das ist sozusagen die technische Seite der Dinge. Wie sieht es mit der Philosophie aus? Was hat sich in der Denkweise und in der Art und Weise, wie wir Data Lakes im Vergleich zu Data Warehouses nutzen, geändert?

Joannes Vermorel: Es hat tatsächlich eine ziemliche Entwicklung gegeben. Das Problem bei Data Warehouses, wie sie vor 20 Jahren gedacht waren, war, dass sie viel Druck auf die IT ausübten, um die Daten ordnungsgemäß zu organisieren. Sie hatten sogar ein Data Warehouse, das dazu gedacht war, Data Marts zu organisieren, wobei ein Data Mart für jede Art von Abteilung, wie Marketing, Lieferkette, Finanzen usw., vorgesehen war. Die Data Marts waren wie Untermengen oder Unterabteilungen innerhalb Ihres Data Warehouses. Das Problem bei diesem Ansatz, der in gewisser Weise ähnlich war wie bei den heutigen Data Lakes, bestand darin, dass er eine Menge Organisation und Management von der IT-Seite erforderte.

Kieran Chandler: Was für Business Intelligence getan wurde, war, dass es eine hohe Erwartungshaltung gab, dass es bereits sozusagen vorbereitet, organisiert sein würde, wissen Sie, mit dem, woran Sie angeschlossen haben, wissen Sie, Kunden an Verkäufe an Rücksendungen. Also, wissen Sie, Sie kleben sozusagen Dinge zusammen. Alle Dinge, die zusammengehen, erfordern tatsächlich eine Menge Aufwand. Technisch gesehen geht es darum, Tabellen zu verbinden, all diese Tabellen mit einem ordentlichen Joint Exeter zu verbinden. Also, vor 20 Jahren war die Philosophie, viel zu tun, und es sollte ziemlich ähnlich sein wie das, was für BI getan wurde und ziemlich ähnlich wie das, was natürlich für relationale Systeme getan wurde. Das Problem bei diesem Ansatz war, dass der Arbeitsaufwand völlig enorm ist, und so enden Sie typischerweise mit IT-Abteilungen, die einfach völlig überfordert sind von der schieren Menge an Anforderungen, die auf sie zukommen, wegen dieser Data-Warehousing-Projekte. Als Ergebnis davon scheiterte es häufig, weil, nun ja, die IT es nicht geschafft hat, zu liefern. Aber wie sieht es heute aus? Ich meine, sicherlich wird es jetzt ein bisschen chaotisch, da Sie diese Data Lakes haben.

Joannes Vermorel: Data Lakes sind in Bezug auf die Philosophie viel schlanker, weil die Philosophie besagt, dass ein Data Lake nur ein Empfänger für eine saubere Extraktion ist, aber eine saubere Dump-Extraktion aller Daten, die in anderen Systemen vorhanden sind. Sie versuchen also nicht, eine ausgefallene Neukombination sowohl der Daten aus dem CRM als auch der Daten aus dem ERP und der Daten aus Ihrer Webplattform durchzuführen. Sie extrahieren einfach diese Datenquellen und dumpen sie in den Data Lake. Und der Data Lake verhält sich gut dank der Technologie, was bedeutet, dass Sie eine große Menge an Daten ablegen können und er die Last ohne zu klagen bewältigt. Wenn Sie in der Cloud sind, wird Ihnen dies in Rechnung gestellt.

Kieran Chandler: Wie wissen Sie, dass die Daten, die Sie tatsächlich verwenden, gute Daten sind? Ich meine, wie behalten Sie den Überblick darüber, welche Daten auf dem neuesten Stand sind? Wenn Sie sie einfach alle in diesen See werfen, wie behalten Sie den Überblick?

Joannes Vermorel: Die Verantwortung der IT bei einem Data Lake besteht darin, sicherzustellen, dass der Data Lake eine genaue Abbildung dessen enthält, was in den Originalsystemen vorhanden ist. Aber das erfordert kein Verständnis dafür, was geschäftlich vor sich geht. Sie haben einfach ein CRM mit 200 relationalen Tabellen, und Sie spiegeln sie einfach in den Data Lake, und das ist es. Sie müssen nicht verstehen, was im CRM passiert.

Kieran Chandler: Wer muss also verstehen, was im CRM vor sich geht?

Joannes Vermorel: Es stellt sich heraus, dass es die Abteilungen selbst sind, die die Daten nutzen möchten, und das Problem ist, dass die Interpretation der Daten stark problemabhängig ist. Wenn Sie also beispielsweise die Verkaufsdaten betrachten, ist dies je nachdem, ob Sie ein Marketingproblem oder ein Problem in der Lieferkette lösen möchten, unterschiedlich. Das war auch einer der Hauptgründe, warum vor zwanzig Jahren viele dieser Data-Warehousing-Initiativen gescheitert sind. Es lag daran, dass die Vision darin bestand, ein einheitliches Modell des Unternehmens zu erstellen, sich dann jedoch herausstellte, dass es für jede Abteilung äußerst frustrierend war, weil das Marketing sagte: “Oh, es passt nicht genau in die Vision, die ich von meinem Bereich habe”, und die Lieferkette sagte dasselbe, und das Finanzwesen würde dasselbe sagen. Im Gegensatz dazu ist die Idee jetzt eher, dass die Abteilungen selbst, wie Lieferkette, Marketing, Finanzen, Human.

Kieran Chandler: Bedeutet das, dass sie heute nicht scheitern werden? Ich meine, es gibt immer noch viele Dinge, die sich ändern. Eine besondere Herausforderung, insbesondere in der Lieferkette, besteht darin, dass wir es im Wesentlichen mit verteilten Systemen zu tun haben. Was meine ich mit verteilt? Ich meine, nicht alles an einem Ort, denn wenn Sie mehrere Lagerhäuser haben, befinden sie sich nicht am selben Ort. Ihre Lieferanten befinden sich nicht am selben Ort wie Ihre Lagerhäuser, und Ihre Kunden auch nicht. Daher betrachten wir per Definition Systeme, die verteilt sind, und Sie möchten all diese Daten an einem Ort zusammenführen, der Ihr Data Lake ist, der technisch gesehen über das Netzwerk erfolgen muss.

Joannes Vermorel: Natürlich war das Internet vor zwanzig Jahren bereits erfunden. Es existierte, aber die Qualität der Tools zum Verschieben von Daten über das Internet war im Vergleich zu dem, was wir heute haben, völlig anders. Und auch das Netzwerk selbst war völlig anders. Heutzutage, wenn Sie beispielsweise für ein nicht allzu großes Unternehmen, ein Unternehmen mit 1.000 Mitarbeitern, Daten im Umfang von einem Gigabyte pro Tag über das Internet verschieben möchten, war das vor zwanzig Jahren kompliziert.

Ich meine, Sie mussten beispielsweise Zugang zu Glasfaser in Paris haben. Vor zwanzig Jahren gab es nur einen Ort in Paris, an dem Sie Zugang zur Glasfaser hatten, nämlich das Gebiet in der Nähe der Börse. Es gab etwa einen Quadratkilometer, wo Sie leicht Zugang zur Glasfaser bekommen konnten. Überall sonst mussten Sie Ihre eigene Glasfaser verlegen, wenn Sie sie wollten. Mega-Konzerne konnten das tun, aber auch ein Unternehmen mit 1.000 Mitarbeitern konnte das nicht. Das hat sich geändert. Jetzt ist es sehr einfach. Die Werkzeuge sind besser, und Sie können problemlos Gigabytes verschieben, ohne viel Aufhebens.

Und die Tatsache, dass Sie On-Demand-Systeme haben, bedeutet, dass diese Data Lakes nicht nur dank der Skaleneffekte dieser Cloud-Computing-Plattformen sehr günstig sind, sondern auch, dass sie bei Bedarf verfügbar sind. Das bedeutet, dass Sie Versuch und Irrtum betreiben können. Wenn Sie versuchen, einen Data Lake einzurichten und es ein vollständiger Misserfolg ist, können Sie einfach “löschen” sagen und es erneut versuchen, und Sie zahlen nur für das, was Sie verwenden. Sie können also schnell iterieren. Es ist nicht wie vor zwanzig Jahren, als Sie sich dazu verpflichten mussten, ein sehr teures Gerät zu kaufen, und wenn Sie sich geirrt haben, war das ein großes Problem.

Kieran Chandler: Und ich wette, diese Finanzbereiche haben wahrscheinlich immer noch das schnellste Internet. Was würden Sie einem großen multinationalen Unternehmen sagen, das bereits einen guten Überblick über seine Daten hat und Dinge mithilfe von Business-Intelligence-Tools versteht? Ich meine, warum sollten sie an einem Data Lake interessiert sein?

Joannes Vermorel: Das Problem bei Business Intelligence ist, dass es grundsätzlich für Menschen gedacht ist. Es ist gut, aber das bedeutet, dass jede einzelne Minute, in der Menschen diese Zahlen betrachten, eine Minute ist, in der Sie tatsächlich einen Mitarbeiter bezahlen, um Zahlen anzusehen, anstatt etwas anderes zu tun. Sie können sehr leicht Millionen von Zahlen produzieren, für deren Verarbeitung Tausende von Arbeitsstunden erforderlich sind, was äußerst teuer ist.

Das Problem ist also, dass Business Intelligence, so wie ich es sehe, eine Art Technologie ist, die ziemlich veraltet ist. Es war eine Möglichkeit, eine grundlegende Analyse Ihrer Daten in einer relativ Echtzeit zu erhalten. Es war sehr interessant, denn vor 30 Jahren, als Business Objects gegründet wurde, war es nicht möglich, synchronisierte Abfragen durchzuführen, die Ihnen diese Informationen lieferten: Wie viele Einheiten werden pro Tag, pro Produkt usw. verkauft. Das war mit Business Intelligence nicht möglich. Plötzlich war es möglich, diesen Würfel zu haben, Sie können sogar Hypercubes haben, und noch besser, Sie können es sehr, sehr schön haben. Aber am Ende betrachten Sie nur eine super grundlegende Aggregation Ihrer Daten, und diese Aggregation ist keine Entscheidung. Es sagt Ihnen nicht, ob Sie Ihren Preis erhöhen oder senken sollten, es sagt Ihnen nicht, ob Sie mehr oder weniger produzieren sollten, es sagt Ihnen nicht, ob Sie aus einer Produktionscharge von 1000 Einheiten 100 Einheiten in ein Flugzeug für eine schnellere Lieferung setzen sollten. Grundsätzlich geht es nur darum, quantitative Erkenntnisse zu gewinnen. Der große Unterschied zwischen BI und Data Lake besteht darin, dass der Data Lake als Teil eines größeren Bildes betrachtet wird, in dem Sie vor dem Data Lake typischerweise eine maschinenlerngesteuerte App haben, die die Daten, die vom Data Lake super effizient bereitgestellt werden, verarbeitet, um automatisch Entscheidungen zu generieren. Und diese Entscheidungen haben eine physische Auswirkung auf Ihr Unternehmen und schaffen einen greifbaren Mehrwert.

Kieran Chandler: Okay, wenn wir uns also einig sind, dass Business-Intelligence-Tools möglicherweise ihre Grenzen haben und es um die Implementierung eines Data Lakes geht, wie einfach ist das eigentlich? Ist es nur eine Frage des Hochladens all dieser Daten in die Cloud und dann kann es losgehen?

Joannes Vermorel: Die Komplexität der Implementierung eines Data Lakes ist streng proportional zur Komplexität des Zugriffs auf Ihre Datenquellen, wörtlich auf den Zugriff, nicht auf die intelligente Verarbeitung. Das bedeutet, dass Sie für große multinationale Unternehmen für jedes Land in Ihrem Unternehmen ein eigenes System haben. Nun, raten Sie mal? Sie werden so viele Arten von Data Lakes benötigen, um die Daten aus jedem einzelnen Land in den Data Lake zu bringen. Aber es ist bedauerlich, dass Sie keine Alternative haben, denn die einzige Alternative besteht darin, eine direkte Integration mit den Ländern direkt zu haben, und das ist noch kostspieliger, denn wenn Sie zwei Abteilungen, sagen wir Marketing und Supply Chain, haben, die auf die Verkaufsdaten zugreifen möchten, zahlen Sie für diese Integration zweimal. Die Idee bei einem Data Lake ist, dass Sie es einmal tun und dann ist es im Data Lake, was es für den Rest des Unternehmens sehr geeignet macht, auf die Daten zuzugreifen. Die Komplexität hängt vollständig davon ab, was Sie haben. Aber auch hier, wenn wir zu Ihrem ursprünglichen Zitat zurückkehren, wenn Sie keine Daten haben, sind Sie nur ein Mann mit einer Meinung. Nun, Sie haben keine Alternative, um diese Daten irgendwo abzurufen, wenn Sie irgendwelche Messungen durchführen möchten.

Kieran Chandler: Lassen Sie uns jetzt alles zusammenführen. Wenn es so viele positive Aspekte von Data Lakes gibt und es recht einfach erscheint, ist es am Ende des Tages nur ein großer Datenbehälter, warum wird es dann im Moment nicht von der Industrie weitgehend übernommen?

Joannes Vermorel: Es stellt sich heraus, dass sehr kleine technologiegetriebene Unternehmen Data Lakes schon vor langer Zeit übernommen haben und sogar darüber hinausgegangen sind, würde ich sagen, mit der API-fizierung ihres Unternehmens, was bedeutet, dass Sie auf jedes Subsystem eine API (Application Programming Interface) setzen, was der nächste Schritt ist, der nach dem Data Lake erfolgt. Also, ich würde sagen, intelligente E-Commerce-Unternehmen haben zum Beispiel ihre Daten bereits konsolidiert, und das.

Kieran Chandler: Sie müssen sich sowohl heute als auch in Zukunft ansehen, was von der Website kommt, wofür Sie für Suchmaschinen-Merchandising bezahlen, Sie wissen schon, die Google AdWords und so weiter, und Querbestellungen. Sie sind in der Lage, intelligente Entscheidungen in Bezug auf direkte Marketingmaßnahmen und dergleichen zu treffen. In Bezug auf rein technologiegetriebene Unternehmen wie Microsoft oder Google haben sie auch ähnliche Dinge getan, wissen Sie, seit buchstäblich Jahrzehnten. Ich meine, Google gibt es erst seit zwei Jahrzehnten, aber andere Unternehmen wie alle Technologieunternehmen tun das schon seit geraumer Zeit. Also, wenn sie das seit Jahrzehnten tun, wie sieht es mit der Zukunft aus? Was kommt als Nächstes? Werden wir manchmal in einem Datenmeer schwimmen?

Joannes Vermorel: Ja, ich meine, was ich als Nächstes sehe, ist, dass Unternehmen, die sehr auf die Lieferkette ausgerichtet sind, jetzt, da Data Lakes sehr zugänglich und sehr günstig geworden sind, diese Data Lakes implementieren werden. Wir sehen bei unseren Kunden, dass viele Kunden, die vor einem Jahr keinen Data Lake hatten, jetzt einen Data Lake haben. Ich würde sagen, es gab in den letzten zwei Jahren einen Wendepunkt in Bezug auf Data Lake-Angelegenheiten. Daher vermute ich, dass die meisten großen Unternehmen innerhalb der nächsten wahrscheinlich fünf Jahre ihren eigenen Data Lake implementiert haben werden, da sie sonst von allen großen Unternehmen, die dies für sie getan haben werden, vollständig aus dem Wettbewerb gedrängt werden würden.

Aber es gibt auch Grenzen, insbesondere ist ein Data Lake nur eine schreibgeschützte Kopie aller Daten, die in anderen Subsystemen liegen. Deshalb habe ich gesagt, dass der nächste Schritt darin besteht, dass alle Subsysteme APIs, Application Programming Interfaces, freigeben, denn das ist es, was Amazon getan hat. Mit diesen APIs können Sie noch mehr tun, plötzlich sind Sie nicht mehr nur schreibgeschützt, Sie können auch handeln. Die Idee ist, dass Sie alle Daten konsolidieren, lesen, analysieren, all diese Entscheidungen treffen und was machen wir dann mit diesen berechneten Entscheidungen? Die Antwort ist, dass Sie die Excel-Tabelle spreadsheet an die richtige Abteilung senden, damit sie Ihre Entscheidungen umsetzen, wie zum Beispiel den Einkauf. Aber wenn es eine API gibt, können Sie diese API direkt aufrufen, um die Bestellung für dieses Produkt, in dieser Menge, von diesem Lieferanten, mit dieser spezifizierten Transportart und so weiter einzuspeisen. Sie können also tatsächlich, wenn Sie APIs haben, End-to-End-Automatisierungen haben, bei denen Sie nicht nur die Entscheidung automatisch generieren, sondern diese Entscheidungen auch physisch automatisch umsetzen, weil sie in eines der Systeme zurückgespeist werden.

Kieran Chandler: Okay, wir müssen es hierbei belassen, aber vielen Dank für Ihre Zeit heute. Das war alles für diese Woche. Vielen Dank fürs Zuschauen, und wir sind nächstes Mal wieder da. Bis bald.