Supply chains wechselten schon sehr früh zu computerbasierten Managementsystemen. Infolgedessen verfügen viele große Unternehmen über jahrzehntealte supply chain Systeme, die dazu neigen, träge zu sein, wenn es darum geht, große Datenmengen zu verarbeiten. Zweifellos stehen heutzutage Unmengen von Big Data Technologien zur Verfügung, aber Unternehmen gehen vorsichtig vor. Viele, wenn nicht die meisten dieser Big Data Unternehmen sind in hohem Maße auf erstklassiges Ingenieurstalent angewiesen, um ihre Technologien reibungslos zum Laufen zu bringen; und nicht alle Unternehmen schaffen es – im Gegensatz zu Facebook – Schichten von Big Data Technologien so umzuschreiben, dass sie funktionieren.

Die Fähigkeit, enorme Datenmengen zu verarbeiten, ist seit langem ein Versprechen von Lokad. Tatsächlich erfordert die Optimierung einer gesamten supply chain in der Regel Hunderte von schrittweisen Anpassungen. Während Hypothesen verfeinert werden, muss typischerweise die gesamte Berechnungskette erneut ausgeführt werden. Ergebnisse, die das gesamte supply chain Netzwerk in Minuten statt in Stunden umfassen, ermöglichen es, ein Projekt in wenigen Wochen abzuschließen, wo es sonst ein Jahr gedauert hätte.

Und genau deshalb haben wir 2009 mit unserer Migration hin zu cloud computing begonnen. Allerdings garantiert das bloße Ausführen auf einer cloud computing Plattform nicht, dass enorme Datenmengen zügig verarbeitet werden können. Schlimmer noch: Während der Einsatz vieler Maschinen die Möglichkeit bietet, mehr Daten zu verarbeiten, führt dies tendenziell dazu, dass die Datenverarbeitung langsamer statt schneller wird. Tatsächlich treten Verzögerungen häufig auf, wenn Daten von einer Maschine zur nächsten übertragen werden und wenn Maschinen ihre Arbeit koordinieren müssen.

Infolgedessen reduziert das bloße Hinzufügen weiterer Maschinen zu einem Datenverarbeitungsproblem nicht die Verarbeitungszeit weiter. Die Algorithmen müssen intelligenter gestaltet werden, und jede einzelne Maschine sollte in der Lage sein, mehr zu leisten, ohne zusätzliche Rechenressourcen.

Vor einigen Wochen haben wir ein neues Hochleistungs-Spalten-Speicherformat mit dem Codenamen Ionic veröffentlicht, das stark für die schnelle, gleichzeitige Datenverarbeitung optimiert ist. Dieses Format ist auch auf supply chain optimization ausgerichtet, da es die Handhabung von Speicherverteilungen von Wahrscheinlichkeiten nativ unterstützt. Und diese Verteilungen sind entscheidend, um probabilistic forecasts nutzen zu können. Ionic soll nicht als Austauschformat zwischen Lokad und seinen Kunden verwendet werden. Für den Datenaustausch ist die Verwendung eines flachen Textdateiformats, wie CSV, völlig ausreichend. Das Ionic-Format ist als internes Datenformat gedacht, um alles, was bei Lokad passiert, zu beschleunigen. Dank Ionic kann Lokad nun Hunderte von Gigabyte an Eingabedaten mit relativer Leichtigkeit verarbeiten.

Insbesondere sorgt der spaltenorientierte Aspekt des Ionic-Formats dafür, dass Spalten getrennt geladen und verarbeitet werden können. Bei der Lösung von supply chain Problemen stehen wir regelmäßig vor ERP Extraktionen, bei denen Tabellen über 100 Spalten aufweisen, und im schlimmsten Fall bis zu 500 Spalten. Ionic liefert einen enormen Leistungszuwachs, wenn es darum geht, mit so vielen Spalten umzugehen.

Aus Sicht von Lokad betrachten wir Datenverarbeitungsfähigkeiten immer mehr als einen kritischen Erfolgsfaktor bei der Umsetzung von supply chain optimization Projekten. Längere Verarbeitungszeiten bedeuten, dass täglich weniger erledigt wird, was problematisch ist, da letztlich jedes Unternehmen unter engen Fristen arbeitet.

Das Ionic-Speicherformat ist ein weiterer Schritt auf unserer Big Data Reise.