Lieferketten haben sich frühzeitig zu computergestützten Managementsystemen entwickelt. Dennoch haben viele große Unternehmen jahrzehntealte Lieferketten-Systeme, die tendenziell träge sind, wenn es darum geht, große Datenmengen zu verarbeiten. Sicherlich stehen heutzutage viele Big Data-Technologien zur Verfügung, aber Unternehmen gehen vorsichtig vor. Viele dieser Big Data-Unternehmen sind entscheidend auf erstklassiges Ingenieurwissen angewiesen, um ihre Technologien reibungslos zum Laufen zu bringen. Nicht alle Unternehmen haben jedoch Erfolg darin, wie Facebook, Schichten von Big Data-Technologien umzuschreiben, um sie zum Funktionieren zu bringen.

Die Fähigkeit, große Datenmengen zu verarbeiten, ist ein langjähriges Anliegen von Lokad. Tatsächlich erfordert die Optimierung einer gesamten Lieferkette in der Regel Hunderte von inkrementellen Anpassungen. Wenn Hypothesen verfeinert werden, müssen in der Regel alle Berechnungen erneut durchgeführt werden. Die Möglichkeit, Ergebnisse zu erhalten, die das gesamte Lieferkettennetzwerk in Minuten anstatt Stunden umfassen, ermöglicht es Ihnen, ein Projekt in wenigen Wochen abzuschließen, während es sonst ein Jahr gedauert hätte.

Und deshalb haben wir 2009 mit unserer Migration zu Cloud Computing begonnen. Das bloße Ausführen auf einer Cloud-Computing-Plattform garantiert jedoch nicht, dass große Datenmengen schnell verarbeitet werden können. Schlimmer noch, während die Verwendung vieler Maschinen die Möglichkeit bietet, mehr Daten zu verarbeiten, neigt sie auch dazu, die Datenverarbeitung zu verlangsamen, nicht zu beschleunigen. Tatsächlich treten Verzögerungen auf, wenn Daten von einer Maschine zur nächsten verschoben werden und wenn Maschinen ihre Arbeit koordinieren müssen.

Daher reduziert das bloße Hinzufügen von mehr Maschinen zu einem Datenverarbeitungsproblem die Datenverarbeitungszeit nicht weiter. Die Algorithmen müssen intelligenter gemacht werden, und jede einzelne Maschine sollte in der Lage sein, mehr mit nicht mehr Rechenressourcen zu tun.

Vor einigen Wochen haben wir ein neues Hochleistungs-Spaltenformat namens Ionic veröffentlicht, das für die gleichzeitige Hochgeschwindigkeits-Datenverarbeitung optimiert ist. Dieses Format ist auch auf Lieferkettenoptimierung ausgerichtet, da es die Handhabung von Speicherverteilungen von Wahrscheinlichkeiten nativ unterstützt. Und diese Verteilungen sind entscheidend, um von probabilistischen Prognosen profitieren zu können. Ionic ist nicht als Austauschformat zwischen Lokad und seinen Kunden gedacht. Für den Datenaustausch ist die Verwendung eines flachen Textdateiformats wie CSV völlig ausreichend. Das Ionic-Format ist als internes Datenformat gedacht, um alles zu beschleunigen, was innerhalb von Lokad passiert. Dank Ionic kann Lokad jetzt Hunderte von Gigabyte an Eingabedaten relativ mühelos verarbeiten.

Insbesondere gewährleistet der spaltenorientierte Aspekt des Ionic-Formats, dass Spalten separat geladen und verarbeitet werden können. Bei der Bearbeitung von Lieferkettenproblemen haben wir es regelmäßig mit ERP Extraktionen zu tun, bei denen Tabellen über 100 Spalten und bis zu 500 Spalten für die schlimmsten Fälle haben. Ionic bietet einen massiven Leistungsschub, wenn es darum geht, mit so vielen Spalten umzugehen.

Aus Sicht von Lokad betrachten wir die Fähigkeiten zur Datenverarbeitung zunehmend als entscheidenden Erfolgsfaktor bei der Umsetzung von Projekten zur Lieferkettenoptimierung. Eine längere Verarbeitungszeit bedeutet, dass jeden Tag weniger erledigt wird, was problematisch ist, da letztendlich jedes Unternehmen unter engen Fristen arbeitet.

Das Ionic-Speicherformat ist ein weiterer Schritt in unserer Big Data-Reise.