Die Transportbranche ist die Lebensader der Industrie. Keine Produktion ohne Beschaffungslogistik, kein Handel ohne Lieferverkehr. Daten sind die digitalen Begleiter der Transporte. Laut einer McKinsey-Studie planen 96 Prozent der befragten Spediteure, ihre Investitionen in digitale Strukturen mindestens beizubehalten oder auszubauen. Die intelligente Vernetzung zwischen Kunden, Dienstleistern und Kooperationspartnern ist heute ein entscheidender Wettbewerbsvorteil. Prozesse werden optimiert, die Kosteneffizienz erhöht, die Kommunikation über beispielsweise Ankunftszeiten erleichtert oder Daten zur Verfügung gestellt, die Unternehmen im Rahmen von Nachhaltigkeitsreportings benötigen.
"96 Prozent der befragten Spediteure, ihre Investitionen in digitale Strukturen mindestens beizubehalten oder auszubauen"
- McKinsey
Bei allem Bewusstsein für die Notwendigkeit von Digitalisierung gibt es allerdings eine große Herausforderung: Unternehmen schaffen oftmals viele kleine, in sich abgeschlossene Insellösungen. Im Netzwerk mit anderen lässt sich in einer derart fragmentierten Systemlandschaft aber weder durchgehende Transparenz noch eine resiliente Supply Chain realisieren.
Heterogene Systeme verlangen nach Standards
Damit ein reibungsloser Datenfluss auch zwischen den Unternehmen sichergestellt ist, sollten alle Beteiligten mit echtzeitfähiger und vor allem miteinander kompatibler Planungssoftware ausgestattet sein. Das funktioniert gut, solange wir in 1:1-Beziehungen oder kleineren Gruppen kommunizieren. Je mehr unterschiedliche Systeme in den Netzwerken interagieren müssen, desto schwieriger ist der Austausch zwischen den Beteiligten. Große heterogene Netzwerke verlangen daher nach Standards, die von verschiedenen Systemen erkannt, interpretiert und verarbeitet werden können. Eine echte Herausforderung für die Transportbranche. Denn im Straßengüterverkehr hat sich mittlerweile geradezu ein System- und Datendschungel etabliert.
Beispiel Telematiksysteme: Alleine im DACH-Raum gibt es mittlerweile über über 80 unterschiedlicher Anbieter solcher Lösungen. Und jedes Tool generiert während eines Transports minütlich eine Vielzahl individueller Datensätze. Passende Planungssoftwares können diese lesen, und darauf reagieren. Arbeiten Verlader oder Speditionen aber mit vielen verschiedenen Frachtunternehmen zusammen, müssen jeweils Systeme zum Analysieren unterschiedlicher Datenquellen integriert sein. Wenn zudem noch Subunternehmer in die Prozesse eingebunden werden müssen, steigen die Kommunikationslinien exponentiell an - und somit auch die Komplexität. Auch Fuhrunternehmen sind heute aus diesen Gründen gefordert, viele verschiedene Technologiesysteme zu verwenden, um die Informationen ihrer Kunden zu erhalten. Entsprechend komplex ist die Datenintegration. Und hier gilt: Zeit ist Geld.
Ein neutraler Vermittler
Ein Ansatz wäre, in viele Hardware und Software Lösungen zu investieren und dementsprechend in Personal, um diese zu bedienen. Eine schneller umsetzbare Lösung, die zudem resilient, skalierbar und zukunftsorientierter ist, bietet eine Plattform, die als neutraler Vermittler zwischen den Parteien geschaltet wird. Sie schafft Konnektivität, indem sie die verschiedenen eingehenden Daten liest, sie in einen (Plattform)-Standard wandelt und so einen Datenpool mit einem gemeinsam nutzbaren Format generiert. Dieser ist an das IT- beziehungsweise ERP-Systeme der Nutzer angebunden und stellt so, teilweise auf Basis von KI oder Machine-Learning-Algorithmen, Lösungen zur effizienten und vernetzten Automatisierung unterschiedlichster Transportprozesse zur Verfügung – vom Tender- und Ausschreibungsmanagement über die Transportausführung und -planung bis zur Auditierung. Ergänzende Echtzeitdaten zu Ladungsvolumen, Verkehr oder das Wetter schaffen zudem die Möglichkeit, den realen CO2-Austoß eines Transports genau zu messen und zu analysieren.
Keine stabilen Netze ohne hohe Datenqualität
Allerdings ist die Anbindung an eine verbindende Schnittstelle für unterschiedliche Systeme nur ein Teil der Lösung. Für einen wirklich störungsfreien und automatisierten Austausch zwischen den Akteuren der Lieferkette spielt auch die Datenqualität eine wichtige Rolle. Die Daten verarbeiten und lesen zu können ist ein Schritt. Ein weiterer muss die Vollständigkeit und Verständlichkeit der gesendeten Informationen sein. Wenn ein Verlader einen fehlerhaften Datensatz schickt, kann dieser durch ein noch so gut vernetztes digitales Ökosystem geschickt werden, am Ende fehlen immer noch Daten. Ein Beispiel hierfür sind gelieferte Plandaten zur Adresse: Wenn die Hausnummer fehlt, kann der Fahrer diese meist noch schnell über das Smartphone ermitteln, auch wenn das etwas Zeit kostet. Spätestens bei einem falsch angegebenen Tor auf einem großen Werksgelände mit mehreren Zufahrten kann das aber zu kostspieligen Verzögerungen führen. Solange nur zwei Akteure regelmäßig zusammenarbeiten, weiß der Frachtführer irgendwann, wohin er liefern muss, auch wenn diese Angabe weiterhin fehlt. Sobald das Netzwerk aber erweitert wird und ein neuer Transporteur hinzukommt, tritt dieser Fehler erneut auf, solange der Datensatz lückenhaft bleibt.
Echtzeitinformationen ergänzen Plandaten
Dies ist eine typische Herausforderung in der Praxis, für das Plattformen ebenfalls Vorteile bringen: Durch die große Menge an Daten aus vergleichbaren Transporten und Erfahrungswerten kann die mangelnde Datenqualität mit der Zeit automatisiert verbessert und Transporte so reibungsloser ausgeführt werden. Echtzeitdaten können zusätzlich Abweichungen von den Plandaten erkennen und einen entsprechenden Hinweis liefern. In Zukunft könnten zusätzlich KI und Machine-Learning unterstützen, dass die Datenqualität auf den Plattformen weiter ansteigt.
Wenn die Branche es also schafft, technische Hürden abzubauen, indem sie Standards etabliert und gleichzeitig die Qualität ihrer Daten verbessert, kann die Interoperabilität innerhalb der Supply Chain optimal gestaltet werden und alle Parteien können sich – ohne Informationsbruch – auf das wesentliche konzentrieren: den Transport von Waren und Produktionsgütern.