Werbung
Werbung
Werbung

LDC!: Big Data erfordert klare Unternehmensstrategie

Diskussionsrunde erörterte, wie Firmen große Datenmengen richtig nutzen./ Mit Bildergalerie
Diskutierten über den Nutzen von Big Data (v.l.n.r.): Dr. Jan Cirullies, Dr. Kerstin Höfle, Bettina Bohlmann, Dr. Jack Thoms, Dr. Petra Seebauer, Pascal Prassol und Gerhard Otterbach. (Foto: Thilo Jörgl)
Diskutierten über den Nutzen von Big Data (v.l.n.r.): Dr. Jan Cirullies, Dr. Kerstin Höfle, Bettina Bohlmann, Dr. Jack Thoms, Dr. Petra Seebauer, Pascal Prassol und Gerhard Otterbach. (Foto: Thilo Jörgl)
Werbung
Werbung
Sandra Lehmann

Big Data und vor allem die Interpretation großer Datenmengen ist kein Selbstzweck, sondern sollte einer klaren Strategie folgen. Nur dann können Unternehmen wirklich davon profitieren. Diese Aussage war Quintessenz eines Panels zum Thema, „Data Analytics and Security: Big Data in der Supply Chain“, das am 22. November im Rahmen der Logistics Digital Conference (LDC!) in Frankfurt am Main stattfand und von Bettina Bohlmann, Managing Partner, 3p ProcurementBranding GmbH, und Dr. Petra Seebauer, Herausgeberin LOGISTIK HEUTE, moderiert wurde.

Bewusstseinserweiterung für Unternehmen

Dabei wies Dr. Jack Thoms, Director Innovation des Deutschen Forschungsinstituts für Künstliche Intelligenz GmbH, zunächst daraufhin, dass Big Data, vor allem aber die sinnvolle Nutzung der Datenflut, für jedes Unternehmen gewinnbringend sein kann. „Große Datenmengen funktionieren als eine Art Bewusstseinserweiterung der Firma. Das heißt, dass man durch Big Data in erster Linie das eigene Tun besser versteht.“ Zudem könnte die Nutzung großer Informationsmengen Unternehmen agiler machen, da sie bereits heute die durchgehende Überwachung des eigenen Marktes sowie permanente Markttests ermöglichen.

Nutzen generieren

Funktionieren könne das jedoch nur, wenn Firmen rechtzeitig überlegen, was Big Data und Datenanalyse für das eigene Geschäftsmodell und die Supply Chain leisten kann. „Große Datenströme bieten viele Nutzenpotenziale, die mit dem passenden Umsetzungsplan gehoben werden können. Allerdings gibt es dafür kein Universalkonzept. Man muss sich darüber klarwerden, was man erreichen möchte und wie Big Data dabei unterstützen kann. Zum Beispiel bessere Produkte zu entwickeln, die tatsächliche Kundenbedürfnisse adressieren“, erklärte Pascal Prassol, Vice President Innovation Services bei SAP Deutschland SE & Co. KG dem Publikum.

Geschäftsmodelle überdenken

Dr. Kerstin Höfle, IP & Strategy Manager der Swisslog AG, pflichtete dem bei und ergänzte, dass Firmen das Potenzial großer Datenmengen zunächst in den eigenen vier Wänden realisieren müssten. In Hinblick auf die unternehmenseigenen Supply Chains bedeute das unter anderem viele kleine Player einer Wertschöpfungskette zusammenzubringen und im Zweifel das eigene Geschäftsmodell grundsätzlich zu überdenken. „In Zukunft könnte es etwa so sein, dass wir als Intralogistikanbieter nur noch Services statt Hardware verkaufen, weil Big Data die Prozesse verschlankt und den Besitz kompletter Anlagen überflüssig macht. Damit stellen wir unsere bisherige Unternehmensstrategie zwar auf den Kopf, schaffen aber auch Platz für zukunftsfähige Geschäftsmodelle.“

Infrastruktur entscheidend

Um an diesen Punkt zu gelangen, benötigen Unternehmen auch die passende Infrastruktur – insbesondere wenn es um kritische Unternehmensbereiche wie Logistik und Supply Chain Management geht. Das betonte Gerhard Otterbach, Director & Sales Team Manager Strategic Key Accounts & Industries der Teradata GmbH, in seinem Vortrag. Dabei sei vor allem die Leistung eines Systems entscheidend. „Big Data im Bereich Logistik erfordert die Integration multipler Datenquellen – zumindest, wenn man einen Mehrwert erwartet. Das muss die Systemarchitektur abbilden können. Wie gut die gewählte Lösung ist, weiß man meistens erst bei erfolgreicher End-to-End-Implementierung.“ Hier stünden deutsche Unternehmen aus Otterbachs Sicht erst am Anfang. Ziel sei es, so der Experte, eine Infrastruktur zu entwickeln, die keine Limits kennt und alle Anforderungen an das Management von großen Datenmengen erfüllt.

Sicherer Austausch

Dass man auf dem Weg dorthin ruhig klein beginnen kann, erläuterte Dr. Jan Cirullies, Leiter Digitization in Logistics beim Fraunhofer-Institut für Software- und Systemtechnik ISST, den Zuhörern. Wichtig sei dabei, von Beginn an eine Gesamtstrategie zu verfolgen und stets die Hoheit über die eigenen Daten zu behalten. Wie das gelingen kann, stellte der Wissenschaftler im Rahmen des Projektes „Industrial Data Space“ heraus, das den sicheren Austausch von Informationen in Wertschöpfungsnetzwerken ermöglichen soll und von der Fraunhofer-Gesellschaft mitinitiiert wurde.

Printer Friendly, PDF & Email
Werbung