IT-Trends 2022: Von Edge Computing bis ethische KI

In welche Richtung werden sich die IT-Systeme von Unternehmen 2022 weiterentwickeln? Oliver Rozić, Vice President Product Engineering bei Sage, gibt eine Prognose ab. 

Oliver Rozić ist Vice President Product Engineering bei Sage. (Foto: Sage)
Oliver Rozić ist Vice President Product Engineering bei Sage. (Foto: Sage)
Therese Meitinger

In der Digitalisierung hat Corona 2021 für eine beispiellose Dynamisierung gesorgt. Der Schwung dieser Entwicklung werde sich auch 2022 am Beispiel mehrerer Trends zeigen, ist IT-Anbieter Sage überzeugt. Das auf KMU-Anwendungen spezialisierte Frankfurter Softwarehaus hat fünf Technologietreiber identifiziert, die seiner Ansicht nach im Jahr 2022 spürbaren Einfluss auf betriebliche IT-Anwendungen haben werden:

  • Distributed Cloud und Edge Computing
  • Process Mining und Data Mining
  • ERP 2.0
  • Ethisch verantwortete KI
  • Datenhygiene

Distributed Cloud und Edge Computing: Der Bedarf nach flexibel anpassbarer und per Cloud überall verfügbarer Software werde auch 2022 steigen, so Sage. Nachdem die Entwicklung von großen monolithischen Systemen hin zu kleindimensionierten Microservices bereits klar erkennbar sei, ziehe nun mit der Distributed Cloud auch die dahinterstehende Infrastruktur nach. Mit diesem Architekturansatz gibt es kein zentrales Rechenzentrum mehr, sondern die Rechnerlast wird auf kleine regionale Clouds aufgeteilt. Diese Infrastruktur von vernetzten und verteilten Servern bietet nach Überzeugung des Anbieters darüber hinaus die Grundlage für ein Konzept, das sich daraus direkt ableitet: Edge Computing. Ziel ist es dabei, Server und Applikationen näher an den Ort zu bringen, wo die Daten entstehen, und so deren Verarbeitungszeit spürbar zu verkürzen.

„Der entscheidende Vorteil der Distributed Cloud und des Edge Computings ist neben der geringeren Latenz und besseren Performance eine höhere Ausfallsicherheit, da die einzelnen Regional-Clouds unabhängig voneinander arbeiten können. Das bedeutet: Sollte ein Cloud-Server ausfallen, zieht dies nicht den Ausfall des gesamten Systems nach sich“, erläutert Oliver Rozić, Vice President Product Engineering bei Sage.

Die Nachfrage nach Distributed Cloud und Edge Computing werde 2022 vor allem durch datenintensive Anwendungen etwa im Bereich Machine Learning vorangetrieben, so Rozic weiter.

Process Mining und Data Mining: Auch im Jahr 2022 werden viele Unternehmen sich auf Unregelmäßigkeiten im Ablauf ihrer Prozesse einstellen müssen – allein schon durch unterbrochene Lieferketten und anhaltende Verknappungen an Bauteilen wie Mikrochips. Vor diesem Hintergrund wird nach Einschätzung von Sage Process Mining an Bedeutung gewinnen – gemeint ist: die systematische Analyse und Auswertung von Geschäftsprozessen. Process Mining hat seinen Ursprung im Data Mining, also der Analyse großer Datenbestände mit dem Ziel, neue Querverbindungen, Muster und Trends zu erkennen. Unternehmen können zum Beispiel mithilfe von Data Mining die Personalisierung ihrer Angebote erhöhen oder Warenkorbanalysen fahren. Beim Process Mining wird dieses Verfahren auf einen kompletten Prozess übertragen. Die darin auftretenden Ereignisse, sogenannte Events, werden dabei logisch hinsichtlich ihrer chronologischen Reihenfolge miteinander verknüpft.

Oliver Rozić erläutert: „Auf dieser Basis lässt sich ein Prozess visualisieren und in Echtzeit analysieren. Voraussetzung dafür sind allerdings voll digitalisierte Prozesse. Nur so ist es möglich, die für Process Mining nötige Datenbasis zu schaffen. Durch die Integration von KI wird es darüber hinaus möglich, noch fundiertere und insbesondere intelligentere, weil präskriptive Analysen zu erhalten. Stichwort Predictive Analytics.“

ERP 2.0: Das Internet of Things (IoT) verbindet Softwareanwendungen, Maschinen, Anlagen und Werkzeuge zu einem integrierten und zunehmend autonom agierenden Gesamtsystem. Dieses produziert täglich eine riesige Menge an Daten. Für sich genommen bieten die erfassten Daten aber noch keinen großen Mehrwert. Erst in einem größeren Kontext entfalten sie ihren Nutzen.

Eine entscheidende Rolle spiele dabei das ERP-System, in dem sämtliche Betriebsinformationen zusammenlaufen und anschließend gefiltert und klassifiziert sowie an die nachgeordneten Anwendungen weitergeleitet werden, so Sage. Der Datenfluss könne vor dem Hintergrund eines derart vernetzten Systems auch über die Grenzen eins Unternehmens hinausgehen und Lieferanten etwa mit einbeziehen. Das ERP-System werde so zu einem Integrations-Hub für das Internet der Dinge.

„Damit wird zugleich eine neue Generation von ERP-Systemen in Unternehmen und Betriebe einziehen“, kommentiert Oliver Rozić und betont gleichzeitig die Anforderungen: „Die entscheidende Voraussetzung für ERP 2.0 ist allerdings, dass sämtliche Komponenten einer IoT-Architektur über standardisierte Schnittstellen mit dem ERP-System integrierbar sind – angefangen bei der Datenbanktechnologie über sämtliche Analysesysteme bis hin zu den entsprechenden Systemen aufseiten externer Geschäftspartner, die ebenfalls Teil des Netzwerks sind.“

Ethisch verantwortete KI: Das Potenzial von künstlicher Intelligenz (KI) ist bekannt und es gibt auch bereits sehr ausgereifte Systeme, in denen sich die Technologie täglich als praxistauglich unter Beweis stellt – wie zum Beispiel in der fortgeschrittenen Datenanalyse. Hier hilft KI, strategische Entscheidungen im Betrieb datengestützt zu fällen. KI werde damit zu einem mächtigen Instrument für Unternehmen, sich im Wettbewerb gegenüber den Marktbegleitern bestmöglich zu positionieren, argumentiert Sage. Die aus KI-Systemen abgeleiteten Erkenntnisse sorgten aber auch immer wieder für kritische Rückfragen. Sie drehen sich etwa rund um die Themen Datenschutz und Compliance und kommen aus den Reihen der Stakeholder derer, die diese Technologie anwenden.

„Vor diesem Hintergrund wird es künftig nicht mehr genügen, KI blindlings im Sinne der eigenen unternehmerischen Ziele zu nutzen. KI wird künftig auch nicht mehr nur unter rein funktionalen Gesichtspunkten, etwa im Blick auf Prozessverbesserung oder Automatisierung gesehen werden“, kommentiert Oliver Rozić.

Vielmehr werde diese Technologie zunehmend auch in ein direktes Verhältnis zu den Stakeholdern, denen sie eigentlich dienen soll, gesetzt. In diesem Zusammenhang gehe es dann auch um Fragen der Fairness, der Gerechtigkeit im Wettbewerb und der Transparenz gegenüber Kontrollbehörden.

Datenhygiene: Der Wert von Daten als Basis für verlässliche Unternehmensentscheidungen wird zunehmend erkannt. Mit den exponentiell wachsenden Datenmengen, die Betrieben zur Verfügung stehen, wird aber auch die Frage nach der Datenqualität lauter werden. Im Kern geht es um die Vermeidung von Dirty Data. Eine Herausforderung vieler Unternehmen ist vor diesem Hintergrund die schiere Anzahl der betrieblichen Datenquellen und damit die Fragmentierung von Daten, die oft aus veralteten Systemen, in unterschiedlichen Formaten, Metadaten, Formularen und nicht mehr zeitgemäßen Datenbankformaten vorliegen. Im Ergebnis führt dies zu geringer Datenqualität.

„Datenqualitätsmanagement wird deshalb zunehmend in den Fokus unternehmerischen Handelns rücken. Hierbei geht es darum, die Datenqualität von vorneherein sicher zu stellen und zu verhindern, dass Dirty Data überhaupt erst entsteht“, so Oliver Rozić.

Eine Vorausetzung für diese vorausschauende Form der Datenhygiene ist Data Governance. Immer mehr Unternehmen werden sich deshalb aller Voraussicht nach ein Regelwerk für den Umgang mit Daten im Unternehmen geben.