ABS, ASR, GPS & Co.: Fahrer vertrauen auf intelligente Assistenzsysteme: Smarte Technologien für technologische Intelligenz

Sicherheit ist nicht nur beim Betrieb von Intralogistiksystemen, sondern auch bei der Anwendung von künstlicher Intelligenz (KI) entscheidend.

 Bild: Alexander Limbach/AdobeStock (Montage: Bartl)
Bild: Alexander Limbach/AdobeStock (Montage: Bartl)
Matthias Pieringer
Digitalisierung

Wer sich heute in ein Fahrzeug setzt, dem stehen während der Fahrt viele Technologien zur Seite, die orchestriert dafür sorgen, möglichst sicher und umweltfreundlich anzukommen. ABS (Antiblockiersystem), ASR (Antischlupfregelung) und GPS (Global Positioning System) sind Beispiele für solche intelligenten Assistenzsysteme. Der Fahrer vertraut auf die sofortige Unterstützung durch die jeweiligen Assistenten, falls es trotz vorausschauender und angepasster Fahrweise zu einer Extremsituation kommt. Die installierten Sensoren und Programmlogiken sind unersetzbar, wenn es Personen zu schützen und das Fahrzeug wieder unter Kontrolle zu bringen gilt.

Die Technik überwacht unauffällig im Hintergrund die Aktionen des Fahrers und greift ausschließlich dann ein, wenn es notwendig ist. Sie ist grundsätzlich nicht bevormundend, sondern unterstützend, wenn die Situation einer rein manuellen Kontrolle zu entgleiten droht. Wie sieht es aber nun im umgekehrten Fall aus? Welche Assistenzmöglichkeiten haben intelligente digitale Algorithmen und Modelle, wenn diese nicht mehr „weiterwissen“?

Die Experten von SSI Schäfer sind sich bewusst, dass Vertrauen in Lagersysteme ein Vertrauen in die Hardware, die Software und nun auch darüberhinausgehend in die entsprechenden intelligenten Ansätze und Modelle für eine moderne, sich den Bedürfnissen des Nutzers anpassende Intralogistik impliziert. Damit einhergehend ist es unabdingbar, eine vergleichbare Sicherheit bei der Nutzung von Modellen, Methoden und Anwendungen von Machine Learning (ML) und künstlicher Intelligenz (KI) nicht nur anzudenken, sondern zu fordern – wie es auf technischer Ebene auch für den sicheren Betrieb beispielsweise von Regalbediengeräten und Robotern unumgängliche Vorschrift ist. Wie sehen die menschlichen Assistenzsysteme, die digitalen Schutzzäune, die virtuellen Prozesssicherungsmechanismen und die Cyber-Notabschaltungen aus, die mit dem Nutzen von smarten, eventuell nicht plausibilisierbaren Algorithmen in Verbindung gebracht werden müssen?

Kontrollierende Instanz

Wie zu Beginn dargelegt, können Fehler in der analogen, menschlichen Anlagenbedienung drastische Folgen haben, wenn diese nicht durch eine kontrollierende Instanz frühzeitig erkannt und damit vermieden werden. Aber auch in der digitalen Welt bedarf es der entsprechenden Kontrollmöglichkeiten, die gemeinsam mit den neuen Lagertechnologien die Sicherheit im Prozessablauf sicherstellen.

Der erste – wenn man so möchte – essenzielle Paradigmenwechsel ist die holistische Betrachtung des Modells zusammen mit den damit verbundenen Daten. Das Trainieren von Modellen mit dazugehörigen Daten bedingt ein System, welches das in den Datensätzen enthaltene Wissen digital erworben hat. Genauso wie ein Schulkind, das bis dato nur die mathematischen Grundrechenarten gelernt hat, nicht in der Lage sein wird, eine Differenzial- oder Integralrechnung sinnvoll zu lösen und dies auch so artikulieren wird, gilt es auch für ein ML-Modell, ein trainingsdatengestütztes „Bewusstsein“ für das Gelernte zu schaffen.

Das System muss in der Lage sein, noch bevor die KI-Algorithmen in Aktion treten, die vorgegebene Aufgabenstellung mit der Daten- und Wissensbasis zu vergleichen, um die eigene „Kompetenz“ in Bezug auf die aktuell gestellte Aufgabe selbstständig bewerten zu können. Gegebenenfalls bedarf es einer Erweiterung des Modells, um Probleme ungelöst zu belassen und dies umgehend auch so zu kommunizieren, anstatt fehlerhafte Entscheidungsgrundlagen zu liefern. Insbesondere die Volatilität des aktuellen Geschäftsgebarens birgt die Gefahr, früher als erwartet in Bereiche zu geraten, die auch der Computer noch nicht „kennengelernt“ hat. Jedoch ist die Erwartungshaltung generell, dass der Computer immer eine Antwort liefert und damit immer die richtige Antwort errechnet.

Damit bedarf es in vergleichbarer Art und Weise einer Qualitätssicherung für KI-basierte Umgebungen, wie dies mit Reviews und anderen Kontrollen durch geeignete Mitarbeiter oder Vorgesetzte in der modernen Arbeitswelt für viele Abläufe vorhanden ist. Diese „Dienstaufsicht“ für intelligente Algorithmen ist dann gegeben, wenn das eigentliche Resultat des Algorithmus um einige essenzielle Informationen erweitert wird. Diese sind zumindest:

Werbeinblendung:
Advertorial

GO! – Starke Partnerschaft für Top-Service

Robuste Ladungsträger für extreme Umläufe – Craemer Pooling-Paletten aus Kunststoff

Wie gut konnte die aktuelle Aufgabenstellung auf die bisher gelernten Daten zurückgeführt werden? Wie sehr vertraut der Algorithmus selbst auf Basis der gelernten Informationen diesem Ergebnis?

Die aktuelle Aufgabenstellung mit der bisher gelernten Datenbasis zu vergleichen, war schon in der Vergangenheit möglich. Für diese Distanzbestimmung müssen Metriken mitentwickelt werden, welche die Entsprechung der Aufgabe mit gelerntem digitalem Wissen ermittelt.

Google hat sich 2016 mit der Idee eines sogenannten „Kill-Switch“ für KI- und ML-Anwendungen beschäftigt, und im Onlinemagazin von Forbes wurde dies im Frühjahr 2020 im Angesicht von fehlgeleiteten Bots erneut thematisiert. Wenn die Datenbasis und die bisher computergestützt gelernten Methoden zu einem Fehlverhalten führen, müssen sie mit einem digitalen „Not-Aus-Knopf“ gestoppt werden können.

SSI Schäfer ist sich dieser Herausforderung bewusst und entwickelt Softwarelösungen, um den Einsatz intelligenter Lösungen zu ermöglichen, zugleich aber die Auswirkungen von fehlerhaften Entscheidungen frühzeitig zu erkennen und zu minimieren. Mit den bestehenden „WAMAS“-Methoden und Lösungsansätzen stehen dann weiterhin robuste und bewährte Methoden für die Aufrechterhaltung des Lagerbetriebs zur Verfügung. mp

Autoren: Martin Frischenschlager, Vice President, Global Head of Product Line Software, und Markus Klug, Data Science & Simulation, beidein der Business Unit Logistics Solutions, SSI Schäfer, Friesach bei Graz (Österreich).

Wie eine künstliche Intelligenz Entscheidungen trifft

Künstliche Intelligenz errechnet Wahrscheinlichkeiten für Optionen auf Basis des bisher Gelernten und entscheidet sich für die wahrscheinlichste Variante, wenn diese einen vorgegebenen Sicherheitsschwellwert (zum Beispiel > 80 Prozent) übertrifft. Eine KI wird im Allgemeinen keine Aussage mit 100 Prozent Sicherheit treffen, eine gewisse Unsicherheit bleibt naturgemäß. Für die meisten Optimierungsverfahren in der Logistik gilt das Gleiche. Die metaheuristischen Verfahren können in einer vorgegebenen Zeit auch immer nur einen kleinen Teil aller Lösungen berechnen und versuchen, mögliche Lösungsvarianten mit geringer Aussicht auf eine Verbesserung auszuschließen. Die Möglichkeit ein Ergebnis zu erhalten, welches noch weit vom tatsächlichen unbekannten Optimum liegt, oder die Situation, dass ein KI-System nicht antwortet, weil es keine Antwort geben kann, von der es selbst „überzeugt“ ist, muss in allen Anwendungen immer berücksichtigt werden. Quelle: SSI Schäfer

 

 

 

◂ Heft-Navigation ▸

Artikel ABS, ASR, GPS & Co.: Fahrer vertrauen auf intelligente Assistenzsysteme: Smarte Technologien für technologische Intelligenz
Seite 24 bis 25 | Rubrik MACHINE LEARNING