Whitepaper: Künstliche Intelligenz zwischen Chance und Gefahr

Plattform Lernende Systeme widmet sich den Spannungsfeldern Maschinellen Lernens.

Welche Cyberrisiken entstehen bei der Nutzung von KI-Anwendungen? Fragen wie dieser widmet sich die Plattform Lernende Systeme. (Foto: Weissblick, Fotolia)
Welche Cyberrisiken entstehen bei der Nutzung von KI-Anwendungen? Fragen wie dieser widmet sich die Plattform Lernende Systeme. (Foto: Weissblick, Fotolia)
Therese Meitinger

Die vom Bundesministerium für Bildung und Forschung (BMBF) initiierte Plattform Lernende Systeme (PLS) hat sich zum Ziel gesetzt, Künstliche Intelligenz (KI) und Maschinelles Lernen im Sinne der Gesellschaft zu gestalten. Im aktuellen Whitepaper „Künstliche Intelligenz und IT-Sicherheit” analysiert die Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der PLS eines der Spannungsfelder der KI. Auch das Karlsruher Institut für Technologie (KIT) war daran beteiligt.

Der Einsatz von KI erzeugt eine neue Dynamik für die IT-Sicherheit, argumentiert das Whitepaper. Daraus ergeben sich aus Sicht der Autoren akute Handlungsfelder für Politik, Forschung, Behörden und Unternehmen. Beispielsweise sollten KI-Systeme mit einer technischen Rückfallebene ausgestattet sein, um den Minimalbetrieb des Gesamtsystems stets zu gewährleisten. Für kleinere und mittlere Unternehmen fordern die Verfasser Beratungsangebote, um Kompetenzen im Bereich der IT-Sicherheit im Hinblick auf den Einsatz von KI-Systemen zu erweitern. Internationale Initiativen sollen, so die Wissenschaftler, eine möglichst globale, kohärente IT-Sicherheitspolitik fördern, die grenzüberschreitende Hackerangriffe auch grenzüberschreitend verfolgt und ahndet.

KI macht bisher unbekannte Cyber-Attacken möglich

KI-Methoden könnten zwar helfen, IT-Systeme sicherer zu machen, erwartet Prof. Jörn Müller-Quade, der am KIT die Forschungsgruppe Kryptographie und Sicherheit leitet und Initiator des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT ist.

„Aber es wird auch derzeit noch unbekannte Angriffe mit KI geben“, sagt er. Auch das Zerstörungspotenzial klassischerer Angriffswaffen von Cyberkriminellen werde sich durch KI vervielfachen, warnt Müller-Quade: „Angriffe werden in Zukunft vermutlich erfolgreicher sein, weil Kriminelle mittels KI automatisiert aus vergangenen Angriffen lernen können.“

Darüber hinaus besteht laut des Whitepapers die Möglichkeit, dass Social Engineering zum Massenphänomen werde. Dabei handelt es sich um Angriffe, bei denen Menschen so getäuscht werden, dass sie dem Angreifer im falschen Vertrauen freiwillig Passwörter oder Bankdaten verraten. KI-Systeme könnten künftig hocheffizient online verfügbare Informationen sammeln, um etwa eine E-Mail auf die Zielperson einer Attacke zuzuschneiden.

Auch KI-Systeme selbst werden künftig womöglich Ziel von Hackern, fürchten die Verfasser des Whitepapers. Sensible Daten, beispielsweise in der Gesundheitsversorgung, gilt es vor Missbrauch zu schützen. Datenschutzerhaltende Lernalgorithmen und die Resilienz von KI-Systemen gegen Manipulation müssen deshalb noch intensiver erforscht werden, fordern die Autoren. Eine Möglichkeit, Angriffe auf KI-Systeme einzudämmen, sieht Müller-Quade darin, diese mit klassischen Systemen zu überwachen, die eine Art Schutzreflex auslösen könnten: „Wenn man auf eine heiße Herdplatte fasst, entscheidet auch nicht die Intelligenz darüber, ob man die Hand auf der Herdplatte lässt oder wegzieht.“