Nach «Wutbürger» und «Abwrackprämie» könnte «Künstliche Intelligenz» ein «Wort des Jahres» sein. Aber wer prüft, ob eine «KI» auch wirklich zuverlässig ist? Vor allem für sicherheitskritische Anwendungen ist das wichtig. Ein Zentrum für Cyber Cognitive Intelligence will das messen und stellt Kriterien auf.

Die Erwartungen sind hoch: Künstliche Intelligenz soll die Produktion flexibilisieren, die Wartung vorausschauend planen, den Warenfluss optimieren, die Logistik automatisieren. «Tatsächlich wurden in den letzten Jahren – auch am Fraunhofer IPA – zahlreiche vielversprechende KI-Algorithmen und -Architekturen entwickelt, beispielsweise für Computervision, Mensch-Maschine-Schnittstellen oder vernetzte Robotik», berichtet Xinyang Wu vom Zentrum für Cyber Cognitive Intelligence am Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) . Was jetzt fehle, sei die praktische Umsetzung. «Zwischen Forschung und Anwendung klafft eine Lücke». In der Industrie würden neue KI-Anwendungen deshalb nur zögerlich eingesetzt. Wu: «Sie gelten als nicht zuverlässig genug für sicherheitskritische Anwendungen.»

Die Vorbehalte: «Wenn wir mit unseren Partnern aus der Industrie sprechen, wird schnell klar, dass die Unternehmen autonome und selbstlernende Roboter nur dann nutzen wollen, wenn sie absolut zuverlässig arbeiten, und wenn man mit hundertprozentiger Sicherheit sagen kann, dass die Maschinen keine Gefahr für den Menschen darstellen».

Bilder: Fraunhofer IPA

Genau das lasse sich bisher nicht beweisen. Es gebe weder Normen noch standardisierte Tests. Diese wären jedoch dringend nötig, betont Wu: «Ziel muss sein, die Entscheidungen, die von Algorithmen gefällt werden, zertifiziert und transparent zu machen. (...) Wenn eine Maschine selbstständig Entscheidungen fällt, dann muss ich – zumindest im Nachhinein – herausfinden können, warum sie in einer bestimmten Situation einen Fehler gemacht hat». Nur so lasse sich verhindern, dass derselbe wieder auftritt. Black-Box-Modelle, bei denen man die Entscheidung der Algorithmen nicht nachvollziehen könne, seien nach IPA-Einschätzung deshalb nicht direkt für den Einsatz geeignet.

Doch wie überprüft man Künstliche Intelligenz? Das IPA-Team am Zentrum für Cyber Cognitive Intelligence hat dafür ein White Paper erstellt. Das Ergebnis sind fünf Kriterien, die KI-Systeme erfüllen sollten, um als sicher zu gelten:

  • Alle Entscheidungen der Algorithmen müssen für Menschen verständlich sein.
  • Die Funktion der Algorithmen muss vor ihrem Einsatz mit Methoden der Formalen Verifikation geprüft werden.
  • Darüber hinaus ist eine statistische Validierung notwendig, besonders wenn die Formale Verifikation wegen Skalierbarkeit für den bestimmten Anwendungsfall nicht nutzbar ist. Dies kann durch Testläufe mit grösseren Datenmengen beziehungsweise Stückzahlen überprüft werden.
  • Auch die Unsicherheiten, die den Entscheidungen Neuronaler Netze zu Grunde liegen, müssen ermittelt und quantifiziert werden.
  • Während des Betriebs müssen die Systeme permanent überprüft werden, beispielsweise durch Online-Monitoring. Wichtig ist dabei die Erfassung von Input und Output – also von Sensordaten und den aus deren Auswertung resultierenden Entscheidungen.

Die fünf Kriterien könnten die Grundlage bilden für eine – künftig – standardisierte Prüfung.

www.ipa.fraunhofer.de