Foto: TUM

Heftig diskutiert wird zurzeit der Vorschlag von Wissenschaftlern, bei der Weiterentwicklung Künstlicher Intelligenz eine Pause einzulegen. «Das ist nicht hilfreich», sagt der aus Solothurn stammende Rechtswissenschaftler Urs Gasser, Digitalexperte an der Technischen Universität München (TUM). Aber eine Art KI-TÜV wäre seiner Ansicht nach durchaus sinnvoll.

Rund 3000 Forscher und Forscherinnen aus dem deutschsprachigen Raum haben in einem offenen Brief erhebliche Bedenken gegen Künstliche Intelligenz geäussert, die schwerwiegende Risiken für Gesellschaft und Menschheit bergen könnte. Deshalb solle mindestens ein halbes Jahr lang keine Technologie mehr weiterentwickelt werden, die leistungsfähiger sei als der kürzlich vorgestellte GPT-4, Nachfolger des Sprachmodells ChatGPT. In dieser Zeit sollten mit unabhängigen Experten Sicherheitsregeln eingeführt werden. Falls KI-Labore nicht freiwillig eine Pause einlegen, solle eine solche von Regierungen angeordnet werden.

U.Gasser
Leider absorbiere der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiert wäre, sagt Gasser. Richtig sei, dass heute wohl niemand wisse, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich und harmlos seien.

Eine Pause beim Training von KI liesse sich aber nicht global durchsetzen und die geforderten Regulierungen nicht innerhalb von nur sechs Monaten einführen. Er sei aber durchaus überzeugt, «dass eine schrittweise Weiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismen» dringend nötig sei.
Ablenkmanöver
Die Initiative male das Schreckgespenst einer menschenähnlichen Künstlichen Intelligenz an die Wand. Das lenke von einer ausgewogenen Diskussion der Risiken und Chancen derjenigen Technologien ab, die derzeit bereits auf dem Markt verfügbar seien.

In den zurückliegenden Jahren seien bereits ethische Prinzipien entwickelt worden, welche die Entwicklung und Anwendung von KI leiten sollten. Gasser: «Namentlich die OECD-Grundsätze zu Künstlicher Intelligenz verbinden ethische Prinzipien mit mehr als 400 konkreten Werkzeugen. Auch die US-Standardisierungsbehörde NIST hat eine 70-seitige Richtlinie erlassen, wie Verzerrungen in KI-System entdeckt und bearbeitet werden können. Im Bereich Sicherheit von grossen KI-Modellen sehen wir neue Methoden wie `Constitutional AI´, mit der ein KI-System vom Menschen Prinzipien des guten Verhaltens lernt und dann die Ergebnisse einer anderen KI-Anwendung überwachen kann. Gerade bei Sicherheit, Transparenz und Datenschutz gibt es inzwischen grosse Fortschritte und sogar spezialisierte Prüfunternehmen»

Fotos: TUM
Jetzt komme es darauf an, ob und wie solche Instrumente auch eingesetzt werden. «Sind Plug-ins erlaubt, welche die Interaktion zwischen Nutzern, Kontakte oder andere persönliche Daten aufzeichnen?» Dass hier vieles noch unklar sei, zeige das einstweilige Verbot und die Eröffnung einer Untersuchung gegen den Entwickler von ChatGPT durch die italienische Datenschutzbehörde.
Aus der Technikgeschichte wüssten wir, so Gasser, dass der «gute» oder «schlechte» Einsatz von Technologien schwer voraussehbar sei, «dass Technologien oft beides mit sich bringen und Negatives auch unbeabsichtigt sein kann». Nötig seien klare rote Linien und Verbote. Experten sollten jeweils mögliche Risiken prüfen.

«Das ist keine neue Idee», sagt Gasser. «Von KFZ-Zulassungsverfahren bis TÜV und Buchprüfung haben wir in verschiedensten Lebensbereichen solche Prüfungsverfahren und Instanzen im Einsatz. Bei bestimmten KI-Methoden und -Anwendungen ist die Herausforderung allerdings ungleich grösser, auch weil sich gewisse Systeme mit der Anwendung selbst weiterentwickeln, also dynamisch sind».

Auf EU-Ebene wird derzeit ein KI-Gesetz finalisiert, mit dem gewährleistet werden soll, dass die Technologien sicher sind und die Grundrechte wahren. Der Entwurf sieht die Einstufung von KI-Technologien nach ihrem Risiko für diese Prinzipien vor, mit der möglichen Konsequenz von Verboten oder Transparenzpflichten. Geplant sei zum Beispiel das Verbot, Privatpersonen in ihrem Sozialverhalten zu bewerten, wie es China tut.


Urs Gasser leitet seit 2021 den Lehrstuhl für Public Policy, Governance and Innovative Technology an der Technischen Universität München. Er ist Dekan der TUM School of Social Sciences and Technology und Rektor der Hochschule für Politik München (HfP) an der TUM. Zuvor war er Executive Director des Berkman Klein Center for Internet & Society an der Harvard University und Professor an der dortigen Harvard Law School.

www.tum.de