Wie regeln wir künstliche Intelligenz? Eine Diskussion zur aktuellen Debatte im Europarat

Wie regeln wir künstliche Intelligenz? Eine Diskussion zur aktuellen Debatte im Europarat

Autor: Michelle Murri

Hochschule Luzern - W Wissenschaftliche Mitarbeiterin
michelle.murri@hslu.ch

Die Regulierungsbestrebungen zur Künstlichen Intelligenz sind im vollem Gange. Der Ad Hoc Ausschuss zur Künstlichen Intelligenz des Europarates diskutiert im Moment die rechtlichen Grundlagen für die künftigen Regelungen. Die Nichtregierungsorganisation ECNL, welche in diesem Ausschuss einsitzt hat, hat im Rahmen des Mozilla Festivals über den aktuellen Stand berichtet und es den Teilnehmenden aus aller Welt erlaubt Ihre Sichtweise und Fragen einzubringen. Ein zentraler Aspekt der Diskussion sind die Auswirkungen einer solchen Regulierung auf Menschenrechte, die Rechtsstaatlichkeit und Demokratie.

Es standen verschiedenste Fragen im Raum, so zum Beispiel worauf beim Design und bei der Entwicklung von KI-Systemen zu achten ist? Wo liegen die Risiken? Wie weisen die Entwicklerinnen nach, das Ihr System menschenrechtskonform ist? Wie sieht es im Rahmen des Risikomanagements mit einer eine periodische Überprüfung dieser KI-Systeme aus? Was meinen wir mit Transparenz? Gibt es bereits gute Beispiele, auf welchen wir aufbauen können?

Mit der gesetzlichen Grundlage möchte man nicht nur die Mitgliedstaaten des Europarates, so auch die Schweiz, sondern auch Unternehmen verpflichten. Es ist sehr wahrscheinlich, dass die Regulierung einen globalen Standard setzt und auch einen Einfluss auf die Schweiz haben wird.

Herausforderungen und Lösungsansätze

Umang Bhatt thematisierte gleich zu Beginn die Herausforderungen, die mit dem Begriff des maschinellen Lernens zusammenhängen. Ein zentraler Aspekt ist aus seiner Sicht die Notwendigkeit eines gemeinsamen Verständnisses der Begrifflichkeiten im Sinne der Transparenz und Erklärbarkeit, insbesondere eine transparente und verständliche Kommunikation gegenüber den Endnutzenden. In einer aktuellen Untersuchung zeigt sich, dass Organisationen ihre Systeme intern transparent und verständlich präsentieren, um das KI-System zu testen und zu verbessern. Diese transparente und verständliche Kommunikation fehlt jedoch gemäss der Untersuchung bisweilen grösstenteils gegenüber den Endnutzenden.


Dabei darf nach der Referentin Juliana Novaes die Praktikabilität der Regelungen und die Mehrheitsfähigkeit im Europarat nicht vergessen werden. Die Regulierung soll sich an den existierenden rechtlichen Regelungen wie den Menschenrechten, Privatsphäre und Nicht-Diskrimination orientieren. Die wirtschaftlichen Interessen spielen eine wesentliche Rolle. Werden beispielsweise zu hohe Standards gesetzt haben diese nur eine geringe Chance auf Akzeptanz und auch die Durchsetzbarkeit wird erschwert.


Im nächsten Referat von Pascal Wiggers lag der Schwerpunkt in der Entwicklung verantwortungsvoller KI. Traditionell wird bei der Entwicklung der Endnutzende in den Fokus gerückt (Human-Centred-Design). Dies stellt sich als ungenügend heraus, wie es das folgende Beispiel anschaulich zeigt:

Ein smartes Navigationssystem ist die Benutzenden eine gute Lösung. Gibt es Stau gibt, wird der Nutzende durch das Navi darauf hingewiesen und erhält Vorschläge für schnellere Routen. Was ist aber mit Leuten die dieses System nicht besitzen? Was ist mit dem Stau der dadurch an anderen Orten entsteht? Welche Personen liefern die Daten, welche für die funktionsfähige KI benötigt werden? Welche werden hierbei nicht beachtet? Das Produkt orientiert sich am Endnutzenden. Die Auswirkungen auf die Allgemeinheit/ Öffentlichkeit werden ausser Acht gelassen. Es könnten weitere Beispiele z.B. AirBnB angefügt werden.

Um ein verantwortungsvolles KI-System zu schaffen, braucht es einen weiteren Blickwinkel (auch zukunftsorientiert), bei dessen Entwicklung bereits indirekte Stakeholder und ungewollte Konsequenzen mitberücksichtigt werden.

So sind folgende Punkte bei der Entwicklung von verantwortungsvoller KI einzuhalten:

  • Laufend die Bedürfnisse der potentiellen Nutzenden überprüfen
  • Daten nur mit Einwilligung der Personen erheben und diese über die Nutzung und über ihre Vorteile aufklären
  • Datensammlungen öffentlich zugänglich machen
  • Rückkopplung zum Nutzenden, der die Daten einsehen kann und Inputs einbringt
  • Damit keine Diskriminierung im Algorithmus entsteht Daten von unterschiedlichsten Personen (auch Minderheiten) berücksichtigen
  • Nicht nur erfolgreiche KI-Anwendungen unterstützen, sondern z.B. auch Datensets aus verschiedenen kleineren Sprachregionen berücksichtigen
  • Personen in die Entwicklung einbeziehen, welche die Feinheiten des «Problems», dass durch KI gelöst werden soll, verstehen

Das letzten Referat von Job Spierings fokussierte sich auf die Anwendbarkeit von Richtlinien auf den Einsatz von Algorithmen. Dieses Referat stützt sich auf zwei Fälle in den Niederlanden. Im ersten Fall geht es um das Aufspüren von Internet-Betrug durch die Polizei und im zweiten um die Wahrscheinlichkeit von arbeitslosen Personen innerhalb eines Jahres eine bezahlte Arbeitsstelle zu finden. Diese Daten wurden ausgewertet und man kam zum folgenden Ergebnis:

  • Das System rund um die Künstliche Intelligenz ist so komplex, dass die verschiedenen Stakeholder kein realitätsnahes Arbeitsmodell für das System als Ganzes haben und je nur einzelne Teile davon verstehen. Hierbei ist die zeitliche (verschiedene Phasen in der Entwicklung und Anwendung) und örtliche Distanz (verschiedene Departemente sowie in- und externe Stakeholder) die kritischen Faktoren. Zudem gibt es eine grosse Gefahr von systematische Risiken, die nicht immer ohne Weiteres ersichtlich sind oder erst nach einer gewissen Zeit erkannt werden.
  • Für alle Stakeholder gelten folgende 4 Aspekte:
  • Verhältnismässigkeit: Algorithmus und die dazugehörigen Prozesse sind erfüllen die Voraussetzungen der Verhältnismässigkeit (im Fallbeispiel öffentlich-rechtliche Organisationen)
  • Folgenabschätzung: Folgen des Algorithmus auf die Entscheidung/den Prozess, Einfluss der Entscheidung auf die Bürger
  • Verantwortlichkeit: Wer, wann, wo?
  • Erklärbarkeit: wem und zu welcher Zeit? Öffentliche Erklärbarkeit, Peer-Erklärbarkeit, Erklärbarkeit einer spezifischen Entscheidung

Fazit

In der anschliessenden Diskussion wurde klar, dass man sich bereits in dieser kleinen Gruppe bei vielen Punkten uneins ist. Soll man sich für hohe Standards einsetzen oder für tiefere, dafür akzeptiertere? Sollen die Nutzenden in den Entwicklungsprozess eingeschlossen werden, um ethische Punkte zu implementieren? Und wie soll dies geschehen?

Die laufende Entwicklung zur rechtlichen Regelung im Europarat lassen sich hier verfolgen. Es bleibt bestimmt spannend.

Weiterführende Informationen

Dieser Beitrag basiert auf der Veranstaltung «Our voice in AI regulation debate – is anyone listening» die im Rahmen des Mozilla Festivals 2021 stattgefunden hat.

Das Mozilla Festival fand vom 8. bis 19. März 2021 statt. Der jährliche durch die Mozilla Foundation durchgeführte Event befasst sich mit Themen rund um die Gesundheit des Internets und der Künstliche Intelligenz.

Das von der Mozilla Foundation unterstützte Forschungsprojekt VA-PEPR, das an der Hochschule für Luzern angesiedelt ist, befasst sich mit Praktiken und Routinen im Umgang mit digitalen Sprachassistenten.


Bhatt, U. (2020). Machine learning explainability for external stakeholders.
Wiggers , P., Pauwels, E., & Piersma, N. (2020). Responsible design of technical applications of AI. 
Spierings, J., & van der Waal, S. (2020). Algorithm: The man in the machine.

Kommentare

0 Kommentare

Kommentar verfassen

Danke für Ihren Kommentar, wir prüfen dies gerne.