Foto von Benjamin Paaßen

Herr Professor Paaßen, wie fair ist eigentlich KI?

Künstliche Intelligenz gilt vielen als sachlich, weil sie keine eigenen Interessen hat. Doch oft beruhen ihre Entscheidungen auf verzerrten Daten. Eine Veranstaltung der Landeszentrale stellt am 22. Oktober die (Un-)Fairness der KI zur Diskussion. Mit dabei: Benjamin Paaßen, Juniorprofessor für Wissensrepräsentation und maschinelles Lernen an der Universität Bielefeld. Wir haben vorab mit ihm gesprochen.

Herr Prof. Paaßen, was genau bedeutet im Zusammenhang mit Künstlicher Intelligenz eigentlich Fairness oder Unfairness
In der Forschung schauen wir uns vor allem Unfairness an. Darunter verstehen wir ganz verschiedene Dinge. Zwei praktische Beispiele für gruppenbezogene Unfairness: Im US-Strafrecht gibt es ein System namens COMPAS, dessen Algorithmus die Rückfallwahrscheinlichkeit von Angeklagten einschätzen und eine Entscheidung treffen soll, welche Angeklagten bis zur Verhandlung in Untersuchungshaft kommen und welche nicht. Es hat sich gezeigt, dass COMPAS schwarzen Angeklagten systematisch und fehlerhaft höhere Risikoscores gibt als weißen Angeklagten. Ein Bewertungssystem für die Personalauswahl bei Amazon wiederum hat Lebensläufe von Frauen systematisch schlechter bewertet als Lebensläufe von Männern. Das hätte dazu führen können, dass Frauen auch dann weniger oft eingestellt wurden, wenn sie für die ausgeschriebene Stelle gut qualifiziert waren. 

Welche Formen der Diskriminierung treten noch auf?

Es kann auch passieren, dass mir meine Rechte nicht angemessen zugestanden werden, weil ich etwa Informationen, die mir zustehen, von der KI nicht bekomme oder einer Entscheidung nicht anständig widersprechen kann, weil die KI meine Position nicht berücksichtigt. Und es gibt Formen von Unfairness, wo es um Verzerrungen und Stereotype geht. Wenn ich zum Beispiel ChatGPT auf Englisch darum bitte, mir das Bild eines „Doctor“ zu generieren, wird das mit sehr hoher Wahrscheinlichkeit ein männlicher Arzt sein. Frage ich nach „Nurse“, wird die Abbildung fast immer weiblich sein. In der englischen Sprache sind solche Berufsbezeichnungen geschlechtsneutral.

Woher kommen solche Verzerrungen? Die KI hat ja tatsächlich keine eigenen Interessen, wie eine Stelle besetzt wird oder wer ins Gefängnis geht.

Der klassische Fall ist, dass Unfairness aus den Daten kommt, mit denen eine KI trainiert wurde. Bei Amazon wurden eben historisch fast nur männliche Softwareentwickler eingestellt. Das System hat die Bewerbung von Männern auch deshalb bevorzugt, weil sie in den Daten überrepräsentiert waren. Eine zweite Quelle ist die Konstruktion des Systems selber. Ein Beispiel sind Waschbecken, bei denen Lichtsensoren dafür sorgen, dass das Wasser angeht. Die erkennen manchmal die Haut schwarzer Menschen nicht richtig und dann geht das Wasser nicht an. Die Konstruktion des Systems hat dafür gesorgt, dass das System als solches unfair wird. Eine dritte Quelle ist die Einbettung eines bestimmten Systems in eine größere Gesamtheit. Wenn wir zum Beispiel Asylanträge nur noch automatisiert verarbeiten, trifft das per se nur einen bestimmten Personenkreis, der viel Diskriminierung erfährt und gleichzeitig in der Gesellschaft marginalisiert ist.

Wann werden Verzerrungen und Unfairness von KI-Systemen zum gesellschaftlichen Problem?

Das ist dann der Fall, wenn eine bestimmte durch KI getroffene Entscheidung mit großer Wahrscheinlichkeit eintritt und gleichzeitig stark ins Leben der Betroffenen eingreift. Wenn mir einfach unpassende Werbung angezeigt wird, ist das weniger dramatisch. Wenn jemand aufgrund der Entscheidung einer KI unrechtmäßig ins Gefängnis muss oder trotz passender Qualifikation eine Stelle nicht bekommt, sind das schwere Folgen.

Wie können wir mit diesen Risiken der KI einen guten oder wenigstens besseren Umgang finden?

Es gibt mehrere Möglichkeiten gegenzusteuern. Wir haben erstens Gesetze, die versuchen Unfairness zu verhindern. In der europäischen Datenschutzgrundverordnung gibt es Regularien für automatische Entscheidungssysteme. Auch die neue europäische KI-Verordnung reguliert die Fairness und Unfairness von KI-Systemen. In Deutschland gilt das Allgemeine Gleichbehandlungsgesetz auch für KI-Systeme und deren Einsatz. Zweitens haben wir auf technischer Seite Möglichkeiten, entweder die Trainingsdaten oder die Modelle selbst so zu beeinflussen, dass sie möglichst weniger unfair sind. Wichtig ist drittens, dass KI-Entscheidungen nicht für sich stehen, sondern von Menschen überprüft werden. Und viertens haben wir als Einzelpersonen Spielraum. Wir können zum Beispiel Auskunft verlangen, wie die Systeme überhaupt Entscheidungen über uns treffen. Wir können versuchen, Transparenz über die Trainingsdaten zu erreichen. Wir können widersprechen, wenn unsere Daten automatisiert verarbeitet werden sollen. Und wir können in einem demokratischen Prozess mitentscheiden, wie und in welchem Umfang KI-Systeme für welche Zwecke sie eingesetzt werden.

Diskutieren Sie mit Prof. Benjamin Paaßen am 22. Oktober ab 18 Uhr in Düsseldorf. Die Veranstaltung „Wie fair sind KI-Entscheidungen?“ ist eine Kooperation der Landeszentrale für politische Bildung, der Verbraucherzentrale NRW und der KI-Akademie OWL.

Ort: Zentralbibliothek, Konrad-Adenauer-Platz 1, 40210 Düsseldorf
Bitte melden Sie sich für die Veranstaltung an: Zur Anmeldung