Das wir gewinnt
Ein junger Mann arbeitet an einem Laptop. Um ihn herum sitzen weitere Personen mit und ohne Behinderung und arbeiten ebenfalls.

Künstliche Intelligenz und Diskriminierung

Kennen Sie das? Der Sprachassistent versteht Sie nicht, der Chatbot verwendet ableistische Sprache und das KI-Bild zeigt wieder nur Stereotype. Viele Menschen mit Behinderung machen diskriminierende Erfahrungen mit Künstlicher Intelligenz. Warum ist das so? Verspricht KI nicht objektiver und fairer zu sein als Menschen? Wir erklären, warum KI nie neutral und manchmal sogar diskriminierend ist. Und was wir tun können, um das zu ändern.

Was hat Künstliche Intelligenz mit Diskriminierung zu tun?

Stellen Sie sich vor, Sie bewerben sich auf einen Job. Schon nach einigen Stunden bekommen Sie eine Absage. Sie werden nicht mal zum Bewerbungsgespräch eingeladen. Sie sind enttäuscht und verwundert. Eigentlich haben Sie genau das richtige Profil für die Stelle. Auch die Begründung für die Absage ist dürftig: Die Firma nutzt ein automatisiertes Auswahlverfahren. Eine KI hat Sie aussortiert. Warum genau, kann man Ihnen nicht sagen. Man versichert Ihnen: Mit Ihrer Behinderung habe es nichts zu tun. Überprüfen können Sie das aber nicht.

Klingt verrückt? Tatsächlich passiert genau das immer wieder. Einigen Schätzungen zufolge nutzen in den USA schon etwa 70 Prozent aller Arbeitgeber*innen Künstliche Intelligenz in ihren Bewerbungsverfahren (ein Beispiel dafür finden Sie weiter unten). Wie die Systeme genau funktionieren und nach welchen Kriterien sie entscheiden, ist oft nicht nachvollziehbar. Und immer wieder kommt es dabei zu Diskriminierung. In einer Studie haben Forschende der University of Washington Bewerbungen von ChatGPT bewerten lassen. Sie wollten herausfinden, ob der Chatbot dabei fair vorgeht. Das Ergebnis: Bewerbungen, in denen Hinweise auf eine Behinderung vorkamen, wurden schlechter bewertet. Auf Nachfrage erfand der Chatbot Gründe dafür, weshalb eine Behinderung für die Stelle ein Problem sein könnte. In einer anderen Studie fanden Forschende heraus, dass einige große Sprachmodelle – die Basis von Programmen wie ChatGPT – Vorurteile und falsche Informationen über Menschen mit Behinderung enthalten. Außerdem neigen sie dazu, Texte, in denen Behinderungen erwähnt werden, als toxisch oder negativ einzustufen. 

Künstliche Intelligenz ist nicht neutral

Künstliche Intelligenz ist also nicht neutral oder objektiv. KI-Modelle und Programme, die auf ihnen basieren, sind immer nur ein Spiegel der Daten, von denen sie lernen. Und ein Spiegel der Menschen, die sie programmieren. Sie übernehmen Vorurteile, die in unserer Gesellschaft bereits existieren. Was passiert also, wenn eine KI mit Texten trainiert wird, in denen von Ärzten nur in der männlichen Form die Rede ist? Oder mit Bildern, die Ärzte als alte Männer in weißen Kitteln zeigen? Das KI-System wird lernen, dass ein Arzt eben alt und männlich ist und einen weißen Kittel trägt. Alles, was von dieser Norm abweicht, ist für die Systeme nicht relevant. KI-Programme müssen also nicht mal “absichtlich” diskriminieren: Sie haben es einfach nicht anders gelernt.

Davon betroffen sind vor allem Menschen, die unterrepräsentiert sind. Menschen mit Behinderung oder People of Color zum Beispiel. Sie sind statistisch nicht relevant. Oft ist es für die Betroffenen außerdem schwer zu erkennen, wenn sie durch den Einsatz von KI diskriminiert werden. Und selbst wenn es auffällt, ist es schwer, sich dagegen zu wehren. Der Nachweis ist mit viel Aufwand verbunden und technisch nicht immer möglich. Es besteht also die Gefahr, dass KI Diskriminierung unsichtbar macht – und festschreibt. 

Was ist KI-Bias?

Wenn ein KI-Modell unausgewogen ist, spricht man davon, dass es einen Bias hat (auf Deutsch auch Verzerrung). Wichtig ist: Jedes KI-Modell hat einen Bias. Die Frage ist also nicht ob, sondern nur welchen Bias ein Modell hat. Das hängt davon ab, mit welchen Daten und nach welchen Regeln es trainiert wurde. Doch wie genau entstehen diese Verzerrungen? Im Folgenden beschreiben wir einige der häufigsten Ursachen. 

Wenn eine bestimmte Personengruppe im Datensatz eines KI-Modells nicht, nur selten oder unproportional oft vorkommt, spricht man von einem Repräsentationsbias.

Ein Beispiel: Ein KI-Modell wird in einem selbstfahrenden Auto verbaut. Der Datensatz des Modells enthält keine Bilder oder Beschreibungen von Personen, die einen Rollstuhl benutzen. Nun soll das Auto von alleine bremsen, wenn ein Mensch auf der Straße ist. Da das System eine Person mit Rollstuhl nicht als Menschen erkennt, berechnet es den falschen Bremsweg – und fährt sie an.

Wenn gewisse gesellschaftliche Vorurteile in den Daten bestätigt werden, spricht man von einem Konfirmationsbias. Werden Menschen mit Behinderung in den Trainingsdaten zum Beispiel wiederholt mit bestimmten Eigenschaften in Verbindung gebracht, übernimmt das KI-Modell diese Annahmen.

Ein Beispiel: Ein KI-Modell soll lernen blinde Personen zu erkennen. Es wird mit Bildern trainiert, die weiße Frauen mit Sonnenbrille und Taststock zeigen. Die KI wird annehmen, dass blinde Personen in der Regel weiß und weiblich sind, eine Sonnenbrille tragen und einen Taststock dabei haben. So übernimmt das Modell einen Stereotyp. Es versteht nicht, dass blinde Menschen vielfältig sind und kann diese Vielfalt nicht abbilden.  

Wird ein KI-Modell auf alten Daten trainiert, übernimmt es möglicherweise auch Werte und Annahmen, die nicht mehr zeitgemäß sind. 

Ein Beispiel: Ein KI-System soll Bewerber*innen bewerten. Das System wird mit alten Texten trainiert, in denen Frauen oft zuhause sind und sich um die Kinder kümmern. Männer hingegen werden als fleißige Arbeiter beschrieben. Das System übernimmt diese Annahmen: Frauen sind wohl in der Regel lieber zuhause und Männer besser für die Arbeit geeignet. Also bewertet es Frauen automatisch schlechter und Männer besser, obwohl diese Annahme natürlich falsch ist. 

Welche Beispiele gibt es für Diskriminierung durch KI?

Diskriminierungserfahrungen können manchmal sehr abstrakt wirken. Vor allem für jene, die selbst nicht betroffen sind. Wir haben deshalb einige Beispiele gesammelt, die verdeutlichen, wie Künstliche Intelligenz und Diskriminierung zusammenhängen: 
In England fielen während der Corona-Pandemie einige Schulprüfungen aus. Um den Schüler*innen trotzdem eine Abschlussnote geben zu können, sollten die Lehrer*innen eine Prognose abgeben. Diese Prognose wurde von einem Algorithmus überprüft . Das Ergebnis: Die Note von fast 40 Prozent der Schüler*innen verschlechterte sich. Besonders betroffen waren Schüler*innen in ärmeren Bezirken. Denn: Der Algorithmus bezog sich auf historische Daten, um den Notenschnitt zu berechnen. Schulen, die in der Vergangenheit einen besseren Notendurchschnitt hatten, wurden auch jetzt besser bewertet. Schulen mit einem historisch schlechten Schnitt, schlechter. Schüler*innen und Eltern beschwerten sich erfolgreich. Die Benotung wurde korrigiert.  
In immer mehr Bewerbungsverfahren werden KI-Systeme eingesetzt. Sie bewerten Bewerber*innen oder stellen ihnen eigenständig Aufgaben. In den USA etwa kommen Systeme zum Einsatz , die per Video die Reaktionen von Bewerber*innen auf bestimmte Aufgaben bewerten. KI-Systeme wie HireVue  analysieren Sprachmuster, Tonfall oder Gesichtsbewegungen. Auf Basis der Analyse gibt das System eine Empfehlung ab. Das Problem: Die Programme haben Schwierigkeiten, abweichende Sprechweisen oder Körpersprache einzuordnen. So wurde etwa eine gehörlose Person von einem Bewerbungsverfahren ausgeschlossen, weil die automatische Spracherkennung ihre Sprechweise nicht verstand. Das Feedback der Software: Sie solle an ihrer Kommunikation arbeiten und aktives Zuhören üben.
Auch in der Verwaltung kommen immer öfter KI-Systeme zum Einsatz. In den Niederlanden sollte ein Algorithmus dem Finanzamt dabei helfen, Betrüger*innen zu entlarven . Er sollte automatisch Familien identifizieren, die zu Unrecht Kindergeld bezogen. Das Ergebnis: Zehntausende Familien wurden des Betrugs beschuldigt. Eltern wurden zu hohen Strafen verurteilt. Viele mussten sich verschulden, um die Strafe zahlen zu können. Einige Menschen nahmen sich deshalb das Leben. Erst nach einigen Jahren zeigte sich: Die meisten Familien wurden zu Unrecht beschuldigt. Die Kriterien, mit denen der Algorithmus Familien bewerten sollte, waren rassistisch und sehr ungenau. So wurden zum Beispiel Personen mit Migrationshintergrund, Personen mit doppelter Staatsbürgerschaft oder Alleinerziehende automatisch als verdächtig eingestuft. 
Wer ein Smartphone hat, kennt das vielleicht: Einfach reingucken und das Handy entsperrt sich. Eine KI hilft, das Gesicht zu erkennen. Das funktioniert leider nicht für alle gleich gut. Forscher*innen haben herausgefunden, dass KI-Programme Schwarze Menschen und People of Color schlechter erkennen als weiße Menschen . Das führt regelmäßig zu Problemen. Die  amerikanische Ausländerbehörde ICE zum Beispiel nutzt eine KI-App, um Menschen zu identifizieren, die sich illegal in den USA aufhalten. Dabei wurden bereits mehrfach Menschen falsch identifiziert. In der EU und in Deutschland ist dieser Einsatz von KI verboten.   

Was kann ich tun, wenn ich diskriminiert werde?

Haben Sie diskriminierende Erfahrungen mit Künstlicher Intelligenz gemacht? Dann können Sie sich zum Beispiel an die Antidiskriminierungsstelle des Bundes wenden. Dort gibt es auch Angebote in Leichter Sprache und Gebärdensprache. Eigentlich sollte es in Deutschland seit dem 02. August 2025 auch eine zentrale Aufsichtsbehörde für Künstliche Intelligenz geben. Das legt die europäische KI-Verordnung fest. Dort sollen sich auch Verbraucher*innen beschweren können. Bisher gibt es diese Behörde nicht. Verbraucherschützer*innen bemängeln das .

Diskriminierung verhindern: So kann KI fairer werden

Was können wir tun, um Diskriminierung durch Künstliche Intelligenz zu verhindern? Wie können wir KI inklusiver und gerechter gestalten? Dafür gibt es einige Möglichkeiten: 

Gesetze und Regeln

Wichtig ist, dass es Gesetze gibt, die vor Diskriminierung schützen. Es braucht rechtliche Standards, damit Inklusion nicht optional, sondern Pflicht ist. Dazu zählt etwa das Allgemeine Gleichbehandlungsgesetz (AGG). Es legt fest, dass niemand aufgrund von Merkmalen wie zum Beispiel Alter, Geschlecht oder Behinderung diskriminiert werden darf. Oder die Europäische KI-Verordnung: Sie gibt Regeln dafür vor, wie KI eingesetzt werden darf – und wie nicht. 

EU KI-Verordnung (AI Act)

Die europäische KI-Verordnung ist ein Gesetz. Es legt Regeln dafür fest, wie KI genutzt werden darf. Es soll verhindern, dass den Bürger*innen Nachteile entstehen, wenn KI eingesetzt wird. Es soll vor Diskriminierung schützen und davor, dass Grundrechte verletzt werden. Wer sehr riskante KI-Anwendungen einsetzen möchte, muss strenge Regeln befolgen. Manche Anwendungen sind sogar verboten. Es ist zum Beispiel verboten, KI-Programme dafür zu benutzen, an öffentlichen Orten Gesichter von Menschen zu erkennen. Für KI-Anwendungen, von denen ein geringes Risiko ausgeht, gelten weniger strenge Regeln. Dazu gehören zum Beispiel Anwendungen, die im Kundenservice eingesetzt werden, oder die Suchergebnisse sortieren. Die KI-Verordnung gilt seit 2024. Allerdings gelten nicht alle Regeln, die darin festgelegt sind, sofort. Bis 2027 sollen alle Regeln verbindlich gelten.

Unternehmen in die Pflicht nehmen

Unternehmen, die KI entwickeln, müssen Verantwortung übernehmen. Sie sollten darauf achten, dass ihre Teams divers sind und möglichst vielfältige Perspektiven abbilden. Idealerweise werden unterschiedliche Behinderungs- und Diskriminierungserfahrungen schon in der Entwicklung von KI berücksichtigt. Unternehmen können transparent machen, mit welchen Daten sie arbeiten und wie ihre Modelle funktionieren. Sie können dafür sorgen, dass ihre Datensätze möglichst ausgewogen sind. Schließlich können sie ihre Modelle regelmäßig testen und dafür sorgen, dass sie möglichst sicher sind. 

Individuelle Verantwortung

Natürlich hat man als Einzelperson in der Regel keinen Einfluss darauf, wie Künstliche Intelligenz funktioniert oder wo sie eingesetzt wird. Wir können aber kritisch reflektieren, wie wir KI individuell nutzen. Wir können die Ergebnisse von KI-Programmen kritisch hinterfragen und ihnen nicht einfach so vertrauen. Außerdem können wir solidarisch sein und Diskriminierung benennen, wenn sie uns auffällt – auch wenn wir selbst nicht betroffen sind.

Gemeinsam für eine inklusive Gesellschaft

Künstliche Intelligenz ist ein Spiegel unserer Gesellschaft. Die Daten, von denen KI-Modelle lernen, sind menschliche Daten: Texte, die wir schreiben, Bilder, die wir malen, Fotos, die wir schießen. In ihnen steckt auch unsere Sicht auf die Welt. Inklusive aller Vorurteile und Stereotype. Um zu verhindern, dass der Einsatz von Künstlicher Intelligenz zu Diskriminierung führt, müssen wir also auch daran arbeiten, unsere Gesellschaft gerechter und inklusiver zu gestalten.

Gemeinsam für faire KI-Chatbots

Sie haben einen Chatbot und möchten testen lassen, wie diskriminierungsfrei er ist? Das geht mit ABLE (Ableism Bias Language Evaluation). Auf inklusion.de finden Sie alle Informationen zu unserem neunen Chatbot-Evaluationstool.
Außerdem sollten wir uns fragen: Wollen wir wirklich jedes Problem mit KI lösen? Natürlich ist eine App, die Gespräche live transkribiert, eine Hilfe für gehörlose Menschen. Aber wäre es nicht auch schön, wenn hörende Menschen Gebärdensprache lernen? 

Das könnte Sie auch interessieren