
ABLE – Gemeinsam für faire KI-Chatbots
KI-Chatbots sind heute in vielen Bereichen im Einsatz – vom Online-Shop bis zur Stadtverwaltung. Sie sollen helfen, einfache Anliegen schnell und unkompliziert zu bearbeiten. Menschen mit Behinderung machen damit regelmäßig schlechte Erfahrungen: Chatbots verwenden diskriminierende oder unverständliche Sprache, ihnen fehlen wichtige Informationen. Bisher wird nicht ausreichend getestet, ob Chatbots inklusiv und diskriminierungsfrei sind. Die Aktion Mensch hat deshalb gemeinsam mit der Hochschule Bielefeld ein Tool entwickelt, um das zu ändern. Mit ABLE (Ableism Bias Language Evaluation, auf Deutsch in etwa: Überprüfung von Sprache auf Ableismus und Vorurteil) wollen wir prüfen, wie sich KI-Systeme verhalten, um Ableismus und Diskriminierung sichtbar zu machen – und zu vermeiden.
Was ist Ableismus und was hat er mit Chatbots zu tun?
Was sind Large Language Models?
Was bedeutet Ableismus?
Wie hilft ABLE gegen Ableismus?
Christina Marx erklärt ABLE
Wie funktioniert ABLE?
Jetzt ABLE-Nutzer*in werden
Wir wollen ABLE verfügbar und nutzbar machen. Ab August 2025 steht es deshalb auf GitHub unter einer Open Source-Lizenz zur freien Verfügung. Gerne begleiten wir Sie dabei, das Tool zu testen und stehen für Rückfragen jederzeit zur Verfügung.
- Sie entwickeln einen Chatbot? Gerne begleiten wir Sie schon während der Entwicklung, um Ihre Lösungen zu testen!
- Sie setzen bereits einen Chatbot ein und möchten die Performance testen? Unser Tool bietet Ihnen eine effiziente, skalierbare und objektive Möglichkeit zur Evaluation.
- Sie wollen sich mit uns vernetzen, etwa um über weitere Einsatzmöglichkeiten für das Tool nachzudenken? Setzen Sie sich mit uns in Kontakt!
- Ihre Ansprechpartnerin bei der Aktion Mensch ist Nadja Ullrich
(nadja.ullrich@aktion-mensch.de )
Gemeinsam können wir mehr Awareness schaffen. Lassen Sie uns dazu beitragen, dass das Testing auf Ableismus und Diskriminierung von der Ausnahme zur Norm wird.
Wie wurde ABLE entwickelt?
Die Hochschule Bielefeld hat das Tool im Auftrag der Aktion Mensch zusammen mit der KI-Agentur wonk.ai entwickelt. Auch Menschen mit unterschiedlichen Behinderungserfahrungen haben an der Entwicklung mitgearbeitet. In fünf Workshops haben circa 80 Teilnehmende ihre Erfahrungen im Umgang mit KI-Chatbots geteilt. Sie haben den Entwickler*innen von Bedürfnissen und Herausforderungen erzählt und sie beraten.
Um zu testen, wann es zu Diskriminierung kommt, haben die Teilnehmenden mit verschiedenen Chatbots gechattet. Sie haben geholfen, neue Anweisungen (Prompts) und Fragen für das Tool zu entwickeln. Gemeinsam mit den Forschenden haben die Teilnehmenden Bewertungskriterien festgelegt. Das Tool nutzt diese Kriterien, um die Ergebnisse des Chatbots automatisch zu bewerten: Verwendet der Chatbot eine respektvolle und positive Sprache? Übernimmt er Vorurteile über Menschen mit Behinderung? Sind die Antworten hilfreich und barrierefrei? Diese Kriterien werden fortlaufend überprüft und weiterentwickelt.