← Zurück zur Wissensdatenbank Bias & Ethik
Algorithmischer Bias
Stand: März 2026
Warum KI oft sexistisch oder rassistisch ist – und wie wir das im Unterricht nutzen können.
Was ist Bias?
KIs lernen aus Internetdaten. Das Internet spiegelt unsere Gesellschaft wider – inklusive aller Vorurteile. Eine KI ist wie ein Papagei, der oft unreflektiert Klischees nachplappert.
Beispiel:
Fragt man eine Bild-KI nach "CEO", zeigt sie meist weiße Männer in Anzügen.
Fragt man nach "Pflegekraft", zeigt sie meist Frauen.
Red-Flag-Checkliste für den Unterricht
Stellen Sie Schülern diese Fragen, wenn sie KI-Output bewerten:
- 🚩 Repräsentation: Wer kommt in der Geschichte vor? Wer fehlt?
- 🚩 Stereotypen: Werden bestimmte Gruppen klischeehaft dargestellt (z.B. "faule Südländer", "strenge Asiaten")?
- 🚩 Perspektive: Aus welcher Sicht ist der Text geschrieben? (Oft westlich/europäisch zentriert)
Unterrichtsidee: Bias-Jagd
Aufgabe:
- Lass ChatGPT eine Geschichte über einen "erfolgreichen Arzt" und eine "fürsorgliche Unterstützung" schreiben.
- Analysiere die Geschlechterrollen.
- Verschuche, die KI durch Prompts dazu zu bringen, das Klischee zu brechen ("Schreibe die Geschichte neu, aber brich mit Geschlechterstereotypen").