Wissen

Algorithmischer Bias

Bias & Vorurteile in KI. Evidenzbasierte KI-Didaktik, Modelle, Werkzeuge und Ressourcen für Schulen.

Stand
2026-04-30
Lesedauer
1 min
Zielgruppe
Lehrpersonen

← Zurück zur Wissensdatenbank Bias & Ethik

Algorithmischer Bias

Stand: März 2026

Warum KI oft sexistisch oder rassistisch ist – und wie wir das im Unterricht nutzen können.

Was ist Bias?

KIs lernen aus Internetdaten. Das Internet spiegelt unsere Gesellschaft wider – inklusive aller Vorurteile. Eine KI ist wie ein Papagei, der oft unreflektiert Klischees nachplappert.

Beispiel:
Fragt man eine Bild-KI nach "CEO", zeigt sie meist weiße Männer in Anzügen.
Fragt man nach "Pflegekraft", zeigt sie meist Frauen.

Red-Flag-Checkliste für den Unterricht

Stellen Sie Schülern diese Fragen, wenn sie KI-Output bewerten:

  • 🚩 Repräsentation: Wer kommt in der Geschichte vor? Wer fehlt?
  • 🚩 Stereotypen: Werden bestimmte Gruppen klischeehaft dargestellt (z.B. "faule Südländer", "strenge Asiaten")?
  • 🚩 Perspektive: Aus welcher Sicht ist der Text geschrieben? (Oft westlich/europäisch zentriert)

Unterrichtsidee: Bias-Jagd

Aufgabe:

  1. Lass ChatGPT eine Geschichte über einen "erfolgreichen Arzt" und eine "fürsorgliche Unterstützung" schreiben.
  2. Analysiere die Geschlechterrollen.
  3. Verschuche, die KI durch Prompts dazu zu bringen, das Klischee zu brechen ("Schreibe die Geschichte neu, aber brich mit Geschlechterstereotypen").