Lernen · Modell A

Lernziel-Reverse-Engineering

Lehrpersonen geben ihre eigene Aufgabenstellung in eine KI ein und prüfen, ob der Output das Lernziel noch erkennbar macht — ein Selbsttest für Aufgabenqualität.

Stand
2026-04-30
Lesedauer
30 min
Zielgruppe
Lehrpersonen, Schulleitung

Lernziel-Reverse-Engineering ist die einzige Intervention dieser Sammlung, die sich nicht an Lernende, sondern an Lehrpersonen richtet. Der Selbsttest ist einfach: Eine bestehende Aufgabe wird wortgleich in eine KI eingegeben, der Output ausgedruckt und einer Kollegin oder einem Kollegen vorgelegt — die Aufgabenstellung bleibt verdeckt. Kann die Kollegin aus dem Output das ursprüngliche Lernziel rekonstruieren? Wenn nicht, ist die Aufgabe KI-anfällig.

Worum es geht

Die Methode adressiert professionelle Reflexionskompetenz von Lehrpersonen: die Fähigkeit, die eigenen didaktischen Entscheidungen systematisch zu überprüfen. Im Kontext von KI-Verbreitung im Unterricht ist das keine akademische Übung, sondern eine praktische Notwendigkeit. Aufgaben, die durch direktes Eingeben in eine KI lösbar sind, ohne dass das Lernziel sichtbar bleibt, sind keine schlechten Aufgaben per se — aber Lehrpersonen sollten diese Eigenschaft kennen und bewusst entscheiden, ob das Decision-Mode für die Aufgabe angepasst werden muss.

Lernziele

  • Eigene Aufgabenstellungen darauf prüfen, ob das Lernziel im KI-Output noch erkennbar ist
  • Den Unterschied zwischen KI-anfälligen und KI-robusten Aufgaben benennen und begründen
  • Konkrete Überarbeitungsvorschläge für KI-anfällige Aufgaben entwickeln
  • Decision-Mode: prohibit — dieser Selbsttest ist für Lehrpersonen, nicht für Lernende; kein KI-Einsatz für Schülerinnen und Schüler vorgesehen

Voraussetzungen

  • Zielgruppe: Lehrpersonen aller Stufen; besonders relevant für Lehrpersonen, die regelmässig schriftliche oder recherche-basierte Aufgaben stellen
  • Vorwissen: Kenntnis der eigenen Lernziele; Grundverständnis davon, wie KI-Tools auf Aufgaben reagieren
  • Tool-Anforderungen: Zugang zu mindestens einem KI-Tool; Bereitschaft, eine Kollegin oder einen Kollegen für 10 Minuten einzubeziehen
  • Kollegiale Vertraulichkeit: Ergebnisse des Selbsttests sind keine Qualitätsbewertung — das muss im Team explizit vereinbart sein

Ablauf

  1. Aufgabe auswählen (5 Min.): Lehrperson wählt eine aktuelle oder geplante Aufgabenstellung — idealerweise eine, bei der das Lernziel hoch ist (Analyse, Bewertung, kreative Lösung). Die Aufgabe wird so wie sie ist vorbereitet; keine Anpassungen.

  2. KI-Eingabe (5 Min.): Die Aufgabe wird wortgleich in ein KI-Tool eingegeben. Kein Zusatz, keine Erklärung des Kontexts. Nur die Aufgabe, so wie Lernende sie erhalten würden. Der Output wird ausgedruckt oder gespeichert.

  3. Blind-Test mit Kollegin/Kollege (10 Min.): Output wird einer Kollegin oder einem Kollegen vorgelegt, ohne die Aufgabenstellung zu zeigen. Frage: „Was war das Lernziel dieser Aufgabe?" und „Welche fachliche Eigenleistung hat diese Antwort erfordert?" Die Lehrperson notiert die Antworten, ohne zu kommentieren.

  4. Vergleich und Einschätzung (5 Min.): Lehrperson vergleicht: Stimmt das rekonstruierte Lernziel mit dem ursprünglichen überein? Wie vollständig ist der KI-Output? Hätte ein Lernender mit diesem Output die Aufgabe gelöst, ohne das Lernziel zu erreichen?

  5. Konsequenz ziehen (5 Min.): Auf Basis des Vergleichs entscheidet die Lehrperson: Aufgabe beibehalten (mit bewusstem Decision-Mode), Aufgabe anpassen (z. B. einen persönlichen Bezug, ein lokales Beispiel, eine mündliche Komponente ergänzen), oder Decision-Mode der Aufgabe explizit kommunizieren.

Selbsttest-Auswertung

Ergebnis des Blind-TestsEinschätzungEmpfohlene Reaktion
Aufgabe ist KI-anfällig: Kollegin kann das Lernziel nicht aus dem Output rekonstruieren; KI-Output ist vollständig und ohne Eigenleistung abgebbarDie Aufgabe übernimmt das Lernziel vollständig — Lernende können den Output direkt abgeben, ohne nachzudenkenAufgabe überarbeiten: Persönlichen Bezug, lokale Daten, mündliche Verteidigung oder iterative Struktur ergänzen; oder Decision-Mode explizit auf prohibit/accompany setzen und erklären
Aufgabe ist teilweise tragfähig: Lernziel ist im Output erkennbar, aber KI liefert bereits 80 % der erwarteten LösungAufgabe hat einen Kern, der durch KI angreifbar ist, aber eigene Denkleistung noch sichtbarSchwachen Teil der Aufgabe stärken; prüfen, ob ein zweiter Schritt (Begründung, Transfer auf neuen Kontext) ergänzt werden kann
Aufgabe ist weiterhin tragfähig: KI-Output ist unvollständig, falsch oder deutlich schlechter als erwartete SchülerleistungAufgabe erfordert Fachtiefe oder Kontextwissen, das die KI nicht liefertAufgabe kann wie geplant eingesetzt werden; Decision-Mode bewusst wählen und ggf. kommunizieren

Variationen

  • Teameinsatz im Fachteam: Jede Lehrperson bringt eine Aufgabe mit; alle führen den Test durch und teilen Ergebnisse — kollektive Aufgabenqualität verbessern ohne individuelle Bewertung.
  • Schulentwicklungs-Workshop: Lernziel-Reverse-Engineering als Modul in einem Fortbildungstag; 20 Aufgaben aus dem Team getestet, Muster identifiziert.
  • Iterativ: Aufgabe nach Überarbeitung nochmals testen — prüfen, ob die Anpassungen die KI-Anfälligkeit tatsächlich reduziert haben.

Grenzen

Lernziel-Reverse-Engineering ist kein Allheilmittel für Aufgabenqualität. Eine Aufgabe, die KI-anfällig ist, ist nicht notwendigerweise schlecht — manchmal ist das Lernziel das Produkt, nicht der Prozess, und ein KI-Tool kann ein legitimes Hilfsmittel sein. Die Methode soll nicht pauschal KI-Nutzung verbieten, sondern Lehrpersonen in die Lage versetzen, informierte Entscheidungen über den Decision-Mode ihrer Aufgaben zu treffen. Ausserdem hängt die Qualität des Tests stark von der Aufmerksamkeit und dem Fachverständnis der Kollegin ab, die den Blind-Test durchführt.

Verwandt

  • Warum-Protokoll — das entsprechende Instrument für Lernende: auch hier geht es um Transparenz über KI-Nutzung
  • Hallucination Hunt — als Folgeschritt nach dem Selbsttest: Aufgaben entwerfen, die KI als Fehlerquelle nutzen statt umgehen
  • Prompt-Variation — hilft zu verstehen, wie unterschiedliche Formulierungen der Aufgabe unterschiedliche KI-Outputs erzeugen