Lernen · Modell A

Quellen-Triangulation

Drei verschiedene KI-Systeme zur gleichen Recherchefrage befragen, Antworten nebeneinanderlegen und Diskrepanzen als Ausgangspunkt für kritische Quellenarbeit nutzen.

Stand
2026-04-30
Lesedauer
60 min
Zielgruppe
Lehrpersonen

Quellen-Triangulation überträgt das methodische Prinzip der wissenschaftlichen Triangulation auf den KI-Einsatz: Wer dieselbe Frage drei verschiedenen Systemen stellt und die Antworten nebeneinanderlegt, erlebt direkt, dass KI-Ausgaben keine neutrale Wahrheit, sondern eine von vielen möglichen Versionen sind. Diskrepanzen zwischen den Modellen sind dabei kein Problem, sondern der eigentliche Lernstoff.

Worum es geht

Die Methode trainiert Methodenkompetenz im Sinne des Lehrplan 21 — konkret Recherchestrategien und kritische Informationsbewertung. Sie macht erfahrbar, dass verschiedene KI-Systeme unterschiedliche Trainingsdaten, Gewichtungen und Aktualisierungsstände haben, was zu teils erheblichen Unterschieden in den Antworten führt. Gleichzeitig übt die Methode den Abgleich mit menschlichen Quellen: Der KI-Vergleich ist nur die Vorstufe zur eigentlichen Recherche mit Bibliotheksquellen oder Fachliteratur.

Lernziele

  • Eine Recherchefrage präzise formulieren, die für KI-Triangulation geeignet ist (nicht trivial, nicht zu breit)
  • Drei KI-Antworten systematisch auf Gemeinsamkeiten und Diskrepanzen hin analysieren
  • Diskrepanzen einordnen: Handelt es sich um Interpretationsunterschiede, unterschiedliche Datenstände oder einen möglichen Fehler?
  • Die KI-Erkenntnisse mit mindestens einer menschlichen Quelle abgleichen und eine eigene begründete Schlussfolgerung ziehen
  • Decision-Mode: prohibit (KI als Forschungsobjekt) bzw. limit (mit Lehr-Begleitung bei erster Durchführung)

Voraussetzungen

  • Klassenstufe: Sek I ab 9. Klasse, Sek II, Gymnasium, Berufsschule (Berufsmaturität)
  • Vorwissen: Erfahrung mit Quellenarbeit und Informationsbewertung; Grundkenntnisse zu den verwendeten KI-Tools
  • Tool-Anforderungen: Zugang zu drei verschiedenen KI-Systemen — empfohlen: ChatGPT, Claude, Perplexity (Perplexity eignet sich besonders, weil es Quellen anzeigt); Bibliotheks- oder Datenbankzugang für den abschliessenden Quellencheck
  • Datenschutz: Rein fachliche, nicht personenbezogene Recherchefragen; keine sensiblen Daten eingeben

Ablauf

  1. Frage formulieren (10 Min.): Lernende (Zweiergruppen) formulieren eine Recherchefrage zu einem Unterrichtsthema, die strittig, komplex oder aktuell ist. Geeignete Fragen: „Wie effektiv ist Frühförderung bei Kindern unter 4 Jahren?", „Welche wirtschaftlichen Folgen hatte der Brexit für die Schweiz?", „Was sind die Hauptursachen für schulische Demotivation bei Jugendlichen?" Fragen zu Definitionen oder einfachen Fakten eignen sich weniger.

  2. KI-Abfragen (15 Min.): Dieselbe Frage wird in ChatGPT, Claude und Perplexity eingegeben — wortgleich. Die Antworten werden kopiert oder als Screenshots gesichert. Kein weiteres Nachfragen in dieser Phase — die Erstantworten auf denselben Prompt sind das Vergleichsmaterial.

  3. Tabellarischer Vergleich (15 Min.): Lernende füllen die Drei-Spalten-Tabelle aus: Was sagen die drei Modelle zu den Kerninhalten? Wo decken sie sich? Wo widersprechen sie sich? Wo ist eine Antwort deutlich ausführlicher oder spezifischer?

  4. Diskrepanz-Analyse (10 Min.): Lernende wählen die auffälligste Diskrepanz und beschreiben sie: Worin genau besteht der Widerspruch? Wie könnte er zustande kommen (unterschiedlicher Trainingsstand, unterschiedliche Quellen, Interpretationsunterschied)? Handelt es sich um eine sachliche Frage (eine Antwort muss falsch sein) oder eine Frage der Gewichtung?

  5. Abgleich mit menschlichen Quellen (10 Min.): Mindestens eine der divergierenden Stellen wird mit einer Bibliotheksquelle oder einem Fachartikel überprüft. Schlussfolgerung: Welcher KI-Antwort war die verlässlichere, und warum?

Vorlage

AspektChatGPTClaudePerplexity
Hauptthese / KernantwortFrühförderung zeigt Effekte bis Schulalter, aber Langzeit-Evidenz schwachStarke Effekte bei sozial benachteiligten Kindern belegt (Perry-Studie)Verweist auf Metastudie (2022), uneinheitliche Ergebnisse je nach Programmtyp
Genannte QuellenKeine expliziten QuellenNennnt Perry Preschool, aber kein DatumDrei Studienlinks (eine überprüfbar, eine 404)
Fehlendes / EinseitigesKeine Schweizer/DACH-PerspektiveKein Bezug zu schulischem KontextKeine kritischen Gegenstimmen
Auffälligste DiskrepanzWiderspruch zu ChatGPT bei Langzeitwirkung
Eigene Einschätzung

Bewertungs-Rubrik

StufeKriteriumBeobachtbar an
1Drei Antworten gesammeltTabelle ist ausgefüllt, aber kein Vergleich; Antworten nur zusammengefasst
2Gemeinsamkeiten und Unterschiede benanntMindestens zwei konkrete Diskrepanzen beschrieben
3Diskrepanzen eingeordnetErklärt, warum eine Diskrepanz besteht; Quellencheck für eine divergierende Stelle
4Eigene begründete SchlussfolgerungAbschluss enthält eine Position: „Ich glaube X, weil die menschliche Quelle Y zeigt und die KI-Antwort Z nicht belegt werden konnte."

Variationen

  • Sprachvergleich: Dieselbe Frage auf Deutsch und Englisch eingeben — zeigt, dass Antworten je nach Sprachkontext variieren und englische Trainingsdaten häufig dominieren.
  • Zeitvergleich: Aktuell und in sechs Monaten dieselbe Frage stellen (wenn Tools aktualisiert werden) — zeigt Wissensstand-Dynamik.
  • Für Sek I: Zwei statt drei Systeme; Lehrperson erstellt Tabelle vor, Lernende füllen nur die inhaltlichen Felder aus.

Grenzen

Quellen-Triangulation funktioniert am besten bei Themen mit echter Komplexität — bei trivialen Fakten ist die Diskrepanz gering, der Erkenntnisgewinn minimal. Der Zeitaufwand von 60 Minuten ist realistisch, aber eng: Der Quellencheck am Schluss kommt oft zu kurz. Lehrpersonen sollten den Quellencheck gegebenenfalls als Hausaufgabe auslagern. Ausserdem ist die Methode bei Themen mit schnellem Datenwandel (aktuelle politische Ereignisse) riskant — die KI-Antworten können viel älter sein als sie wirken.

Verwandt

  • Hallucination Hunt — komplementär: dort ein Text mit gezielten Fehlern, hier drei Systeme mit unterschiedlichen Stärken
  • Source Tracing — vertieft den Quellencheck-Aspekt speziell für KI-generierte Literaturangaben
  • Socratic Debias — ergänzt die Triangulation um eine Perspektiv-Analyse der unterschiedlichen Antworten