Grundlagen und Taxonomie von KI-Agenten
Was sagt die Forschung?
Evidenzniveau: hoch. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Die aktuelle Literatur unterscheidet zwischen einfachen Antwortsystemen, aufgabenorientierten Workflow-Agenten und kooperativen Multi-Agenten-Setups. Für Schulen ist diese Unterscheidung zentral, weil mit der Autonomie des Systems auch die Anforderungen an Aufsicht, Verifikation und Dokumentation steigen.
Verifizierte Leitlinien zeigen, dass Agentennutzung nur dann lernwirksam und verantwortbar bleibt, wenn Auftragsrahmen, Eingriffsrechte und Qualitätskriterien vorab definiert sind. Ohne diese Klärung wird aus didaktischer Unterstützung schnell intransparente Automatisierung.
Kernaussagen der Forschung
- Taxonomien reduzieren Fehlentscheidungen bei Tool-Beschaffung und Unterrichtseinsatz.
- Der notwendige Aufsichtsgrad steigt mit Handlungsspielraum und Persistenz eines Agenten.
- Schulische Einführung gelingt besser mit klaren Agentenrollen statt allgemeiner KI-Labels.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: Agenten-Landkarte im Fachteam (Rahmen:Sek I Fachteam , 30 Min.): Lehrpersonen ordnen bestehende KI-Tools entlang einer gemeinsamen Agenten-Taxonomie und definieren Einsatzgrenzen.
Auftragsklarheit vor Toolwahl (Rahmen:Sek I Informatik , 25 Min.): Eine Unterrichtsaufgabe wird erst fachlich zerlegt und danach entschieden, ob ein Assistenz- oder Workflow-Agent passt.
Rollenklarheit im Pilot (Rahmen:Schulteam , 35 Min.): Ein Pilot wird mit klarer Trennung von Agentenfunktion, menschlicher Aufsicht und Abnahmeverantwortung geplant.
Lernpsychologie, Offloading und Vertrauen
Was sagt die Forschung?
Evidenzniveau: mittel. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Empirische Studien zu LLM-Nutzung zeigen, dass ungesteuerte Volldelegation die Tiefe der Verarbeitung reduzieren kann. Für Agentensysteme ist das besonders relevant, weil mehrere Schritte automatisch ablaufen und dadurch Lernhandlungen unsichtbar werden.
Didaktisch wirksam sind Settings mit gezielter kognitiver Aktivierung: Lernende müssen Annahmen prüfen, Entscheidungen begründen und fehlerhafte Agentenvorschläge korrigieren. Vertrauen in Agenten wird so kalibriert statt blind aufgebaut.
Kernaussagen der Forschung
- Produktive Denkbelastung bleibt eine Kernbedingung für nachhaltigen Kompetenzaufbau.
- Vertrauen in Agenten muss über Prüfaufträge und Gegenbelege kalibriert werden.
- Reflexion über Delegationsgrenzen reduziert Kompetenzverlust durch Offloading.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: Offloading-Protokoll (Rahmen:Sek I , 25 Min.): Lernende markieren pro Arbeitsschritt, was delegiert wurde und welche Begründung den Delegationsentscheid trägt.
Vertrauenskalibrierung (Rahmen:Sek I , 35 Min.): Ein Agentenvorschlag wird systematisch mit Gegenbeispielen getestet und anschließend fachlich bewertet.
Produktive Reibung einbauen (Rahmen:Unterrichtsplanung , 20 Min.): Lehrpersonen ergänzen Aufgaben um verpflichtende Zwischenschritte ohne Agentenunterstützung.
Unterrichtspotenziale und Differenzierung
Was sagt die Forschung?
Evidenzniveau: mittel. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Studien und Praxisberichte zeigen Potenziale bei individualisiertem Feedback, sprachlicher Unterstützung und strukturierter Aufgabenbegleitung. Diese Effekte sind jedoch abhängig von klaren Lernzielen und verbindlichen Bewertungsrastern.
Für die Sek I gilt: Differenzierung mit Agenten funktioniert, wenn Lernende nicht nur Antworten erhalten, sondern Rückfragen begründen, Lösungswege erklären und Transferaufgaben bearbeiten.
Kernaussagen der Forschung
- Agenten können adaptive Hilfen entlang von Niveaustufen bereitstellen.
- Feedbackqualität steigt, wenn Rubrics und fachliche Kriterien vorgegeben sind.
- Differenzierung bleibt inklusiv, wenn Unterstützung transparent und überprüfbar ist.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: Mehrstufige Aufgabenpfade (Rahmen:Sek I , 45 Min.): Eine Aufgabe wird in Basis-, Transfer- und Vertiefungsstufe geplant; Agenten liefern jeweils passende Hilfen.
Feedback mit Rubric (Rahmen:Sek I , 30 Min.): Lernende erhalten Agentenfeedback entlang eines klaren Bewertungsrasters und müssen zwei Punkte begründet überarbeiten.
Sprachsensible Unterstützung (Rahmen:Sek I , 25 Min.): Agentenhilfen werden für unterschiedliche Sprachstände bereitgestellt, die Fachkriterien bleiben jedoch einheitlich.
Kompetenzen und Lehrplanbezug in der Sek I
Was sagt die Forschung?
Evidenzniveau: mittel. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Internationale Rahmenwerke betonen, dass AI Literacy nicht bei Prompting endet. Lernende müssen Aufgaben präzisieren, Agentenentscheidungen nachvollziehen, Quellen prüfen und Ergebnisse in fachliche Kriterien zurückübersetzen.
Für die Sek I ist eine stufenweise Progression zentral: zuerst transparente Assistenznutzung, dann kontrollierte Delegation, zuletzt begründete Steuerung komplexerer Agentenketten mit dokumentierter Eigenleistung.
Kernaussagen der Forschung
- Kompetenzmodelle verbinden technische Fertigkeiten mit Urteilskompetenz und Verantwortung.
- Lernwirksamkeit steigt, wenn Verifikation als Pflichtbestandteil bewertet wird.
- Lehrplananschluss gelingt über Aufgabenkompetenz statt Toolkenntnis allein.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: Kompetenzraster im Unterricht (Rahmen:Sek I , 40 Min.): Lernende dokumentieren je Aufgabe, welche Schritte selbst bearbeitet und welche durch Agenten unterstützt wurden.
Progressionsstufe definieren (Rahmen:Fachschaft , 30 Min.): Teams ordnen Jahrgänge verbindlich den Stufen Beobachten, Steuern, Begründen zu.
Lehrplanabgleich (Rahmen:Schulinterne Weiterbildung , 30 Min.): Aufgaben werden gegen Fachziele geprüft und um Verifikations- sowie Reflexionskriterien erweitert.
Risiken: Halluzinationen, Bias und Fehlsteuerung
Was sagt die Forschung?
Evidenzniveau: hoch. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Risiken bei Agentensystemen gehen über klassische Chat-Fehler hinaus: Halluzinationen können in Folgehandlungen eingehen, Bias kann sich über wiederholte Entscheidungen verstärken und Fehlsteuerung bleibt oft erst spät sichtbar.
Wirksame Gegenmaßnahmen kombinieren technische Guardrails mit didaktischen Prüfaufträgen. Entscheidend ist eine klare Pflicht zur Quellenprüfung, Gegenprüfung und nachvollziehbaren Fehlerdokumentation.
Kernaussagen der Forschung
- Halluzinationen sind systemisch relevant, wenn Agenten selbstständig Folgeaktionen auslösen.
- Bias-Risiken steigen bei unklaren Kriterien und fehlender Gegenprüfung.
- Risikoreduktion gelingt über Verifikation, Logging und klare Abbruchregeln.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: Halluzinationen-Jagd (Rahmen:Sek I , 30 Min.): Lernende identifizieren fehlerhafte Agentenaussagen und belegen Korrekturen mit Primärquellen.
Bias-Test im Fachteam (Rahmen:Fachschaft , 35 Min.): Gleiche Aufgabe wird mit variierenden Parametern getestet, Abweichungen werden dokumentiert und bewertet.
Abbruchkriterien trainieren (Rahmen:Schulteam , 25 Min.): Teams definieren klare Trigger, wann Agentenprozesse gestoppt und manuell übernommen werden.
Assessment, Integrity und Deklaration
Was sagt die Forschung?
Evidenzniveau: hoch. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Assessment im Agentenzeitalter muss Prozess- und Entscheidungskompetenz sichtbar machen. Reine Produktbewertung reicht nicht mehr aus, weil Teile der Wertschöpfung automatisiert erfolgen können.
Internationale Leitlinien empfehlen Deklarationspflichten, verteidigte Abgaben, stichprobenartige Verifikationsgespräche und klare Rubrics für Eigenleistung, Quellenprüfung und Fehlerkorrektur.
Kernaussagen der Forschung
- Prozessorientierte Bewertung erhöht Aussagekraft und Fairness.
- Deklarationspflicht reduziert Integritätsrisiken und schafft Vergleichbarkeit.
- Verteidigungsgespräche stärken Begründungstiefe und Verantwortungsübernahme.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: Deklarationslog verpflichtend (Rahmen:Sek I , 20 Min.): Jede Abgabe enthält transparenten Nachweis von Agenteneinsatz, Eigenleistung und Verifikationsschritten.
Mündliche Code-Verteidigung (Rahmen:Sek I Informatik , 25 Min.): Lernende erklären Entscheidungen, Fehlerbehebungen und Quellenprüfungen anhand ihrer Artefakte.
Rubric-Workshop (Rahmen:Fachschaft , 35 Min.): Teams vereinheitlichen Bewertungsraster für Prozesskompetenz, Integrität und Reflexion.
Datenschutz, Recht und Implementierung
Was sagt die Forschung?
Evidenzniveau: hoch. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Rechts- und Datenschutzanforderungen betreffen Agentensysteme in besonderem Maße, weil sie mit mehreren Datenquellen und automatischen Handlungsschritten arbeiten können. Deshalb müssen Zweckbindung, Datenminimierung und Verantwortlichkeit technisch wie organisatorisch verankert werden.
Erfolgreiche Implementierung folgt einem klaren Ablauf: Risikoanalyse, Freigabe, Pilot, Dokumentation, Schulung und laufende Überprüfung. So entsteht eine belastbare Praxis statt punktueller Einzellösungen.
Kernaussagen der Forschung
- Datenschutz- und Rechtskonformität müssen vor dem Rollout geprüft werden.
- Pilotierung mit klaren Freigabekriterien reduziert spätere Betriebsrisiken.
- Dokumentation und Re-Assessment sind notwendige Daueraufgaben.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: Datenschutz-Check vor Pilot (Rahmen:IT/Datenschutz , 30 Min.): Ein Agentenszenario wird auf Datenkategorien, Zugriffspfade und Löschkonzept geprüft.
Freigabeboard simulieren (Rahmen:Schulleitung/IT , 30 Min.): Teams entscheiden anhand eines standardisierten Kriterienrasters über Pilotfreigabe oder Nachbesserung.
Implementierungsfahrplan (Rahmen:Steuergruppe , 40 Min.): Ein 90-Tage-Plan verbindet Rollen, Schulung, Kommunikation und Evaluationspunkte.
Governance, Aufsicht und Sicherheit
Was sagt die Forschung?
Evidenzniveau: hoch. Die Einordnung folgt der Evidenzbibliothek KI-Agenten.
Governance für KI-Agenten braucht klar definierte Verantwortlichkeiten, Freigabestufen und Eingriffsrechte. Vor allem bei agentischen Kettenprozessen ist Human-in-the-loop kein optionales Add-on, sondern ein Sicherheitskern.
Technische Schutzmaßnahmen entfalten nur Wirkung, wenn sie organisatorisch verankert sind: Rollen, Protokollierung, Auditzyklen und Eskalationspfade müssen verbindlich hinterlegt werden.
Kernaussagen der Forschung
- Aufsichtspflichten steigen mit Automationsgrad und Reichweite von Agentenentscheidungen.
- Freigabemodelle funktionieren besser mit klaren Risiko-Klassen und Audit-Triggern.
- Sicherer Betrieb benötigt die Kombination aus HITL, Logging und periodischer Re-Evaluierung.
Praxis: Unterrichts- und Umsetzungsideen
Die Szenarien sind als Mini-Formate für die Sek I und für schulinterne Entwicklungsarbeit gedacht. Sie verbinden fachliche Zielklarheit, transparente Agentennutzung und evaluierbare Prozessschritte.
Unterrichtspraktische Umsetzung: HITL-Design im Steuerteam (Rahmen:Schulleitung/IT , 40 Min.): Teams definieren, bei welchen Schritten menschliche Bestätigung zwingend ist.
Freigabe-Ampel für Agenten (Rahmen:Steuergruppe , 35 Min.): Agenten werden nach Risiko, Datensensitivität und Aufsichtsbedarf in Freigabeklassen eingeordnet.
Audit-Probe (Rahmen:IT & Behörden , 30 Min.): Ein Testfall prüft, ob Logs, Rollenrechte und Eingriffsmöglichkeiten im Ernstfall funktionieren.
Tiefer in die Forschung eintauchen
Alle in diesem Modul zitierten Studien, Reviews und Primärquellen finden Sie übersichtlich aufbereitet in unserer Evidenzbibliothek:
Zur Evidenzbibliothek KI-Agenten
Vertiefung
Für konkrete Szenarien, die Aufsichtsmatrix und Grenzen des Agent-Einsatzes in Schulen:
Agentic Classroom (7 Szenarien)Custom AssistentenEU AI Act für Schulen