Lernen · Modell A

Vibe Coding

Umfassender Buch-Text für das Modul Vibe Coding

Stand
2026-04-30
Lesedauer
11 min
Zielgruppe
Lehrpersonen

Grundlagen und Abgrenzung von Vibe Coding

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Grundlagen und Abgrenzung von Vibe Coding zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Vibe Coding verschiebt den Schwerpunkt von Syntaxproduktion zu Problembeschreibung, Prompting und Verifikation.
  • Die Literatur beschreibt Directive-, Feedback-Loop- und Collaborative-Patterns mit unterschiedlichem Lernpotenzial.
  • Didaktischer Nutzen entsteht erst, wenn KI-Dialoge in klare Lernziele und Reflexionsaufträge eingebettet sind.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Pattern-Mapping im Klassenzimmer (Zielgruppe:Sek I Informatik ,Dauer:30 Min.): Lernende analysieren drei KI-Interaktionsmuster und ordnen sie auf ein Lernziel-Raster ein.

Prompt-vs-Code Vergleich (Zielgruppe:Sek I/II ,Dauer:35 Min.): Eine Aufgabe wird einmal klassisch, einmal über Vibe Coding gelöst; anschließend werden Denkwege verglichen.

Verantwortungs-Canvas (Zielgruppe:Fachteam ,Dauer:25 Min.): Team definiert, welche Teile des Prozesses delegierbar sind und welche kognitive Verantwortung nicht delegiert wird.

Lernpsychologie und Scaffolding beim Vibe Coding

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Lernpsychologie und Scaffolding beim Vibe Coding zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • LLMs können extrinsischen Load senken, erhöhen aber ohne Rahmung das Risiko von kognitivem Offloading.
  • Produktive Reibung bleibt zentral für Transfer und Konzeptaufbau.
  • Sokratisch geführte Hilfen sind didaktisch wirksamer als direkte Komplettlösungen.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Faded-Scaffold Sequenz (Zielgruppe:Sek I ,Dauer:35 Min.): Unterstützung wird über drei Aufgabenrunden gezielt reduziert, Eigenanteil steigt pro Runde.

Sokratischer Prompt-Modus (Zielgruppe:Sek I/II ,Dauer:25 Min.): Lehrperson gibt Prompt-Rollen vor: Fragen statt Lösungen, Hypothesen statt Copy-Paste.

Cognitive-Load Checkpoint (Zielgruppe:Sek I ,Dauer:15 Min.): Lernende markieren in Echtzeit, wo KI entlastet und wo eigenes Denken notwendig bleibt.

Debugging sowie Code Reading vs. Code Writing

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Debugging sowie Code Reading vs. Code Writing zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Debugging gilt als zentrale CT-Praktik, wird im Unterricht aber häufig untergewichtet.
  • KI beschleunigt Bug-Fixing, kann aber strategisches Fehlersuchen bei Novizen untergraben.
  • Code-Lesekompetenz ist Voraussetzung für verantwortliche KI-Nutzung beim Programmieren.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: WHAT-A-MESS Protokoll (Zielgruppe:Sek I ,Dauer:30 Min.): Lernende dokumentieren Fakten, Hypothesen, Strategien und Evaluation bei Debugging-Fällen.

Read-before-Run (Zielgruppe:Sek I ,Dauer:20 Min.): Code muss vor Ausführung erklärt werden, inklusive möglicher Fehlstellen.

Bug-Hunt mit Doppelprüfung (Zielgruppe:Sek I/II ,Dauer:30 Min.): KI-Vorschlag und menschliche Diagnose werden gegeneinander geprüft und bewertet.

Chancen: Motivation, Engagement und Differenzierung

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Chancen: Motivation, Engagement und Differenzierung zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Berichtsbefunde zeigen signifikante Motivationsgewinne unter KI-unterstütztem Pair Programming.
  • Differenzierung und Sprachzugang können durch adaptive Prompts verbessert werden.
  • Soziale Präsenz bleibt bei Human-to-Human Pairing oft höher als bei rein KI-gestützter Kollaboration.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Pair-Programming mit Rollenrotation (Zielgruppe:Sek I ,Dauer:40 Min.): Rollen Driver/Navigator/Verifier wechseln in festen Intervallen inklusive KI-Transparenzlog.

Mehrsprachiger Prompt-Workshop (Zielgruppe:Sek I ,Dauer:25 Min.): Fachbegriffe werden in Unterrichtssprache präzisiert, um Fehloutputs zu reduzieren.

Motivationsbarometer (Zielgruppe:Sek I ,Dauer:10 Min.): Kurzer Pre-/Post-Check zu Selbstwirksamkeit und Belastung bei KI-unterstützten Aufgaben.

Kompetenzen und Progression in der Sek I

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Kompetenzen und Progression in der Sek I zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Lehrplan-21-Kompetenzen in MI.2.2 werden durch Prompting, Verifikation und Dekomposition neu operationalisiert.
  • Progression gelingt nur, wenn KI-Assistenz schrittweise mit eigenständigen Code-Anteilen gekoppelt bleibt.
  • Es fehlen robuste Langzeitdaten zur Wirkung von Vibe Coding auf den Übergang von block- zu textbasiertem Programmieren.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Progressionsraster bauen (Zielgruppe:Fachschaft Informatik ,Dauer:40 Min.): Team übersetzt Sek-I-Lernziele in drei Kompetenzstufen inklusive KI-Anteilen.

Dekompositions-Drill (Zielgruppe:Sek I ,Dauer:30 Min.): Komplexe Aufgabe wird in verifizierbare Teilprobleme zerlegt und einzeln mit KI getestet.

Prompt-Qualitätsrubrik (Zielgruppe:Sek I ,Dauer:20 Min.): Lernende bewerten eigene Prompts nach Präzision, Testbarkeit und fachlicher Angemessenheit.

Risiken: Deskilling, Ungleichheit und Nebenwirkungen

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Risiken: Deskilling, Ungleichheit und Nebenwirkungen zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Exzessive KI-Nutzung erhöht das Risiko von Effort-Bypass und flachem Verständnis.
  • Digital Divide entsteht auf Zugang-, Nutzungs- und Nutzenebene.
  • Sprach- und Bias-Probleme können benachteiligte Gruppen zusätzlich treffen.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Deskilling-Frühwarnsystem (Zielgruppe:Sek I ,Dauer:20 Min.): Lehrperson nutzt Indikatoren für unreflektierte Delegation und steuert mit KI-freien Sequenzen nach.

Equity-Check pro Unterrichtseinheit (Zielgruppe:Fachteam ,Dauer:15 Min.): Team prüft Zugang, Sprachbarrieren und faire Bewertungsbedingungen vor dem Einsatz.

Bias-Review im Codeoutput (Zielgruppe:Sek I/II ,Dauer:25 Min.): Lernende identifizieren Verzerrungen in Beispieldaten, Kommentaren und Modellantworten.

Assessment und Academic Integrity im Vibe Coding

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Assessment und Academic Integrity im Vibe Coding zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Validierte Assessment-Frameworks für KI-Programmieren in der Sek I sind noch begrenzt.
  • Professional Judgement und Prozessbewertung gelten als praktikabler Übergangsstandard.
  • Quellenvertrauen bei KI-Feedback kann die Qualitätsbeurteilung verzerren.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Transparenzpflicht bei Abgaben (Zielgruppe:Sek I ,Dauer:10 Min.): Jede Abgabe enthält Tool, Zweck, Prompt-Auszug und Eigenanteil.

Mündliche Code-Verteidigung (Zielgruppe:Sek I/II ,Dauer:20 Min.): Lernende erläutern Designentscheidungen, Tests und Fehlerbehebung.

Portfolio mit Reflexion (Zielgruppe:Sek I ,Dauer:30 Min.): Fortlaufende Sammlung von Iterationen mit Begründungen und Lernzuwachs.

Datenschutz, Recht und Sicherheit

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Datenschutz, Recht und Sicherheit zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • revDSG und GDPR verlangen Datenminimierung, Transparenz und Privacy by Design.
  • AI-Regulierung erhöht Anforderungen an Risikobewertung und Nachvollziehbarkeit im Bildungskontext.
  • Age-Gating und Schutzraumprinzip sind im Sek-I-Setting besonders relevant.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Prompt-Datenschutz-Check (Zielgruppe:Sek I Lehrperson ,Dauer:15 Min.): Vor Nutzung wird geprüft, ob personenbezogene Daten oder sensible Inhalte enthalten sind.

Tool-Freigabe mit Ampelmodell (Zielgruppe:Schulleitung/IT ,Dauer:30 Min.): Tools werden nach Datenschutz, Sicherheitslage und pädagogischer Eignung klassifiziert.

Audit-Trail Routine (Zielgruppe:Schule ,Dauer:20 Min.): Regelmäßige Dokumentation von Toolnutzung, Datenflüssen und Aufbewahrungsfristen.

Leitplanken, Evidenzmatrix und Forschungsbedarf

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Leitplanken, Evidenzmatrix und Forschungsbedarf zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Für mehrere Kernfragen fehlen belastbare Langzeitstudien im Sek-I-Kontext.
  • Policy-Empfehlungen sind vielfach plausibilisiert, aber nur teilweise experimentell abgesichert.
  • Explizite Evidenzlücken erhöhen die Bedeutung von dokumentiertem Professional Judgement.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Leitplanken-Review im Team (Zielgruppe:Steuergruppe ,Dauer:35 Min.): Schule priorisiert verbindliche Minimalstandards und ordnet sie Verantwortlichen zu.

Evidenzlücken-Backlog (Zielgruppe:Fachschaft ,Dauer:20 Min.): Offene Fragen werden als schulspezifische Hypothesen und Messkriterien formuliert.

Jahreszyklus Vibe Coding (Zielgruppe:Schule ,Dauer:30 Min.): Review-Rhythmus mit Datenerhebung zu Kompetenzentwicklung, Risiken und Akzeptanz.

Schulische Implementierung und Governance

Was sagt die Forschung?

Evidenzniveau: hoch, mittel, begrenzt. Die Clusterbewertung folgt der Evidenzbibliothek Vibe Coding.

Die Evidenz zu Schulische Implementierung und Governance zeigt ein wiederkehrendes Muster: Positive Effekte entstehen dann, wenn Aufgaben ein klares fachliches Ziel, überprüfbare Qualitätskriterien und eine dokumentierte Eigenleistung enthalten. Ohne diese Struktur steigt die Gefahr, dass Output-Qualität mit Lernqualität verwechselt wird.

Für die schulische Interpretation bedeutet das: Studienbefunde sind als Entscheidungsrahmen zu lesen, nicht als pauschale Freigabe. Übertragbar sind vor allem die Prinzipien der expliziten Steuerung, der schrittweisen Verifikation und der verpflichtenden Reflexion über Prompting, Debugging und Verantwortung.

Kernaussagen der Forschung

  • Governance-Modelle mit klaren Freigabekriterien reduzieren Wildwuchs und Insellösungen.
  • EQAITE-Dimensionen helfen, pädagogische Qualität, Fairness und Operabilität gemeinsam zu prüfen.
  • Teacher Professional Development ist zentral für wirksame und sichere Implementierung.

Praxis: Unterrichts- und Umsetzungsideen

Die Umsetzungsideen entfalten ihre Wirkung besonders dann, wenn sie in drei Phasen geplant werden: erst Zielklärung und Rollenfestlegung, dann angeleitete Durchführung mit dokumentierten Entscheidungen, anschließend Auswertung mit Fokus auf Verständnis, Fehleranalyse und Transfer. Dieser Ablauf reduziert Zufallserfolge und macht Lernfortschritt sichtbar.

Unterrichtspraktische Umsetzung: Ampel-Workshop (Zielgruppe:Schulleitung + IT + Fachschaft ,Dauer:45 Min.): Tools und Szenarien werden gemeinsam in Grün/Gelb/Rot eingeordnet.

EQAITE-Selbstbewertung (Zielgruppe:Steuergruppe ,Dauer:35 Min.): Schule bewertet bestehende KI-Praxis entlang der sieben Qualitätsdimensionen.

PD-Microcredential Plan (Zielgruppe:Lehrpersonen ,Dauer:30 Min.): Fortbildungspfad zu Prompting, Verifikation, Bias und Datenschutz wird gestuft geplant.

Tiefer in die Forschung eintauchen

Alle in diesem Modul zitierten Studien, Reviews und Primärquellen finden Sie übersichtlich aufbereitet in unserer Evidenzbibliothek:

Zur Evidenzbibliothek Vibe Coding