Instruktionale Erklärungen mit Machine Learning beurteilen

Automatisierte Beurteilung instruktionaler Erklärungen der Physik unter Verwendung von Natural Language Processing und Machine Learning

Ausgangslage

Von Elisabeth Grudzinski wurde ein Performanztest zur professionellen Handlungskompetenz entwickelt, welcher in einer nachgestellten Unterrichtsituation die Erklärensfähigkeit prüft.
Hierbei mussten Lehramtsstudierende innerhalb von zehn Minuten geschulten Adressaten in einem vorgegebenen Sachkontext (z.B. Kurvenfahrt, Asteroidensprengung) verschiedene physikalische Konzepte (z.B. Impulserhaltung, Bezugssystem) erklären. Diese Situationen wurden videographiert und anschließend ausgewertet. Für die Auswertung wurde ein einfach anzuwendendes Kategoriensystem entwickelt, welches mit hoher Wahrscheinlichkeit die Qualität einer Erklärung beurteilen kann.

Um dieses System in größerem Umfang anzuwenden, wurde von Hauke Bartels ein Erklärtest mit geschlossenen Antworten basierend auf dem Kategoriensystem entwickelt.

Ziele

Ziel des Promotionsvorhabens ist die Entwicklung und Erprobung einer automatisierten Auswertung von freien Antworten, so dass eine Lernumgebung für Studierende entwickelt werden kann, welche automatisiert eine Beurteilung von frei gesprochenen Erklärungen ermöglicht.