Semi-automatische Klassifizierung von Schülerzeichnungen und Texten in den MINT-Fächern
Leitung: Prof. Dr. Ralph Ewerth, Prof. Dr. Sascha Schanze und Dr. Sarah Dannemann
Naturwissenschaftliche Vorgänge werden von Lernenden oftmals basierend auf bereits bekannten Alltagsvorstellungen interpretiert. Lernvorgänge effizient zu gestalten bedeutet, an diese Vorstellungen der Lernenden anzuknüpfen, um sie zu erweitern bzw. gegebenenfalls gezielt zu kontrastieren. Dafür ist eine Diagnose existierender Vorstellungen im Klassenverband ein erster wichtiger Schritt.
Zur Diagnose werden die Schüler*innen bspw. dazu aufgefordert, individuelle Repräsentationen anzufertigen — der untersuchte Vorgang wird in eigenen Worten beschrieben oder in Form von Zeichnungen skizziert. Um darauf aufbauend individuelle Lernprozesse zu unterstützen, muss zunächst eine detaillierte Analyse der entstehenden Artefakte durch die Lehrperson erfolgen — eine Aufgabe, die im Schulalltag nur schwer zu realisieren ist.
Das Promotionsprojekt beschäftigt sich mit der Entwicklung maschineller Lernverfahren in Verbindung mit Wissensgraphen, um Schülerartefakte verschiedener Modalitäten (Zeichnungen, Text und deren Kombination) automatisch nach inhaltlicher Ähnlichkeit für Lehrende vorzuklassifizieren. Es sollen hierbei verschiedene Konzeptionen von “Ähnlichkeit” exploriert werden: So könnte eine Gruppierung z. B. auf Basis der Ähnlichkeit der im Artefakt ausgedrückten Vorstellungen passieren, oder Arbeiten von ähnlichem Korrektheitsgrad zusammenfassen.
Vorarbeiten, die die automatische Analyse von Zeichnungen im Schulkontext behandeln, sind bisher nur vereinzelt vorhanden, etwa zur Analyse von Bauteilkompositionen im Physikunterricht (Shelton 2016), Forbus et al. (2018) diskutiert Nutzungsszenarien in der Informatik und den Geowissenschaften. Die automatische Analyse von Zeichnungen ist allerdings – trotz der Fortschritte aufgrund von Deep Learning und neuronalen Netzen (Krizhevsky et al. 2012, Sharif Razavian et al. 2014, Überblick siehe Ewerth et al. 2017) – noch eine große Herausforderung.
In enger Kooperation mit Experten aus den Bildungswissenschaften wird zudem untersucht, unter welchen instruktionalen Voraussetzungen eine solche automatisierte Klassifizierung individueller Repräsentationen gelingen kann.
Literatur
Ewerth, R., Springstein, M., Phan-Vogtmann, L. A., & Schütze, J. (2017). “Are Machines Better Than Humans in Image Tagging?”-A User Study Adds to the Puzzle. In European Conference on Information Retrieval. Springer, Cham. 186-198
Forbus, K. D., Garnier, B., Tikoff, B., Marko, W., Usher, M., & McLure, M. D. (2018). Sketch Worksheets in STEM Classrooms: Two Deployments. In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, (AAAI-18), the 30th innovative Applications of Artificial Intelligence (IAAI-18), and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence (EAAI-18), New Orleans, Louisiana, USA, February 2-7, 2018 (pp. 7665–7672). Retrieved from https://www.aaai.org/ocs/index.php/AAAI/AAAI18/paper/view/16540
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in neural information processing systems (pp. 1097-1105)
Sharif Razavian, A., Azizpour, H., Sullivan, J., & Carlsson, S. (2014). CNN features off-the-shelf: an astounding baseline for recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition workshops (pp. 806-813).
Shelton, A., Smith, A., Wiebe, E., Behrle, C., Sirkin, R., & Lester, J. (2016). Drawing and writing in digital science notebooks: Sources of formative assessment data. Journal of Science Education and Technology, 25(3), 474-488.