von Johannes Mahlmann, Diakon, wissenschaftlicher Mitarbeiter Evangelische Hochschule Nürnberg | veröffentlicht am 7. August 2023

„Schreibe mir für ein fünfjähriges Kind eine Gute-Nacht-Geschichte, in der eine kleine Ziege nicht einschlafen kann“.

Das war im Dezember 2022 mein erster Auftrag, welchen ich dem KI-gestützten Chatbot ChatGPT stellte. In dem generierten Text traten eine Reihe an Tieren auf, die eine kleine, unglaublich wache Ziege in den Schlaf wiegten, ihr etwas vorsangen, mit ihr spazieren gingen, sie mit vielfältigen (und sehr differenzierten) Entspannungstechniken therapierten. Als nichts half, so die Pointe der Geschichte, wurde die kleine Ziege von den anderen Tieren in ärztliche Behandlung gebracht, wo sie schließlich eine Spritze erhielt.

Nun ist Gute-Nacht-Prosa ein verhältnismäßig banales Anwendungsszenario, dennoch macht diese Geschichte Chancen und Grenzen von ChatGPT gleichermaßen deutlich. Inhaltlich liefert das Programm Textprodukte in vielfältigen Formaten: Fachartikel, Gedichte, Witze, Codes in diversen Programmiersprachen, Essays und Vieles mehr. Auch ein ganzer Gottesdienst konnte KI-gestützt generiert werden, wie ein Experiment am zurückliegenden Kirchentag zeigte. Das funktioniert nicht immer fehler- und widerspruchsfrei, jedoch beeindruckend elaboriert. Daneben sind die generieten Textprodukte weitestgehend emotionslos, was wenig überraschend ist. Emotionen und damit zusammenhängende kognitiven Leistungen (zum Beispiel reflektierte Bewertung) kann ein Programm wie ChatGPT nicht selbst erzeugen, allerdings bei Nutzer*innen auslösen. Das führt bisweilen zu der Ambivalenz, die Sie vermutlich in der Geschichte um die kleine Ziege wahrgenommen haben und die neben unserem überraschten Erstaunen, ein befremdliches Gefühl hinterlässt.

Künstliche Intelligenz bringt weitreichenden Implikationen für den Bildungsbereich mit sich. Das liegt auch an der Entwicklungsdynamik solcher Anwendungen. Bereits seit der Veröffentlichung hat ChatGPT mehrere Entwicklungsschritte durchlaufen. Beruhte es in der Version 3.5 auf etwa 175 Mrd. Parametern, sind es nun in der Version 4.0 vermutlich mehrere Billionen (wobei sich die entwickelnde Firma OpenAi in dieser Frage bisher bedeckt hält). Damit basieren die generierten Antworten auf einer deutlich höheren Datengrundlage, sind aktueller und weisen einen höheren Präzessionsgrad auf (Gimpel et al, 2023). Weitere Anwendungen anderer Anbieter sind bereits auf dem Markt oder kurz vor ihrem Release. Nachvollziehbar also, dass der Einsatz von Large Language Models wie ChatGPT kontrovers diskutiert wird. Wenn Wissen auf Knopfdruck passgenau in Textform gegossen werden kann, verliert es an Relevanz. Zudem könnte bei Lernenden eine differenzierte Auseinandersetzung mit einem Wissensgegenstand oberflächlich bleiben und damit zu einer reduzierten Kompetenz oder Kreativität führen. Ob diese (exemplarischen) Befürchtungen zutreffend sind, vermag ich an dieser Stelle nicht abschließend zu beurteilen. Eine aktuelle Untersuchung des Digitalverbandes Bitkom zeigt allerdings, dass 53 % der jugendlichen Schüler*innen ChatGPT bereits nutzte (Bitkom, 2023). Auch wenn diese Untersuchung nicht repräsentativ ist, lässt sie einen pädagogischen Handlungsbedarf erkennen. Problematisch scheint vor allem ein ungeregelter und unreflektierter Einsatz eines solchen Systems: Wenn Schüler*innen irgendwie und unbegleitet KI anwenden. Wie könnte also ein pädagogischer Einsatz aussehen? Dem möchte ich, bei aller gerechtfertigter Kritik und Skepsis gegenüber dem Programm mit zwei Schlaglichtern nachgehen:

1.) Wie kann ChatGPT zur Kompetenzentwicklung eingesetzt werden?

Dem Kompetenzbegriff von Franz Weinert (2001) folgend, entfalten sich Kompetenzen in der situativen Anwendung von kognitiven Fähig- und Fertigkeiten zur Problemlösung in Verbindung mit motivationalen und volitionalen Bereitschaften einer Person. Kompetenz beruht also auf einem Dreiklang aus Wissen, Können und Haltungen. KI-gestützte Werkzeuge wie ChatGPT leisten auf diesem Hintergrund zunächst einen Beitrag zur Generierung von Wissen. Mit wenig Aufwand kann ein komplexer Text zu einem Thema oder zumindest ein brauchbarer Referenzrahmen erstellt werden. Problematisch ist, dass die zugrundeliegenden Quellen von dem Programm selbst nicht angegeben werden und für die Nutzer*innen nur schwer nachvollziehbar sind. Zudem ist nicht jede der generierten Antworten korrekt oder das Antwortniveau eher oberflächlich. Manchmal schlägt das System Publikationen vor, die nicht existieren. Blindes Vertrauen ist demnach nicht angebracht. Gerade dieser Aspekt kann jedoch zu einer kritischen Auseinandersetzung mit einem Wissensgegenstand anregen. Dahinter liegt eine Kompetenz, die im europäischen Referenzrahmen für digitale Kompetenzen (DigComp 2.2) mit dem Begriff „Data- and Information Literacy“ gefasst ist (Vourikari et al., 2022): also die Fähigkeit mit Daten und Informationen souverän und verantwortungsbewusst umzugehen, diese zu bewerten und in konkreten Bezügen anzuwenden. Lernende könnten zum Beispiel zu vorgegebenen Fragestellungen ChatGPT befragen, die generierten Informationen anhand von definierten Quellen prüfen und im Rahmen eines Fallbezugs anwenden sowie reflektieren. Dazu gehört auch eine Auseinandersetzung mit den eingangs geschilderten Emotionen, welche in der Arbeit mit ChatGPT entstehen und wichtige Entwicklungsbausteine einer Haltung dazu sein können. Im Rahmen von Lehr-Lern-Arrangements nehmen demnach auf diesem Hintergrund Wissensbewertung, Reflexion sowie ein Anwendungsbezug eine deutlich größere Rolle ein, als Wissensreproduktion, was dem geschilderten Kompetenzverständnis entspricht.

Darüber hinaus erfordert die Anwendung von ChatGPT selbst die Fähigkeit, zielführende Aufforderungen und Fragen (Prompts) zu einem Thema zu formulieren bzw. einzugeben, um ein möglichst gutes Ergebnis zu erzielen. Oder negativ formuliert: Garbage in, garbage out. Ein effektiver Prompt sollte beispielsweise konkret formuliert sein und alle relevanten Informationen, wie die gewünschte Aufgabe, das Format und das angestrebte Ziel, enthalten (Gimpel et al., 2023). Das kann mit Lernenden trainiert werden ,setzt bei diesen jedoch zunächst eine differenzierte Auseinandersetzung mit einem Wissensgegenstand voraus.

2.) Kann ChatGPT Lernbegleiter sein?

Sie haben Recht, wenn Sie diese Frage reichlich plakativ und undifferenziert finden. Natürlich benötigen die beschriebenen Lernprozesse eine pädagogisch-didaktische Begleitung. Das diese jedoch nicht von einer Anwendung wie ChatGPT übernommen werden kann, liegt auf der Hand. Lernbegleitung ist ein komplexer pädagogischer Prozess, welche auf die Initiierung, Begleitung und Beratung eines möglichst selbstgesteuerten Lernprozesses zielt (Siebert, 2006). ChatGPT kann allgemeine Empfehlungen zur Gestaltung eines solchen Prozesses produzieren, eine individuell angepasste Begleitung ist das allerdings nicht. Diese erfordert von den Lehrenden weitreichende Kompetenzen, um fachliches Know-how mit der Analyse eines individuellen Lernprozesses sowie den damit zusammenhängenden psychosozialen Implikationen zu verbinden. Der bereits zitierten Bitkom-Untersuchung folgend (2023) erwarten 66 % der Schüler*innen zwischen 14 und 19 Jahren eine Verbesserung ihrer Leistungen durch den Einsatz von ChatGPT. Auf diesem Hintergrund kann jedoch eher von dem Bedarf einer Lernassistenz ausgegangen werden. Wenn sich eine Schülerin zu Hause einen komplizierten Lateinsatz übersetzten und sich zudem die dazugehörige Grammatik exemplarisch erläutern lassen kann, liegt darin die Chance einer leicht zugänglichen Nachhilfe. Eine umfassende und einfühlsame Begleitung ersetzt es nicht, wenn die Schülerin mit ihrem Latein am Ende ist.

Was hat nun die Geschichte um die kleine Ziege, die nicht einschlafen wollte mit den skizzierten pädagogisch-didaktischen Implikationen des Einsatzes von ChatGPT zu tun? Wir können uns damit mehr oder weniger unterhaltsame Geschichten erzählen, ebenso wir elaborierte Fachtexte erstellen lassen. Emotionsarbeit, ethische fallbezogene Bewertungen oder reflexive Prozesse kann ein solches System (noch) nicht leisten, aber es kann dafür sensibilisieren und dabei selbst zur Methode und zum Lerngegenstand werden. Warum ist die ärztliche Behandlung der kleinen Ziege ggf. ein fragwürdiger Ansatz? Wie hätte die kleine Ziege alternativ einschlafen können? Was hätten Sie versucht?


Literatur

Bitkom (2023). Hälfte der Schülerinnen und Schüler hat schon mal ChatGPT genutzt. Pressemitteilung. Online: https://www.bitkom.org/Presse/Presseinformation/ChatGPT-in-Schule-nutzen.

Gimpel, Hall, Deckert, Eymann, Lämmermann, et al. (2023). Unlocking the Power of Generative AI Models and Systems such as GPT-4 and ChatGPT for Higher Education. A Guide for Students and Lecturers. Online: http://opus.uni-hohenheim.de/volltexte/2023/2146/pdf/dp_2023_02_online.pdf.

Gimpel, Jung, Utz, Wöhl (2023). Von Null auf ChatGPT. Eine Schritt-für-Schritt-Anleitung, um sich mit der künstlichen Intelligenz vertraut zu machen. Online: https://digital.uni-hohenheim.de/fileadmin/einrichtungen/digital/Von_Null_auf_ChatGPT_-_Anleitung.pdf.

Siebert (2006). Selbstgesteuertes Lernen und Lernberatung: Konstruktivistische Perspektiven. Augsburg: Ziel Verlag.

Varoukiri, Kluzer, Punie (2022). DigComp 2.2. The digital Competence Framework for Citizenz. Online. https://publications.jrc.ec.europa.eu/repository/handle/JRC128415.

Weinert (Hrsg.) (2001): Leistungsmessung in Schulen. Weinheim und Basel: Beltz Verlag.


0 Kommentare

Schreibe einen Kommentar

Avatar-Platzhalter

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Skip to content