Letztes Jahr im Herbst veröffentlichte ich einen New Yorker-Artikel mit dem Titel „Was für ein Schriftsteller ist ChatGPT?“. Mein Ziel bei diesem Beitrag war, besser zu verstehen, wie Undergraduate- und Graduate-Studierende KI nutzen, um ihre Schreibaufgaben zu unterstützen.
Damals bestand die Sorge, dass diese Tools zu Plagiatmaschinen werden könnten. („KI scheint fast dafür gemacht zu sein, Betrug zu befördern“, schrieb Ethan Mollick in seinem Bestseller „Co-Intelligence.“ Was ich beobachtete, war jedoch etwas komplexer.
Die Studierenden nutzten KI nicht, um für sie zu schreiben, sondern um Gespräche über ihre Texte zu führen. Wenn überhaupt, wirkte der Ansatz weniger effizient und zog sich länger hin, als einfach durchzuhalten und die Seite zu füllen. Aus meinen Interviews wurde klar, dass das Ziel der Studierenden weniger darin bestand, den Gesamtaufwand zu verringern, sondern vielmehr die maximale kognitive Belastung beim Verfassen von Prosa zu reduzieren.
„Mit dem Chatbot über den Artikel zu ‘sprechen’ war unterhaltsamer, als in stiller Isolation zu schuften“, schrieb ich. Normales Schreiben erfordert scharfe Konzentrationsspitzen, während die Arbeit mit ChatGPT „die Erfahrung abmildert, diese Spitzen in die gleichmäßigen Kurven einer Sinuswelle zu formen.“
Kürzlich habe ich über diesen Aufsatz nachgedacht, weil ein neues Forschungspapier des MIT Media Lab mit dem Titel „Your Brain on ChatGPT“ meine Hypothese unterstützt. Die Forscher baten eine Gruppe von Teilnehmern, einen Aufsatz ohne externe Hilfe zu schreiben, und eine andere Gruppe, sich auf ChatGPT 4o zu verlassen. Beide Gruppen wurden an EEG-Geräte angeschlossen, um ihre Gehirnaktivität zu messen.
„Der ausgeprägteste Unterschied zeigte sich im Alpha-Band-Konnektivität, wobei die Gruppe, die nur das Gehirn nutzte, deutlich stärkere semantische Verarbeitungsnetzwerke aufwies“, erklären die Forscher, bevor sie hinzufügen: „Die Gruppe, die nur das Gehirn nutzte, zeigte auch eine stärkere Informationsstreuung vom okzipitalen zum frontalen Bereich.“
Was bedeutet das? Die Forscher schlagen folgende Interpretation vor:
„Die höhere Alpha-Konnektivität in der Gruppe, die das Gehirn allein verwendete, deutet darauf hin, dass das Schreiben ohne Unterstützung wahrscheinlich eine stärkere intern getriebene Verarbeitung induzierte… ihre Gehirne waren vermutlich stärker in internes Brainstorming und semantisches Abrufen eingebunden. Die LLM-Gruppe…hat möglicherweise weniger auf rein internes semantisches Generieren zurückgegriffen, was zu einer geringeren Alpha-Konnektivität führte, da eine kreative Last auf das Tool abgeladen wurde.“ [Hervorhebung meinerseits]
Kurz gesagt, das Schreiben mit KI, wie ich im letzten Herbst beobachtete, reduziert die maximale Belastung, die das Gehirn aufbringen muss. Für viele Kommentatoren, die auf diesen Artikel reagieren, ist diese Realität selbstverständlich positiv. „Kognitives Offloading passiert, wenn großartige Werkzeuge uns erlauben, effizienter zu arbeiten und mit weniger mentalem Aufwand dasselbe Ergebnis zu erzielen“, erklärte ein Tech-CEO auf X. „Die Tabellenkalkulation hat die Mathematik nicht getötet; sie hat Billionen-Dollar-Industrien geschaffen. Warum sollten wir wollen, dass unser Gehirn dieselben Ressourcen für dieselbe Aufgabe nutzt?“
Meine Reaktion auf diese Realität ist gespalten. Einerseits denke ich, dass es Kontexte gibt, in denen die Reduzierung der Schreibbelastung ein klarer Vorteil ist. Berufliche Kommunikation per E-Mail und Berichte fallen mir ein. Das Schreiben hier dient einem größeren Ziel: der effektiven Kommunikation nützlicher Informationen. Wenn es also eine einfachere Möglichkeit gibt, dieses Ziel zu erreichen, warum nicht?
Aber im akademischen Kontext wirkt kognitives Offloading nicht mehr so harmlos. Hier eine Sammlung relevanter Bedenken bezüglich KI-Schreiben und Lernen, die im MIT-Papier angesprochen werden [Eigene Hervorhebungen]:
„Generative KI kann Inhalte nach Bedarf erstellen und den Studierenden schnelle Entwürfe auf minimaler Eingabe liefern. Während dies Zeit spart und Inspiration bietet, beeinträchtigt es auch die Fähigkeit der Studierenden, Informationen zu behalten und abzurufen – ein Schlüsselaspekt des Lernens.“
„Wenn Studierende sich auf KI verlassen, um längere oder komplexe Aufsätze zu produzieren, umgehen sie möglicherweise den Prozess der Synthese von Informationen aus dem Gedächtnis, was ihr Verständnis und ihre Behaltensleistung beeinträchtigen kann.“
„Dies deutet darauf hin, dass KI-Tools zwar die Produktivität steigern können, aber auch eine Form von ‘metakognitiver Faulheit’ fördern, bei der Studierende kognitive und metakognitive Verantwortlichkeiten an die KI abgeben, was ihre Fähigkeit zur Selbstregulation und zum tiefen Engagement mit dem Lernmaterial beeinträchtigen könnte.“
„KI-Tools…können es den Studierenden erleichtern, den intellektuellen Aufwand zu vermeiden, der erforderlich ist, um zentrale Konzepte zu internalisieren – was für langfristiges Lernen und Wissensvermittlung entscheidend ist.“
In einer Lernumgebung ist das Gefühl der Anstrengung oft eine Nebenwirkung, um klüger zu werden. Diese Anstrengung zu minimieren, ist wie die Nutzung eines Elektrorollers, um die Marschbefehle im Militärcamp zu erleichtern; es wird kurzfristig funktionieren, aber die langfristige Konditionierung durch die Märsche erschwert es, sich weiterzuentwickeln.
In dieser engen Debatte erkennen wir Hinweise auf die größere Spannung, die die aufkommende Ära der KI teilweise prägt: Um diese neue Technologie voll zu begreifen, müssen wir sowohl die Nützlichkeit als auch die Würde menschlichen Denkens besser verstehen.
Letzten Herbst veröffentlichte ich einen New Yorker-Artikel mit dem Titel „Was für ein Schriftsteller ist ChatGPT?“. Mein Ziel bei dem Beitrag war es, besser zu verstehen, wie ... Lesen Sie mehr