Seit dem Release von ChatGPT im Jahr 2022 sind viele Menschen dazu übergegangen, anstatt Informationen selbst bei Google zu suchen, einfach eine KI wie ChatGPT oder Gemini zu fragen, bekommt man so doch nicht nur die gewünschten Informationen, sondern sie werden einem auch noch verständlich aufbereitet, quasi auf einem Silbertablett präsentiert.
Doch genau das führt womöglich dazu, dass man diese Informationen nicht so gut lernt, als wenn man sie sich selbst zusammengesucht hätte – das besagt zumindest eine neue Studie von Shiri Melumad und Jin Ho Yun über den Einfluss von LLMs (Large Language Models) auf unser Lernverhalten.
LLMs lassen Google und co langsam hinter sich
Es ist natürlich verständlich, dass viele Menschen mittlerweile lieber ChatGPT und co bemühen anstatt sich selbst auf die Suche nach Informationen zu machen, doch das birgt auch Gefahren. So haben es ChatGPT und andere KIs z.B. nun mal so an sich, dass sie den Nutzer immer zufrieden stellen wollen, und das quasi „um jeden Preis“. Das geht teilweise so weit, dass sie sich einfach Antworten ausdenken, wenn sie eine Frage sonst nicht beantworten könnten, das habe ich auch selbst schon bei ChatGPT erlebt.
Verhindern kann man das indem man der KI z.B. sagt, dass sie einem in Zukunft nur noch Antworten präsentieren soll, die auch nachweisbar wahr sind (und für die sie ggf Quellen liefern können, bzw diese direkt mit angeben), aber das machen natürlich die wenigsten, in der Regel werden die meisten einfach davon ausgehen, dass das schon stimmt, was die KI sagt, und das nicht weiter hinterfragen.
Wie diese Studie zeigt, müssen die Antworten der KIs aber nicht einmal falsch sein, um einen negativen Einfluss auf uns zu haben, offenbar speichert man Informationen, die man von einer KI fertig aufbereitet präsentiert bekommt, nicht so gut wie solche, die man sich selbst „erarbeitet“ hat.
ChatGPT vs Google
Für besagte Studie wurden zunächst 1.136 Probanden aufgefordert, sich über ein bestimmtes Thema (z.B. wie man einen Gemüsegarten anlegt) zu informieren, über das sie ein hypothetischer Freund um Rat gebeten habe. Dabei durfte die eine Hälfte nur ChatGPT und die andere Hälfte nur Google nutzen. Im Anschluss sollten die Probanden aufschreiben, welchen Rat sie diesem „Freund“ geben würden. Außerdem wurden sie darüber befragt, wie sie selbst einschätzen, etwas dabei gelernt zu haben.
Die Ergebnisse der Studie sind recht eindeutig: Lernen mit Hilfe von LLMs führt im Schnitt zu deutlich oberflächlicherem Wissen als die „altmodische“ Websuche. Nutzer, die Informationen über LLM-Zusammenfassungen erhielten, berichteten, weniger neue Dinge gelernt zu haben und fühlten sich weniger in das Thema vertieft. Dies geschah selbst dann, wenn die LLM-Antworten Links zu Quellen enthielten (da diese selten angeklickt wurden).
Außerdem ist das Lernen mit Hilfe einer LLM ein passiverer Prozess, bei der traditionellen Suche müssen Nutzer verschiedene Quellen aufsuchen und Informationen selbst synthetisieren (aktiv). LLMs übernehmen diesen Prozess (passiv), was zwar effizienter ist, aber den kognitiven Prozess des „Deep Learning“ hemmt.
Auch die Qualität der Ratschläge war bei den Nutzern von ChatGPT deutlich geringer. Wenn Teilnehmer gebeten wurden, basierend auf ihrer Recherche Ratschläge zu formulieren, waren die Ratschläge der LLM-Nutzer kürzer und weniger detailliert (weniger Fakten), weniger originell (die Texte ähnelten sich stärker und waren generischer) sowie weniger überzeugend (Dritte waren weniger bereit, diese Ratschläge anzunehmen).
Diese Untersuchungen wurden später noch mehrmals mit anderen Probanden wiederholt um die Ergebnisse zu verifizieren, insgesamt nahmen letztlich über 10.000 Personen an der Studie teil und die Ergebnisse waren immer die selben.
Fazit
Während LLMs zwar eine enorme Effizienzsteigerung bieten und Informationen schneller zugänglich machen, warnt die Studie davor, dass diese Bequemlichkeit auf Kosten der Wissenstiefe und der Fähigkeit gehen kann, selbst originelle und fundierte Gedanken zu einem Thema zu entwickeln.
Schon in früheren Studien hatte man übrigens festgestellt, dass sich unser Gehirn, bzw dessen Arbeitsweise, durch die ständige Verfügbarkeit von Informationen langsam dahingehend anpasst, statt der eigentlichen Informationen vielmehr zu speichern, woher man diese Informationen bekommt. So lange man auch wirklich immer Zugriff auf diese Informationen (Internet, Google) hat, ist das natürlich deutlich effektiver, da insgesamt viel weniger gespeichert werden muss, zu einem Problem wird es allerdings sobald man mal keinen Zugriff auf diese Quellen mehr hat.
