31. März 2025
Verlieren wir durch Künstliche Intelligenz die Fähigkeit zum kritischen Denken?

KI-Tools wie ChatGPT & Co. helfen im Alltag, doch Forscher warnen: Sie könnten unser Denken schwächen und abhängig machen.
Von Michael Förtsch
Vor mehr als zehn Jahren drehte der französische Regisseur Arthur Môlard einen Science-Fiction-Kurzfilm mit dem Titel Jiminy. Er spielt in einer nahen Zukunft, in der sich fast alle Menschen der westlichen Welt eine Grille in den Nacken haben implantieren lassen. Dabei handelt es sich um einen kleinen Computerchip, der mit den Nervenbahnen verbunden ist. So kann er direkt mit seinem Träger sprechen und ihm bei alltäglichen Problemen helfen. Die Grille rät vom Kaffeetrinken ab, wenn der Blutdruck zu hoch ist, oder erinnert an kochendes Wasser auf dem Herd. Im Automatikmodus übernimmt die Grille sogar direkt alles, woran der Nutzer selbst nicht denkt, was er nicht kann oder was er nicht tun will. Sei es das Autofahren oder das Binden einer Krawatte.
Die intelligenten Helfer haben allerdings auch eine Nebenwirkung, wie der Techniker Nathanaël feststellen muss. Als seine Grille beschädigt wird, merkt er, wie sehr er sich im Alltag darauf verlassen hat, wie viele Entscheidungen und Tätigkeiten ihm das kleine Gerät abgenommen hat. Er muss sich für ein Frühstück entscheiden, steht aber wie Buridans Esel vor seinem Küchenschrank und weiß nicht, was er tun soll. Mit Jiminy könnte der Filmemacher Arthur Môlard eine durchaus prophetische Vorhersage getroffen haben. Denn Forscher warnen davor, dass durch heutige und künftige KI-Assistenten eine ganz reale Abhängigkeit auf emotionaler, instrumenteller und funktionaler Ebene entstehen könnte. Eine Abhängigkeit, die dazu führt, dass Fähigkeiten, Beziehungen und Wissen verloren gehen.
Erst im Februar veröffentlichten Forscher der Carnegie Mellon University und Microsoft gemeinsam eine Studie, in der sie darlegen, dass eine zu häufige Nutzung von KI-Tools zur Bewältigung von Aufgaben die kognitiven Fähigkeiten beeinflussen kann. Konkret könnte die dauerhafte Nutzung von generativer KI à la ChatGPT, Claude und Gemini die Fähigkeit zum kritischen Denken verkümmern lassen: also die Fähigkeit, dargebotene Informationen systematisch zu analysieren, mit vorhandenem Wissen abzugleichen, logische Zusammenhänge herzustellen und daraus fundierte Schlüsse zu ziehen und Entscheidungen abzuleiten.
Für ihre Studie befragten die Forscher 319 so genannte Wissensarbeiter, deren Aufgabe es ist, mit Daten und Informationen umzugehen. Je mehr Vertrauen diese in die Fähigkeiten der Künstlichen Intelligenz haben, desto weniger würden sie deren Arbeit hinterfragen – und sich kritisch damit auseinandersetzen. Vor allem bei Tätigkeiten mit „geringem Risiko“ – wie etwa dem Formulieren einer Einladungs-E-Mail oder dem Zusammenfassen eines Textes – würden die Beschäftigten die Ergebnisse der generativen KI nicht oder nur bedingt hinterfragen.
Auch wenn der Verlass auf Künstliche Intelligenz bei niedrigschwelligen und begrenzten Tätigkeiten an sich keine immanente Gefahr darstellt, sieht das Team der Carnegie Mellon University und von Microsoft das Potenzial für die Entwicklung einer „langfristigen Abhängigkeit und verminderten Fähigkeit zur eigenständigen Problemlösung“. Den Menschen falle es bei einer fortschreitenden Nutzung der KI-Tools zunehmend schwerer, sich kritisch mit den von der generativen KIs präsentierten Inhalten auseinanderzusetzen, Fehler und Inkonsistenzen zu erkennen und zu korrigieren.
Zu einem ähnlichen Ergebnis kommt eine Studie des Zentrums für Strategische Zukunftsforschung und Nachhaltigkeit der SBS Swiss Business School. Die Forscher befragten über 600 Personen und ließen sie Tests absolvieren, die das kritische Denken fordern. Jene Teilnehmenden, die angaben, KI-Tools besonders häufig für „kognitives Offloading“ zu nutzen – also um Aufgaben für sie zu übernehmen –, schnitten in den Tests im Durchschnitt schlechter ab. Ebenso zeigte sich, dass jüngere Menschen zwischen 17 und 25 Jahren stärker von einer Schwächung des kritischen Denkens betroffen sind als ältere. Denn sie nutzten häufiger KI-Tools und lagen bei den Ergebnissen sichtbar hinter den älteren Studienteilnehmern zurück. „Unsere Forschung zeigt eine signifikante negative Korrelation zwischen der häufigen Nutzung von KI-Tools und der Fähigkeit zum kritischen Denken“, so die Autoren.
Verlernen wir Fähigkeiten?
Bereits 2023 untersuchte ein transnationales Team den Einfluss von Künstlicher Intelligenz auf Studierende in Pakistan und China. Denn obwohl Künstliche Intelligenz „ein wesentlicher Bestandteil der Bildung werden kann“, bringt sie nicht nur Vorteile, sondern auch Nachteile mit sich, wie die Autoren schreiben. Für ihre in Nature veröffentlichte Studie befragten die Wissenschaftler 285 Studierende verschiedener Universitäten zu ihrer Nutzung von KI und ihrer Einschätzung, wie sich diese auf sie auswirke. Dabei hätten die Forscher „signifikante Effekte“ ausmachen können. Vor allem bei der Problemlösungs- und Entscheidungskompetenz sowie bei der Motivation der Studierenden.
Aus den Angaben der Studierenden errechneten die Forscher, dass die Entscheidungsfähigkeit der Befragten um 27,7 Prozent durch die Nutzung von KI-Werkzeugen abgenommen habe und die Passivität – sprich Faulheit – um 68,9 Prozent zugenommen habe, weil sie eigene Denkarbeit zunehmend an KI delegieren. Darüber hinaus gaben die Studierenden an, dass sie glauben, dass KI-Tools ihre Fähigkeit verringern, komplexe Probleme eigenständig zu lösen. „Die Ergebnisse der Datenanalyse zeigen, dass KI einen erheblichen Einfluss auf den Verlust der menschlichen Entscheidungsfähigkeit hat und den Menschen passiv macht“, so die Autoren. Da die Werte auf der Selbsteinschätzung der Befragten beruhen, sollten sie, nicht überbewertet werden, zeigen aber dennoch Auswirkungen, urteilten andere Forscher.
Tatsächlich sehen auch Mitglieder von verschiedenen Professionen den zunehmenden Einsatz und die Abhängigkeit von Künstlicher Intelligenz äußerst kritisch. Schon heute demonstrieren KI-Systeme etwa ein enormes Potenzial bei der Diagnose von Krankheiten und psychischen Störungen. In Zukunft sollen sie auch im Operationssaal eingesetzt werden, um Eingriffe vorzunehmen. Erste vielversprechende Experimente wurden bereits durchgeführt. So könnten schwerwiegende medizinische Probleme früher erkannt und Patienten einfacher und gezielter diagnostiziert und behandelt werden. „Der zunehmende Einsatz von KI wirft jedoch auch Bedenken auf“, warnen Autoren im August 2024 im Journal of Medicine, Surgery, and Public Health. Sie befürchten, dass KI-Systeme die Autorität, Motivation und das Selbstvertrauen von Ärzten und medizinischem Personal gefährden könnten.
Beispielsweise könnten sich Chirurgen genötigt sehen, „KI-gesteuerten Empfehlungen zu folgen, ohne die zugrunde liegende Logik [eines Eingriffs] vollständig zu verstehen“, da KI-Systeme noch nicht in der Lage sind, ihre Schlussfolgerungen vollständig aufzuschlüsseln. Das blinde Vertrauen in diagnostische Systeme wiederum könnte dazu führen, dass Ärzte, Psychiater, Psychotherapeuten und Pflegekräfte ihre Aus- und Weiterbildung vernachlässigen und sich nicht trauen, Diagnosen, Röntgen- und MRT-Analysen und Medikationsempfehlungen der digitalen Ärzte zu hinterfragen. Bei Berufseinsteigern könnte Künstliche Intelligenz sogar dazu führen, dass wesentliche Fähigkeiten und die für den medizinischen Alltag notwendige Intuition gar nicht erst ausgebildet werden, wie eine Studie aus dem Jahr 2024 spekuliert. „Auch wenn KI vielversprechend ist, ist ein vorsichtiger Ansatz unerlässlich, um eine übermäßige Abhängigkeit zu vermeiden.“
Ganz ähnliche Warnungen kommen von Software- und Webentwicklern. Viele von ihnen verlassen sich bereits immer öfter auf die Fähigkeiten von Sprachmodellen, Programmiercode zu generieren und zu korrigieren. Vor allem, um ihre Produktivität zu steigern und Zeit zu sparen, wie ein Bericht von McKinsey nahelegt. Laut Anthropic-Gründer Dario Amodei könnte schon in wenigen Monaten fast 90 Prozent des Codes weltweit von KI geschrieben werden. Der ehemalige Google-Entwickler Jack O'Brien sieht die Aufgabe von Programmierern daher künftig darin, Code abzunehmen und Entscheidungen zu treffen: über Systemarchitektur, Algorithmen und Implementierungen. Das Wissen und die Kreativität, solche Entscheidungen zu treffen, könnten jedoch fehlen.
Das Open-Source-Unternehmen Sonar sieht die Gefahr einer Kompetenzatrophie, wenn man sich in der Coder-Community zu sehr auf KI-Coding-Assistenten verlässt. Insbesondere in Bezug auf die Fähigkeit, Code effizient zu strukturieren, domänenspezifisch zu optimieren und Best-Practice-Methoden für Sicherheit korrekt anzuwenden. Es bestehe das Risiko, dass Entwickler „grundlegende Konzepte oder den Zweck jeder einzelnen Codezeile nicht mehr vollständig verstehen“. Dies könnte dazu führen, dass vor allem Anfänger nicht mehr ohne KI-Unterstützung auskommen oder ohne KI kritische Fehler und Lücken übersehen.
Einige Entwickler sehen auch eine „mechanisierte Konvergenz“ heraufziehen: eine schleichende Vereinheitlichung von Software- und Webcode und das Fehlen innovativer Ansätze und Lösungen, die die Entwicklung der Software- und Webindustrie in den letzten drei Jahrzehnten ermöglicht haben. Ebenso könnte das Wissen über die Wartung zu komplexer Softwaresysteme mit ihren ehemaligen Entwicklern verloren gehen, da diese Lösungen und Ansätze verwenden, mit denen die KI-Modelle nicht trainiert wurden.
Emotionale Abhängigkeit
Wie zwei erst im März 2025 veröffentlichte und parallel erarbeitete Studien von OpenAI und dem MIT Media Lab zeigen, könnte Künstliche Intelligenz nicht nur funktional, sondern auch emotional abhängig machen. Für das Forschungsprojekt hat OpenAI 40 Millionen Interaktionen von Menschen mit ChatGPT analysiert – unter Wahrung von Datenschutz und Privatsphäre, wie OpenAI betont. Zudem hätten die Forscherteams gezielte Interviews mit mehr als 4.000 Nutzern geführt. Dabei sei es vor allem darum gegangen, wie „die von den Nutzern selbst angegebene Stimmung gegenüber ChatGPT mit den Attributen der Nutzerdiskussionen korreliert, um ein besseres Verständnis der affektiven Nutzungsmuster zu erhalten“. Das heißt, in welchen emotionalen Stadien sich die ChatGPT-Nutzer an den Chatbot wenden.
Gleichzeitig wurden 6.000 Heavy User des Chat- und Advanced-Voice-Modus über einen Zeitraum von drei Monaten beobachtet. Hinzu kamen nochmals 1.000 ChatGPT-Nutzer, die vom MIT Media Lab zufällig ausgewählt wurden. Bei ihnen wurden 28 Tage lang die Auswirkungen der ChatGPT-Nutzung auf vier psychosoziale Konzepte – Einsamkeit, Sozialisation, emotionale Abhängigkeit und problematischer Konsum – untersucht und in anschließenden Interviews diskutiert. Dabei wurde versucht, einen möglichst breiten und gleichzeitig zielgerichteten Querschnitt der ChatGPT-Nutzer abzubilden. Denn mittlerweile wird der Chatbot von über 400 Millionen Menschen pro Woche genutzt.
Beide Studien zeigen, dass viele Menschen den Chatbot eher arbeits- und aufgabenbezogen nutzen – und keine soziale oder emotionale Beziehung zu ihm aufbauen. Es gibt jedoch einen Nutzerkreis, der ChatGPT lange und regelmäßig nutzt und einen freundschaftlichen Umgang mit der Künstlichen Intelligenz pflegt. Diejenigen, die am intensivsten oder am häufigsten mit dem Chatbot interagieren, seien den Ergebnissen der Studie zufolge häufig auch einsamer als andere Nutzer. Außerdem würden sie Stress erleben, wenn die Modelle hinter ChatGPT ein Update erfahren, das sich auch in einem veränderten Verhalten des Dienstes niederschlägt.
Es gäbe auch Nutzer, bei denen die Forscher einen „problematischen Umgang“ mit KI festgestellt haben. Dies wird in den Studien als „Abhängigkeit [...] einschließlich Angst, Entzugserscheinungen, Kontrollverlust und Stimmungsschwankungen“ umrissen. Dies bestätigt und unterstreicht die Ergebnisse einer bereits 2024 veröffentlichten Studie eines Teams um das Social Computing Systems Lab der University of Illinois und der Pennsylvania State University, das Tausende von Reddit-Einträgen untersucht und mehrere Teenager und ihre Eltern befragt hat.
Den Forschern zufolge entwickeln vor allem Jugendliche zunehmend emotionale Bindungen und parasoziale Beziehungen zu KI-Chat-Diensten. Sie würden diese zur emotionalen Unterstützung, für therapeutische Gespräche und als Ersatzfreunde nutzen - und in einigen Fällen sogar romantische Beziehungen aufbauen. Wobei hier neben ChatGPT vor allem Dienste wie Character.AI eine wichtige Rolle spielen. Die exzessive Nutzung führe teilweise zu einer Erosion sozialer und interpersoneller Kompetenzen bei Heranwachsenden. Die Jugendlichen selbst äußerten in Interviews mit den Forschern die Befürchtung, eine emotionale Abhängigkeit zu entwickeln oder private Probleme und Sorgen ohne Zugang zu Chatbots nicht bewältigen zu können.

Michael Förtsch
Leitender Redakteur
Weiter bei 1E9...

Überschrift 3
Cooler Artikel!

Überschrift 3
Artikel

Überschrift 3
Cooler Artikel!

Überschrift 3
Cooler Artikel!
Es gibt bereits eine Reihe von Studien zu diesem Themenbereich. Seid 2019 sind Erhebungen im Gange, die die Nutzung von Smartphones und Social Media und deren Auswirkungen auf die kognitiven Fähigkeiten untersuchen. Und die Auswertungen sind erschreckend. Kognitive Fähigkeiten, kritisches Denken, Konzentrationsfähigkeit .. alles scheint zu sinken. Forscher in den USA haben hierzu 400.000 Menschen im Laufe eines Jahrzehnts mehrmals getestet. Und diese Tests verglichen. Der Intelligenzrückgang zeigte sich demnach über alle Altersklassen und Geschlechter hinweg. Besonders betroffen waren niedrige Bildungsschichten und 18- bis 22-Jährige. Eine Erklärung für den IQ-Rückgang lieferten die Forscher dieser Studie allerdings nicht.
🙄