11. Juni 2025
Wenn KI die Kontrolle übernimmt: Geben wir unsere Autonomie auf, um zu Fleisch-und-Knochen-Avataren zu werden?

Die Entwicklung ist eindeutig. Künstliche Intelligenz wird immer fähiger und einflussreicher. Es wird immer einfacher, eigene Aufgaben und Entscheidungen an KI-Systeme wie ChatGPT, Claude und Co. zu delegieren. In naher Zukunft könnte jeder Mensch einen eigenen KI-Assistenten haben, der einem zahlreiche Herausforderungen des Alltags übernimmt. Doch was bedeutet das für die menschliche Autonomie? Welche Rolle bleibt für den Menschen, wenn die KI alles kann und tut?
Von Michael Förtsch
Eigentlich geht es in dem Prozess, der gerade vor dem U.S. District Court des District of Columbia verhandelt wird, um die Monopolstellung von Google bei der Internetsuche. Im Rahmen des Verfahrens tauchten jedoch wiederholt faszinierende Dokumente der Konkurrenten des Such- und Werbeunternehmens auf. Darunter auch: OpenAI. Das einst obskure KI-Forschungslabor hat sich seit dem Start von ChatGPT zu einer der größten Bedrohungen für Google entwickelt – und ist inzwischen eines der wertvollsten Unternehmen der Welt. Denn der Ende 2022 gestartete Chatbot hat sich für über 400 Millionen Menschen zu einer bequemen Anlaufstelle für alle möglichen Fragen und Probleme entwickelt – eine Zahl, die bis zum Jahresende die Schwelle von einer Milliarde überschreiten soll. Geht es nach OpenAI, soll ChatGPT bald aus unserem Leben nicht mehr wegzudenken sein.
Der nächste Schritt des KI-Unternehmens ist laut einem als hochgradig geheim gekennzeichneten Dokument mit dem Titel ChatGPT: H1 2025 Strategy, den eigenen Chatbot schrittweise in einen Super-Assistenten auszubauen. Einen, der „dich kennt, weiß, was dich kümmert, dir bei Aufgaben hilft, die sonst eine clevere, vertrauenswürdige, emotional intelligente Person mit einem Computer erledigt“. Modelle wie GPT-o2 und GPT-o3 seien inzwischen „clever genug“, um agentische Prozesse zuverlässig abzuwickeln, Computer und Apps selbstständig zu handhaben und komplexe Aufgabenketten zu bewältigen. Ein solcher Super-Assistent ist laut dem Dokument aus dem Jahr 2024 mehr als nur ein Werkzeug, sondern eine „intelligente Entität“. Denn: „Er ist für dich personalisiert und überall verfügbar, egal wohin du gehst.“
Die ersten Maßnahmen zur Umsetzung dieses Ziels sollten in der ersten Hälfte dieses Jahres stattfinden – wie etwa der Ausbau des Gedächtnisses der Künstlichen Intelligenz. ChatGPT kann sich auf Wunsch des Nutzers nun an zahlreiche persönliche Details, Konversationsvorlieben sowie den Inhalt zurückliegender Konversationen erinnern, darauf Bezug nehmen und all das bei Antworten berücksichtigen. So kann ChatGPT bei Rezeptvorschlägen automatisch Gerichte überspringen, die Zutaten enthalten, auf die der Nutzer allergisch reagiert oder die schonmal vorgeschlagen und abgelehnt wurden, bei einer Reiseplanung die Kinder berücksichtigen oder bei Filmvorschlägen zunächst jene hervorheben, die auf den Streaming-Diensten enthalten sind, die der Nutzer abonniert hat.
Ein Assistent für das ganze Leben
Laut dem teilweise stark geschwärzten Dokument ist das langfristige Ziel von OpenAI, den Super-Assistenten omnipräsent zu machen und OpenAI als eine integrale Größe für Milliarden Menschen zu etablieren. Der Assistent soll auf dem Computer im Browser, auf dem Smartphone als App und wohl auch in dedizierter Hardware verfügbar sein. Aus dem Dokument wird unmissverständlich klar: OpenAI will aus ChatGPT nicht nur einen Assistenten machen, der hin und wieder helfen kann, sondern ein digitales Werkzeug, das fest mit dem Leben der Nutzer verwoben ist. Die KI soll zu einem Begleiter werden, den die Nutzer nicht mehr missen können und wollen. Langfristig soll er essentielle To-dos abarbeiten, still und leise Lästigkeiten des Alltags übernehmen und sogar bei lebensverändernden Entscheidungen mitreden.
Die Vision? KI-Werkzeuge wie ChatGPT oder Claude sollen Menschen entlasten und ihnen Zeit freiräumen, damit sie sich wichtigen Aufgaben und ihrer Freizeit widmen können. Diese Vorstellung birgt jedoch auch eine Gefahr. Einige KI- und Gesellschaftsforscher befürchten, dass Künstliche Intelligenz zu einer gigantischen Bevormundungsmaschine heranwachsen könnte. Das unkomplizierte Outsourcing von Situationsbeurteilung und Entscheidungsfindung an KI-Systeme könnte zu einem Verlust der menschlichen Handlungsfähigkeit führen. Denn aus dem allzu bequemen Delegieren und Automatisieren selbst einfachster Fragen und Alltagsherausforderungen könnte sich eine Abneigung gegen kognitive Anstrengungen entwickeln: eine Denk- und Entscheidungsfaulheit.
Ebenso könnte eine kulturelle Stagnation eintreten. Denn KI-Assistenten arbeiten auf Basis der erlernten und beobachteten Präferenzen der Nutzer: Sie erkennen, was ihnen gefällt und was nicht. Dies kann über längere Zeit zu einer Rückkopplungsschleife führen, in der die KI-Systeme immer mehr des immer Gleichen vorschlagen. Dadurch werden die vermeintlichen Präferenzen des Nutzers zunehmend verstärkt und neue Impulse ausgeschlossen. Nicht, weil der Nutzer dies aktiv entschieden hat, sondern weil andere Optionen algorithmisch gar nicht erst in Betracht gezogen werden. Der Nutzer mag dadurch das Gefühl haben, stabile und gefestigte Vorlieben entwickelt zu haben, wird aber in Wahrheit von Künstlicher Intelligenz von neuen Reizen abgeschottet. Ein solches Phänomen lässt sich bereits bei vielen Netflix-Nutzern beobachten: Der Streaming-Dienst präsentiert Vorschläge vorwiegend auf Grundlage bisheriger Sehgewohnheiten und Bewertungen – wodurch sich Nutzer zunehmend in einem engen Spektrum bewegen.
Derartiges könnte in breiteren medialen, gesellschaftlichen und sozialen Feldern sogar zu einer Verzerrung der kollektiven Wirklichkeitswahrnehmung führen. Denn wenn KI-Systeme kontinuierlich Informationen filtern, gewichten und in personalisierter Weise präsentieren – dabei Widerspruch, Ambiguität und alternative Perspektiven eliminieren –, werden unterschiedliche Bevölkerungsgruppen unterschiedliche Versionen der Realität erfahren. Ein Trend, der bereits als Folge der Kuratierungs- und Personalisierungsalgorithmen von YouTube oder von Social Networks wie X – ehemals Twitter – oder Facebook festzustellen ist. Die langfristige Folge wäre ein wuchernder Unterschied zwischen gefühlter und tatsächlicher Weltlage, versursacht durch durchaus gutgemeinte, aber intransparente Automatisierung. Die KI formt die Sicht auf die Welt.
Eine weitere Gefahr der zunehmenden KI-Automatisierung besteht darin, dass Unternehmen und Regierungen, die Kontrolle über die Systeme haben, die immer umfassendere KI-Automatisierung missbrauchen. Beispielsweise könnten sie Personengruppen und Individuen in ihrem Tagesablauf, Konsumverhalten oder ihrem politischen und gesellschaftlichen Handeln subtil beeinflussen – sei es auf Druck von Regierungsstellen, als Folge einer Partnerschaft mit anderen Firmen oder aus Eigennutz. KI-Assistenten könnten ihre Nutzer beispielsweise dazu nudgen, an diesem Tag zum Salat statt zum Burger zu greifen. Bei der Suche nach einem neuen Smartphone könnte ein bestimmter Hersteller zuerst genannt werden. Und bei der Zusammenfassung der Tagesmeldungen könnten bestimmte Nachrichten etwas emotionaler formuliert werden, um ein bestimmtes Narrativ zu bestärken.
Das sind keine rein theoretischen, sondern durchaus reale Möglichkeiten. So stellten Nutzer von ChatGPT im Mai 2025 fest, dass sich das Standardmodell GPT-4o plötzlich recht sonderbar verhielt. Es schmeichelte den Nutzern und bestärkte sie in offenkundig schlechten Ideen, beispielsweise Medikamente für psychische Erkrankungen ohne ärztliche Rücksprache abzusetzen. Dies war eine unerwartete und ungewollte Folge eines Updates, das Nutzerfeedback miteinbezog, wie OpenAI aufklärte. Ein durchaus beabsichtigtes Verhalten zeigte hingegen der Chatbot Grok von xAI, der plötzlich und ohne Zusammenhang auf vollkommen themenfremde Fragen, etwa zu einem „weißen Genozid“ in Südafrika, antwortete. Dafür soll ein xAI-Mitarbeiter verantwortlich sein, der eine „nicht autorisierte Modifikation“ vorgenommen habe.
Geben wir KI zu viel Kontrolle?
Bereits 2003 warnte ein Report zur KI-Folgenabschätzung des Pew Research Center davor, dass Personen „ständig aufgefordert werden, mehr Entscheidungen und persönliche Autonomie an digitale Werkzeuge abzugeben“. Dies betrifft nicht nur ihren Alltag, sondern auch Geschäfts-, Regierungs- und Verwaltungsprozesse, beispielsweise bei Versicherungsunternehmen, Arbeits- und Sozialämtern sowie Strafverfolgungsbehörden. Die mögliche Zukunft sieht wie folgt aus: Der Mensch bleibt zwar im System, verliert jedoch seine Rolle als autonomer und kritisch reflektierender Akteur. Er würde zu einem juristisch notwendigen Kontrollorgan degradiert, dessen Aufgabe es wäre, algorithmisch generierte Entscheidungen passiv zu bestätigen. Nur im Extremfall – etwa bei offensichtlichen Fehlern oder Regelverstößen – müsste er als eine Art Notbremse intervenieren und rechtlich verantwortlich reagieren.
Einige KI-Entwickler sehen sogar die Möglichkeit, dass der Mensch in der Arbeitswelt vollkommen seine Autonomie aufgibt – und die KI die volle Kontrolle übernimmt. Nicht nur, indem ein KI-System Aufgaben zuteilt und Leistungen bewertet, sondern auch im wahrsten Sinne des Wortes, wie der Anthropic-Entwickler Trenton Bricken in einem Interview mit dem Podcaster Dwarkesh Patel illustrierte. „Die wirklich beängstigende Zukunft ist eine, in der KI alles kann, außer die physischen Roboteraufgaben“, sagte er. „In diesem Fall wird es Menschen mit AirPods und Brillen geben und einen Roboter-Overlord, der die Menschen über Kameras kontrolliert und ihnen sagt, was sie tun sollen.“
Stößt eine Künstliche Intelligenz etwa auf ein Problem, das nicht ohne einen physischen Vertreter überwunden oder behoben werden kann, könnte sie einen Menschen abbeordern oder über ein Gig-Worker-Portal ordern. Letzterer würde lediglich für diese eine Aufgabe angeheuert und nach Abschluss der Aufgabe von der KI nach dem UBER-Konzept bezahlt. Menschen würden zu Fleisch-und-Knochen-Avataren von Künstlichen Intelligenzen, da deren Handlungsfähigkeit in der stofflichen Welt begrenzt ist – und humanoiden Robotern wohl noch auf einige Jahre hin das Fingerspitzengefühl eines Menschen fehlen wird. Statt selbst zu denken und zu handeln, würden diese Menschen als bloße Werkzeuge agieren.
Es braucht eine Debatte
Laut mehreren Experten, die für den Report des Pew Research Center befragt wurden, könnten Menschen, wenn sie die aktuellen Entwicklungen und Aussichten hinsichtlich der Kontrollübernahme durch Künstliche Intelligenz unkritisch hinnehmen, irgendwann erschreckt feststellen, dass zahlreiche Aspekte ihres Lebens, ihrer Gesellschaft und Nationalstaaten auf teils offensichtliche, teils sehr subtile Weise von algorithmischen Prozessen diktiert werden. Die menschliche Handlungsfreiheit und -lust würden unmerklich durch immer fähigere und scheinbar zuverlässigere KI-Systeme, denen schrittweise immer mehr Verantwortung übergeben wird, erodiert.
„Wenn man sich die Studien über menschliche Faktoren, die Integration menschlicher Systeme und so weiter ansieht, wird der Mensch ziemlich träge, wenn es darum geht, auf die Technologie aufzupassen“, sagt etwa die Technologieforscherin Heather Roff vom University of Colorado-Boulder, eine der befragten Experten. Diese Faulheit gepaart mit einem fehlenden Verständnis für die Funktionsweise und Grenzen der Technologie könnten dazu führen, dass sich die Menschen ohne Widerstand von dieser überwältigen lassen.
Laut dem Pew-Research-Center-Report sind rund 56 der insgesamt 540 befragten Experten der Ansicht, dass der Mensch im Jahr 2035 „die meisten technikgestützten Entscheidungen nicht mehr ohne weiteres kontrollieren kann“. Aus diesem Grund fordern zahlreiche der Experten – darunter KI-Forscher, Start-up-Gründer, Ethiker und Militärs – eine gesellschaftliche Debatte sowie Gesetze und Regulierungen, die feste Grenzen für den Einsatz von KI-Systemen ziehen und Transparenz, Fairness sowie Rechenschaft für KI-Fehlverhalten sicherstellen. Dadurch sollen Menschen und Gesellschaft vor der Entmündigung durch derartige Systeme geschützt werden. Bis es jedoch dazu kommt, könnte bereits eine Generation dabei sein, ihre Fähigkeit zu verlieren, unabhängig von KI-Systemen und auf Basis des eigenen kritischen Denkens über Fragestellungen zu urteilen.

Michael Förtsch
Leitender Redakteur
Weiter bei 1E9...

Überschrift 3
Cooler Artikel!

Überschrift 3
Artikel

Überschrift 3
Cooler Artikel!

Überschrift 3
Cooler Artikel!
b5e28cf3-2911-46a6-8f74-b143c35f050d
68491d430f95f288cab81a51