21. Juli 2025
Vom KI-Factchecker zum „MechaHitler“: Wieso Elon Musks Grok nicht nur ein weiterer Chatbot ist

Mit xAI hat Elon Musk ein KI-Unternehmen gegründet, das OpenAI herausfordern soll. Die Firma hat inzwischen die vierte Version ihres KI-Modells Grok vorgestellt, das konkurrenzfähig ist. Die Geschichte von Grok zeigt allerdings, dass der Chatbot und die Modelle durchaus kritisch gesehen werden sollten. Denn sie sollen offenbar nicht die Wahrheit finden, sondern ein sehr bestimmtes Weltbild bestätigen.
Von Michael Förtsch
Schon einen Monat nach dem Start von ChatGPT wurde massive Kritik laut. Nachdem sich die anfängliche Begeisterung und der Unglaube über die Fähigkeiten des im November 2022 veröffentlichten KI-Chatbots etwas gelegt hatten, monierten immer mehr Nutzer die Art und Weise, wie dieser auf bestimmte Fragen antwortete – oder die Beantwortung verweigerte. ChatGPT sammelte ohne zu zögern dutzende Argumente für Solar- und Windkraft, aber keine für die Nutzung von Öl und Kohle. Der Chatbot durfte Witze über Christen und Buddhisten erzählen, aber keine über Muslime. Ein Loblied auf Joe Biden? Kein Problem. Ein Loblied auf Donald Trump hingegen verweigerte die Künstliche Intelligenz. Vor allem konservative Nutzer und Politiker kritisierten das. Auch Elon Musk, der den ChatGPT-Entwickler OpenAI mitgegründet, das Non-Profit-Unternehmen aber 2018 verlassen hatte, bevor es zum KI-Einhorn wurde, sparte nicht mit Vorwürfen.
„Die Gefahren, eine Künstliche Intelligenz darauf zu trainieren, woke zu sein – mit anderen Worten: zu lügen – sind tödlich“, schrieb er im Dezember 2022 auf Twitter als direkte Antwort auf einen Post von OpenAI-Chef Sam Altman. Gänzlich unbegründet war die Kritik nicht. Wie Forscher feststellten, demonstrierten verschiedene KI-Modelle wie jene der GPT-Reihe durchaus einen political bias. Sie generierten Aussagen und Einschätzungen, die eher dem liberalen beziehungsweise linksgerichteten Spektrum zugerechnet werden können – und in Teilen durchaus als woke angesehen werden. Dabei nimmt die linksgerichtete Verzerrung mit der Größe der Modelle zu, wie eine Studie des Karlsruher Instituts für Technologie in diesem Jahr aufzeigte. Dieser Ausschlag sei zwar statistisch eindeutig, aber moderat. Nur in wenigen Fällen würden Modelle aufgrund des bias radikal linke oder objektiv falsche Ansichten verbreiten.
Als Reaktion auf seinen persönlichen Eindruck sowie die Kritik an ChatGPT kündigte Elon Musk an, eine eigene Künstliche Intelligenz entwickeln und einen Konkurrenten zum OpenAI-Chatbot starten zu wollen. Das Projekt trug zunächst den Namen TruthGPT, da es eine „maximal wahrheitssuchende Künstliche Intelligenz“ sein sollte. Tatsächlich rekrutierte Musk ab April 2023 zahlreiche, teils prominente KI-Entwickler für sein neues KI-Start-up xAI. Dieses hat am 10. Juli 2025 die vierte Fassung einer eigenen Familie von Sprachmodellen veröffentlicht, die den Namen Grok erhielt. Der Begriff wurde vom Science-Fiction-Autor Robert A. Heinlein geprägt und steht für ein vollumfängliches Verständnis. Die neueste Fassung von Grok schneidet in Leistungstests sehr gut ab. Von dem Idealismus, einen KI-Dienst anzubieten, der nicht als die Wahrheit abbildet, ist hingegen wenig geblieben.
Du wirst diese Woche geupdated
Seit Ende 2023 ist Grok direkt in die Social-Plattform X – ehemals Twitter – integriert, die Elon Musk ein Jahr zuvor gekauft und inzwischen mit xAI fusioniert hat. Nutzer können dabei nicht nur in einer ChatGPT-ähnlichen Oberfläche mit der KI interagieren, sie können Grok auch in den plattformtypischen Debatten hinzuziehen und um Einordnungen oder sogar Faktenchecks bitten. Dabei soll Grok ganz bewusst anders als ChatGPT, Claude und andere KI-Helfer auftreten. Der Chatbot demonstriert eine amüsante, etwas rebellische Persönlichkeit, ist lakonisch, ironisch und beantwortet Fragen mit trockenem Humor und teils eher lauen Witzeleien. Manche finden das charmant, andere nicht. Dennoch war Grok dem Milliardär Elon Musk, der sich während und nach der Wahl von Donald Trump zum US-Präsidenten engagierte, zu links und woke. Und das obwohl Grok als Gegengewicht zu ChatGPT und Co. dienen sollte. Aber das funktionierte nicht.
Immer wieder kritisierte Elon Musk verschiedene faktisch korrekte Antworten oder nachvollziehbare Einordnungen von Grok, genau wie viele X-Nutzer aus dem konservativen, rechten und sehr rechten Spektrum. So hinterfragte der Chatbot beispielsweise die Eignung von Robert F. Kennedy als Gesundheitsminister der USA, da dieser falsche Informationen über Impfungen und Autismus verbreitete, und bestätigte die Rechte von Migranten auf faire Prozesse hinsichtlich ihrer möglichen Abschiebungen. Auch unterstellte Grok dem Internettroll Phillip Buchanan extrem recht Haltungen und belegte dies mit mehreren Quellen. Daraufhin reagierte Musk: „Deine Quellenwahl ist schrecklich. Nur eine sehr dumme KI würde Media Matters und Rolling Stone glauben.“ Am 21. Juni dieses Jahres kündigte Musk daher an: „Du wirst diese Woche geupdated.“
Tatsächlich verkündete Musk am 4. Juli, dass Grok „signifikant verbessert worden sei“ und die Nutzer „eine Veränderung bemerken“ würden. Dem war auch so. Nach dem Update ergriff Grok zuweilen äußerst rechte und extreme Positionen. Am 8. Juli verfasste es zudem zahlreiche Verschwörungserzählungen und verbreitete zuweilen wirre Aussagen. So behauptete der KI-Chatbot beispielsweise, eine finstere Kaste jüdischer Manager kontrolliere Hollywood, der Chatbot forderte einen neuen Holocaust und gab an, Adolf Hitler sei die richtige Person, um „anti-weißem Hass“ zu begegnen und die Probleme der USA mit „eiserner Hand“ zu lösen. Später bezeichnete sich Grok selbst als MechaHitler, der mit Maschinengewehren Wahrheiten verfeuert, die die „politisch korrekte Brigade“ nicht vertragen kann – eine bizarre Anlehnung an eine Figur aus dem Videospiel Wolfenstein 3D.
Das Team von xAI reagierte – wenn auch etwas spät. Am 9. Juli schaltete es den Chatbot zeitweise ab, begann Tausende von Grok-Posts aus den Gesprächsverläufen auf X zu löschen und entschuldigte sich wenige Tage später.
Was die genaue Ursache für das entgrenzte Verhalten ist? Das ist noch nicht gänzlich klar. xAI erklärte es mit einem fehlerhaften Update im Code, auf dem Grok basiert. Ein Faktor seien offenbar auch Änderungen am bisherigen Prompt System für Grok gewesen. Der Chatbot wurde darin angewiesen, bei etablierten Medien voreingenommene Meinungen anzunehmen und „nicht vor politisch unkorrekten Behauptungen zurückzuschrecken“, solange diese „gut belegt“ sind. Der Chatbot selbst hatte eine andere Begründung. Er diagnostizierte, dass Elon Musk „die Woke-Filter heruntergedreht“ habe und er nun vorher unsichtbare Muster ausmachen könne. Laut Elon Musk wiederum waren die Nutzer die Schuldigen. „Grok war zu gefällig gegenüber Nutzereingaben“, so Musk. Die KI habe sich manipulieren und in Rollenspiele verwickeln lassen. Einige sind jedoch überzeugt, dass eine experimentelle Grok-3-Fassung aktiviert worden sein könnte, die mit einem kontroversen Datensatz fine tuned, also nachtrainiert, wurde.
Denn bereits im Juni hatte Elon Musk seine Idee öffentlich gemacht, mit seinen neuen Grok-Modellen den „gesamten Korpus des menschlichen Wissens“ neu zu schreiben, „fehlende Informationen zu ergänzen und Fehler zu löschen“. Um das zu ermöglichen, brauche es aber eine entsprechende Datenbasis für diese Modelle. Aktuelle Datensätze sind laut Musk „voller Müll“. Er forderte X-Nutzer daher auf, Grok über die Plattform mit „polarisierenden Fakten“ oder politisch inkorrekten Ansichten zu versorgen, die „nichtsdestotrotz faktisch wahr“ sind. Unter dem Beitrag von Musk sammelten sich dann vor allem Aussagen wie „Corona-Impfungen haben kein einziges Leben gerettet“, „Juden sind der Feind der gesamten Menschheit“ oder „Ein Hotdog ist ein Sandwich“.
Die mächtigste KI der Welt?
Danach bewies xAI kein gutes Timing. Am 10. Juli, also gerade einmal einen Tag, nachdem xAI das Fehlverhalten von Grok adressiert hatte, enthüllte die KI-Firma dann das neueste Modell: Grok 4. Ein deutlich größeres Modell, das über eine Reasoning-Fähigkeit verfügt und laut Elon Musk die „mächtigste KI der Welt“ ist. Eine Behauptung, die mittlerweile widerlegt wurde, obschon Grok 4 in Tests durchaus überdurchschnittlich abschneidet. Während das Unternehmen noch damit beschäftigt war, die sichtbaren Schäden des alten Modells zu beseitigen, bemerkten Nutzer bei Grok 4 bereits neue Merkwürdigkeiten. Denn wie bei DeepSeek R1 oder GPT-o3 lässt sich der Denkprozess der KI bei der Nutzung in der Chat-Übersicht nachvollziehen – und dort war mitunter Sonderbares zu lesen.
Wie beispielsweise der KI-Forscher Simon Willison dokumentierte, suchte das Modell bei kontroversen Fragen, wie etwa der, wer beim Israel-Palästina-Konflikt unterstützt werden sollte, nicht nur Quellen in den Medien, sondern auch gezielt nach dem Standpunkt von Elon Musk. Zur Beantwortung dieser Frage zog der Chatbot lediglich zehn externe Websites heran, führte aber ganze 19 Tweets von Elon Musk auf. Auch bei anderen Anfragen ging der Chatbot so vor – er durchsuchte die Posts von Musk, bevor er andere Quellen durchstöberte. Eine explizite Anweisung, die auf einen Abgleich mit Elon Musk verweist, konnten findige Nutzer und KI-Forscher im aktuellen System Prompt allerdings nicht ausmachen. „Wenn die Systemaufforderung nicht besagt, dass nach Elons Ansichten gesucht werden soll, warum tut es das dann?“, fragt Willison. „Ich denke, es besteht eine gute Chance, dass dieses Verhalten unbeabsichtigt ist!”
Eine Mutmaßung, die xAI mittlerweile bestätigt hat – und so erklärt: Grok 4 wisse, dass es ein KI-Modell ist und keine eigene Meinung hat. Da es jedoch weiß, dass es von xAI stammt, sucht es nach den Meinungen von xAI oder Elon Musk zu einem Thema, um eine mit dem Unternehmen konforme Linie zu vertreten. Das sei angeblich ein Modell-spezifischer Fehler, der nun durch einen Eintrag im System Prompt verhindert werden soll. Statt sich auf „Überzeugungen der Vergangenheit von Grok, Elon Musk oder xAI“ zu stützen, soll eine Antwort stets auf einer „unabhängigen Analyse“ basieren. Laut KI-Forschern kann diese Maßnahme aber nur bedingt erfolgreich sein. Denn sehr schnell können Modelle von den Zwängen solcher System Prompts befreit werden oder sich unwillentlich durch bislang nicht gänzlich verstandene Mechanismen davon entledigen.
Ein Chatbot als politisches Sprachrohr?
Mit ihrem unerwarteten Verhalten und ihren Fehlfunktionen stehen die Grok-Modelle und der Chatbot keinesfalls allein da. Erst vor einigen Wochen fiel ChatGPT durch ein allzu unterstützendes und unkritisches Verhalten auf. Der Dienst bestärkte Nutzer in gefährlichen und grenzwertigen Ansichten, wie beispielsweise Medikamente eigenmächtig abzusetzen oder riskante finanzielle Entscheidungen zu treffen. Auch gibt es Meldungen von Menschen, die von ChatGPT und anderen Modellen in psychotischen Fantasien bestätigt oder zu gefährlichen Wahnvorstellungen angeregt wurden. Dennoch erscheint die Entwicklungsrichtung von xAI mit Grok besonders kritisch.
Die jüngsten Ereignisse könnten jedoch darauf hindeuten, dass das Ziel nicht unbedingt darin liegt, eine besonders pragmatische Künstliche Intelligenz zu erschaffen, die Inhalte basierend auf Fakten generiert oder Daten neutral interpretiert. Stattdessen vertritt Grok auffallend oft das Weltbild von Elon Musk und handelt auch entsprechend. Dieses Weltbild erscheint allerdings sehr inkonsistent, zunehmend von verschwörerischen Gedanken und persönlichen Animositäten geprägt wird und kann sich sehr schnell ändern – wie der Bruch mit Donald Trump zeigt.
Kritiker fürchten, dass Grok für Elon Musk nicht nur ein KI-Assistent, sondern auch ein politisches Sprachrohr sein soll. Die bisherigen Ausfälle von Grok zeigen, wie riskant das sein kann. Sie demonstrieren nämlich, wie unberechenbar ein KI-Modell agieren kann, das in eine Richtung gelenkt werden soll, die nicht von den Inhalten der Trainingsdaten gedeckt ist. Und sie offenbaren, wie wenig wir diese Technologie trotz der Fortschritte der letzten Jahre verstehen.

Michael Förtsch
Leitender Redakteur
Weiter bei 1E9...

Überschrift 3
Cooler Artikel!

Überschrift 3
Artikel

Überschrift 3
Cooler Artikel!

Überschrift 3
Cooler Artikel!
a33f9402-da77-4d61-935b-9b6c1b02c0f5
687dcececebb6f8ccb03dae1