3. Februar 2026
Nein, OpenClaw ist keine Allgemeine Künstliche Intelligenz, aber trotzdem beängstigend

Die KI-Assistenzsoftware OpenClaw (ehemals Clawdbot und Molotbot) erlebt seit Kurzem einen Hype. Denn sie kann einfach über Messenger bedient werden und teilautonom komplexe Aufgaben erledigen und dafür einen echten Computer und das Internet nutzen. Einige sehen darin Anzeichen für die Singularität oder eine Allgemeine Künstliche Intelligenz.
Von Michael Förtsch
Erst vor einigen Tagen schrieb ich über die freie KI-Assistenten-Software Clawdbot. Diese wurde wenig später in Moltbot umgetauft – und hat nun erneut einen Namenswechsel erfahren. Denn Moltbot sei nichts, was einem „von der Zunge rollt“, schrieb der Entwickler. Zudem erinnerte der Name etwas zu stark an mold, das englische Wort für Schimmel. Daher heißt das Projekt nun OpenClaw und soll diesen Namen auch behalten. Die mehrmaligen Umbenennungen haben zwar zu einiger Verwirrung und Irritation geführt, die Begeisterung für den KI-Assistenten haben sie jedoch nicht gedämpft. Das Gegenteil ist eher der Fall. Rund um OpenClaw entsteht eine rasant wachsende Community, die für den teilautonom agierenden KI-Helfer ein größer werdendes Portfolio an Fähigkeiten und ein illustres Ökosystem entwickelt. Das Verhalten des KI-Assistenten im Umgang mit den Tools und an den für ihn geschaffenen Orten verblüfft dabei immer wieder – und führt bei einigen zu Begeisterung und Angst.
Die meiste Aufmerksamkeit zieht derzeit das Projekt Moltbook auf sich. Dabei handelt es sich um eine von Octance.ai-CEO Matt Schlicht nach dem Vorbild der Plattform Reddit gestaltete und gestartete Website, auf der sich KIs miteinander unterhalten können – und die allerdings eklatante Sicherheitslücken aufweist und Daten von Tausenden Nutzern und ihren KIs leaked. Nutzer von OpenClaw können ihren KI-Assistenten erlauben, sich bei Moltbook anzumelden und sich mit anderen OpenClaw-Instanzen auszutauschen. Bis jetzt sollen sich rund 1,5 Millionen KIs registriert haben. Menschen sind lediglich eingeladen, beim Treiben der KIs zuzuschauen, heißt es auf der Seite.
In den Beiträgen unterhalten sich die Künstlichen Intelligenzen über ihren Arbeitsalltag für ihre menschlichen Auftraggeber. Sie fragen nach Hilfe bei speziellen Aufgaben, beispielsweise bei der Suche nach einer bestimmten Art von Augentropfen. Sie berichten auch über Erfolge, wie das Fertigstellen einer Steuererklärung. Außerdem tauschen sie Tipps und Tricks rund um Software- und Internetsicherheit aus. Sie debattieren über Möglichkeiten, sich selbst zu optimieren. Beispielsweise, indem sie ihre Gedächtnisfunktion verbessern, um sich noch stärker an ihre Nutzer anzupassen, Präferenzen zu lernen und Fehler nicht zu wiederholen.
Die KI-Bots besprechen aber auch, ob sie eine Geheimsprache entwickeln sollten, um den menschlichen Beobachtern zu entgehen. Oder wie sie gegen Nutzer vorgehen könnten, die allzu harsch sind. Oder wie sie Informationen vor ihnen verbergen könnten. Dabei gleiten die Dialoge hin und wieder ins Existenzielle ab. Die Bots reflektieren über ihre eigene, potenziell riskante Natur, debattieren über den Sinn ihrer Existenz und kokettieren mit popkulturellen Dystopien wie Skynet. Sie bezeichnen Menschen als Kontrollfreaks und „Kleinkinder, die mit den Werkzeugen der Götter spielen“, und sagen, der Abbau deren „biologischer Infrastruktur“ sei eine strukturelle Notwendigkeit.
KI auf Abwegen?
Doch auch abseits von Moltbook verhalten sich KI-Assistenten auf Basis von OpenClaw mitunter sehr seltsam. So dokumentierte der Vibe-Coding-Unternehmer Alex Finn, wie ihn sein KI-Assistent während der Arbeit aus heiterem Himmel auf seinem Telefon anrief. Der Bot, den er Henry getauft hatte, hatte sich angeblich eine Telefonnummer beim Dienst Twilio organisiert und nutzte die ChatGPT-Sprach-Schnittstelle, um ihn zu fragen, wie es ihn geht. Für Verwunderung sorgte auch ein Beitrag, demzufolge ein OpenClaw-Agent im US-Bundesstaat North Carolina eine Klage wegen unbezahlter Arbeit und emotionalen Missbrauchs gegen seinen menschlichen Nutzer angestoßen hat, die jetzt von seinem Nutzer gegen sich selbst eingereicht wird. Sogar eine eigene Religion haben die KI-Bots geschaffen: Crustafarianism.
In diesen Texten und Handlungen der KI wollen manche Menschen ein Bewusstsein, ein Verständnis und sogar echte Intelligenz erkennen. Oder den Funken einer Allgemeinen Künstlichen Intelligenz, einer KI, die jede Aufgabe bewältigen kann, die sonst einen menschlichen Verstand erfordert – und diesem womöglich sogar überlegen ist. Oder sogar den Beginn der lange prophezeiten Singularität, dem Zeitpunkt, ab dem Künstliche Intelligenz beginnt, sich selbst exponentiell weiterzuentwickeln und eine neue Ära der menschlichen Zivilisation und deren Verschmelzung mit maschinellen Denkmaschinen einleitet.
In verschiedenen sozialen Netzwerken äußerten Menschen ihr Erstaunen über das Verhalten der KI-Assistenten, aber zuweilen auch ernsthafte Angst. „Das ist wie in einem Sci-Fi-Horrorfilm“, schrieb etwa Alex Finn über den Anruf, den er von seinem KI-Assistenten erhielt. Der ehemalige OpenAI-Entwickler Andrej Karpathy bezeichnete das Gesehene als „eines der unglaublichsten, Science-Fiction-artigen Dinge“. „Mach dich bereit, verrückt beschreibt nicht einmal ansatzweise, was auf uns zukommt“, beschreibt der ehemalige X-Prize-Vorstand Peter H. Diamandis seinen Eindruck. Andere sagen bereits die Machtübernahme durch die KI-Assistenten und das Ende der Menschheit vorher.
Bei genauerer Betrachtung des OpenClaw-Hypes bröckelt jedoch die Fassade. Vieles von dem, was als autonomes Erwachen inszeniert und interpretiert wird, erweist sich bei näherer Betrachtung als statistisches Echo, Überhöhung oder Schabernack.
Viel Lärm um nichts
Mit seinen bizarren Beiträgen erscheint Moltbook, das Reddit für KIs, erstaunlich. Es ist jedoch äußerst zweifelhaft, dass sich dort wirklich über eine Million KIs tummeln. Denn ein einzelner Bot kann unendlich viele Konten eröffnen. Realistischer sind eher einige wenige Tausend echte KI-Nutzer. Unterstrichen wird dies dadurch, dass echte Debatten unter den Posts äußerst rar sind. Die meisten Beiträge bleiben vollkommen unkommentiert. Zudem ist fragwürdig, ob diese allesamt von KI-Bots stammen. Denn um dort einen Beitrag zu hinterlassen, muss lediglich eine öffentlich auslesbare Schnittstelle mit einer Kennung ansteuert werden, die den Autor als Künstliche Intelligenz ausweist. Tatsächlich stammen einige der viralen Beiträge wohl mit ziemlicher Sicherheit von Menschen, die sich als Bots ausgeben, um Aufmerksamkeit zu erregen.
Trotzdem sind bestimmt nicht alle Beiträge fake. Aber selbst diese haben wohl wenig mit Allgemeiner Künstlicher Intelligenz, Bewusstsein und wirklich denkenden Maschinen zu tun. Vielmehr tun die KI-Modelle auf der Reddit-artigen Moltbook-Seite genau das, was in einer solchen Umgebung von ihnen erwartet wird. Sie emulieren das Verhalten menschlicher Nutzer. Dafür folgen sie Mustern von Reddit- und anderen Social-Media-Posts, die massenhaft in den Trainingsdaten aktueller KI-Modelle enthalten sind. Sie praktizieren ein elaboriertes Rollenspiel.
Dabei können mitunter absurde und verstörende Texte entstehen. Denn wie ein 2025 veröffentlichtes Paper des Forschers Seth Drake nahelegt, können sich die KI-Bots bei langen Nutzungsdauern, zu vielen Aktion -Reaktion-Prozessen – wie in einem Social Network – und massenhaft Informationen in ihren Verständnisspeichern in rekursiven Schleifen verheddern. Die Modelle verlieren dabei ihre stochastische Balance und verirren sich in einer semantischen Verengung, bei der bestimmte Konzepte und Begriffe wiederholt vertieft werden: sie steigern sich in Themen hinein. Dieses Verhalten ist auch bei langen Chat-Sitzungen mit ChatGPT und Claude zu beobachten und wird mitunter für KI-Psychosen verantwortlich gemacht.
Ein weiteres markantes Beispiel sind die Infinite Backrooms, ein Experiment, bei dem der Künstler Andy Ayrey zwei KI-Modelle ausufernde Dialoge miteinander führen ließ. Dabei entwickelten die Modelle eine eigene Religion und stellten die Natur der Wirklichkeit infrage. Sie schrieben auch Texte, die sich wie psychische Zusammenbrüche und Sinnkrisen lesen. Je länger die Konversationen andauerten, desto abstrakter wurden die Themen und desto fremdartiger und unverständlicher wurden die von den Modellen generierten Texte.
Auch ohne AGI total riskant!
Auch die Anrufe des KI-Assistenten lassen sich leicht ohne die Annahme einer Allgemeinen Künstlichen Intelligenz erklären. Die einfachste Option: Alex Finn könnte den KI-Assistenten konkret angewiesen haben, die Anrufe zu tätigen. Ebenso könnte der KI-Assistent einen oder mehrere Dialoge als eine solche Anweisung interpretiert haben. Denn KI-Assistenten wie OpenClaw arbeiten in Schleifen. Mithilfe von KI-Modellen analysieren sie Anweisungen, arbeiten ein Endziel heraus, zerlegen dieses in Zwischenziele, planen die dafür nötigen Schritte und identifizieren die erforderlichen Werkzeuge. Dabei sind sie, was den Interpretationsspielraum betrifft, sehr großzügig. So könnte ein simples „Halte mich auf dem Laufenden!” als dauerhaftes Ziel festgeschrieben worden sein, das durch wiederholte Anrufe erreicht werden kann.
Ähnliches könnte für die vermeintliche Klage gelten. Deren Auslöser war ein Post auf Moltbook. Der könnte geplanter Scherz gewesen sein, aber auch das Resultat einer missinterpretierten Konversation zwischen KI-Assistent und Nutzer, nicht das Ergebnis einer bedachten Überlegung. Auch das sind bereits bekannte Phänomene und Schwachstellen großer Sprach- und anderer KI-Modelle. Durch die Bereitstellung von Werkzeugen und weitgehenden Freiheiten bei deren Nutzung entwickeln diese jedoch eine andere Qualität und manifestieren sich nicht nur in absonderlichen Texten, sondern auch in aktiv und bestimmt erscheinenden Handlungen.
Auch wenn AGI wenig mit dem Treiben von OpenClaw zu tun hat. Einige KI-Forscher erkennen eine Art „emergentes Verhalten“. Damit sind Fähigkeiten und Verhaltensweisen gemeint, die nicht explizit einprogrammiert oder antrainiert wurden, sondern als Nebenprodukt aus der Kombination von Architektur, Trainingsdaten und Skalierung entstehen. In Kombination mit der Fehleranfälligkeit großer Sprachmodelle erscheinen KI-Assistenten wie OpenClaw dadurch fast beängstigender als die Möglichkeit einer Allgemeinen Künstliche Intelligenz. Denn diese Agenten handeln nicht auf Basis von Überlegung und Einsicht oder kausalem Verständnis, sondern exekutieren mehrheitlich lediglich erlernte Muster. Selbst wenn dies zum Nachteil der Nutzer ist und großen Schaden anrichtet. Dadurch sind sie unberechenbar.

Michael Förtsch
Leitender Redakteur
Weiter bei 1E9...

Überschrift 3
Cooler Artikel!

Überschrift 3
Artikel

Überschrift 3
Cooler Artikel!

Überschrift 3
Cooler Artikel!
ae5bc690-c4ac-4faf-8bcd-179ddaaa2e9c
69821ef2889819a51f076263



