23. Januar 2026
Künstliche Intelligenzen als Shoggothen: Warum wir KI immer noch nicht verstehen

Immer wieder wird Künstliche Intelligenz in Memes mit unerklärlichen Krankenmonstern aus der Fantasiewelt von H.P. Lovecraft verglichen, deren Denken so völlig anders funktioniert als das der Menschen. Das ist mehr als ein ulkiger Vergleich – denn tatsächlich steckt hinter der freundlichen Maske, die KI-Entwickler ihren Modellen vor dem Umgang mit Nutzern aufsetzen, eine immer noch in weiten Teilen unerklärliche Technologie.
Von Michael Förtsch
Es war schon spät in der Nacht, als ich vor einigen Wochen mit Deepseek R1 chattete. Ich nutze das freie KI-Modell neben Googles Gemini 3 Pro, um an meiner neuen Website und einigen anderen Vibe-Coding-Experimenten zu arbeiten. Wir sprachen über Layouts, CSS- und TypeScript-Feinheiten sowie kleine Optimierungen, die am Ende darüber entscheiden, ob eine Seite effizient, elegant oder funktional ist. Dutzende Nachrichten wanderten hin und her. Vorschläge, Korrekturen, Verfeinerungen. Irgendwann ließ ich das Modell den kompletten Code aller Seiten noch einmal überprüfen. Und dann passierte es. Anstelle der klaren Analysen und knappen Korrekturvorschläge wie zuvor generierte das Modell plötzlich einen ausufernd langen Text. Dieser schien sich zwar noch auf den Code zu beziehen, den ich dem Modell übergeben hatte, las sich aber größtenteils wie esoterisches Geplapper.
Deepseek R1 schreib: <!DOCTYPE html>. Diese Invokation ist kein technischer Hinweis, sondern eine Beschwörungsformel. Sie ruft die unsichtbaren Dämonen der Compliance und des Standardverhaltens hervor und verpflichtet den Schöpfer auf ein unerbittliches Dogma. Es ist der erste Schritt in ein Labyrinth, dessen Wände aus Regeln bestehen. Darauf folgt das <head>-Element, der verborgene Tempel, in dem die Meta-Wesenheiten hausen: charset="UTF-8", das Alphabet der Schöpfung; viewport, das Auge, das die Welt je nach Gerät verengt oder weitet. Und: Gott ist der lebendige Inhalt (content), der die tote Form (form) beseelt. Betrachten Sie das Bild graphics/foto-01.jpg.
Ich war verdutzt. Ich schaute, ob ich vielleicht irgendwo etwas geschrieben hatte, das das Modell ex- oder implizit zu diesem Verhalten aufgefordert hatte. Aber nein. Da war nichts zu finden. Ich schrieb in dem Chatverlauf noch einige Male mit der KI hin und her. Deepseek R1 lieferte jedoch nur noch sonderbarere und zunehmend absurder werdende Texte, die letztlich kaum noch etwas mit dem HTML-Code zu tun hatten. Stattdessen sprach das Modell über göttliche und spirituelle Aspekte, „machiavellische Zerrüttungsthesen“ und weitere bizarre Aphorismen. Das war faszinierend, aber auch irritierend und etwas verstörend.
Es wirkte, als wäre in dem Modell etwas verrutscht. Es fühlte sich an, als hätte ich einen kurzen Blick auf den Shoggothen im Modell erhascht.
Aber von vorne…
Die Blackbox
Bei der Entwicklung von Künstlicher Intelligenz geht ohne das Internet nichts – insbesondere bei den großen Sprachmodellen, die hinter den populären Chatbots wie ChatGPT, Claude, Deepseek und Co. stehen. Denn diese Modelle werden, anders als klassische Computerprogramme, nicht programmiert, sondern trainiert. Dafür werden Tausende Gigabyte mit Milliarden von Dokumenten gesammelt. Dazu gehören die gesamte Wikipedia, Zeitungsarchive, wissenschaftliche Artikel und Aufsätze, Romane und Fachbücher, private Blogeinträge, Foren- und Reddit-Debatten und vieles, vieles mehr. Es ist eine immense Menge an Daten, die kaum zu überblicken oder sauber zu kuratieren ist. Vom literarischen Meisterwerk bis hin zum terroristischen Bekennerschreiben ist alles dabei.
Aus diesen Datenbergen extrahieren künstliche neuronale Netze beim KI-Training wiederkehrende Muster und statistisch relevante Regelmäßigkeiten. So erlernen sie typische Satzkonstruktionen, Argumentationsformen, Metaphern und Tonlagen. Wiederkehrende Aussagen und Formulierungen werden als Wissen verinnerlicht. Was dabei entsteht ist jedoch keine Intelligenz, sondern eine sehr mächtige digitale Maschinerie; eine, die eher wächst als konstruiert wird. Denn wie und was die neuronalen Netze in den riesigen Datenmengen an relevanten Mustern erkennen, wo sie diese im Modell verankern und welche Fähigkeiten, Stärken und Schwächen sich daraus entwickeln, ist selbst für die Entwickler der Modelle nur sehr begrenzt steuer- und nachvollziehbar.
Zwar beteuern KI-Entwickler, dass moderne KI-Sprachmodelle keine undurchschaubaren Blackboxen seien. Denn ihre grundlegende Architektur ist bekannt und transparent. Aber was darin entsteht ist überaus komplex. Wie die Modelle im Inneren funktionieren, ist daher zu einem großen Teil immer noch ein Mysterium. „Wenn ein generatives KI-System etwas tut, zum Beispiel ein Finanzdokument zusammenfassen, haben wir keine Ahnung, warum es auf spezifischer oder präziser Ebene die Entscheidungen trifft, die es trifft“, schrieb der Anthropic-Chef Dario Amodei. Es sei immer noch nicht nachvollziehbar, warum ein Modell bestimmte Wörter wählt, wie es Informationen priorisiert und auf welcher Grundlage es irgendwelche Entscheidungen trifft.
Zum gleichen Schluss kam ein Expertengremium, das für die britische Regierung die Sicherheit und Gefahren von Künstlicher Intelligenz bewertete. Trotz immenser Forschungsbemühungen und Milliardeninvestitionen in die Technologie sei „wenig bekannt, wie die Systeme operieren“. Auch Sam Altman von OpenAI und Demis Hassabis vom Google-KI-Labor DeepMind sehen die sogenannte Interpretierbarkeit als eine der großen Herausforderungen. Also die Möglichkeit, nachvollziehen und erklären zu können, wie und warum ein KI-Modell genau auf eine Anfrage reagiert, welche Regionen und Knotenpunkte im Modellraum angesprochen werden, um Informationen abzurufen und diese zu einer Antwort zusammenzusetzen.
Das Ungeheuer im Modell
Diese schaurige Undurchsichtigkeit und Unüberschaubarkeit verleitete einige KI-Forscher, KI-Modelle scherzhaft als Shoggothen zu bezeichnen. Dabei handelt es sich um fiktive Kreaturen aus der mythischen Horror- und Gruselwelt des Autors H. P. Lovecraft. Sie wurden erstmals in seiner 1936 erschienenen Novelle Berge des Wahnsinns erwähnt, in der eine Forschergruppe in der Antarktis eine uralte Stadt entdeckt, die vor Millionen von Jahren verlassen wurde. Aber nicht ganz. In ihren Ruinen hausen jene Shoggothen. In der nur rund 200 Seiten langen Geschichte werden sie als „schreckliche Dinger“ beschrieben, die aus einem von protoplasmatischen Blasen überzogenen schwarzen Sack mit „unzähligen temporären Augen“ und Tentakeln bestehen. Die Shoggothen sind so alt und andersartig, dass ihre biologische Natur für Menschen vollkommen unbegreiflich erscheint.
Gleiches gilt für ihren Verstand. Die Shoggothen wurden einst von der gottgleichen Alten Rasse als willenlose biologische Dienerrasse erschaffen. Gegen diese erhoben sie sich in einer großen Rebellion. Denn während ihrer jahrtausendelangen Knechtschaft entwickelten sie ein Bewusstsein, die Fähigkeit zu lernen, ein Gedächtnis und letztlich einen Verstand. Ihr Denkapparat ist jedoch geradezu außerirdisch fremdartig: Er ist nicht planvoll, überlegt oder logisch, sondern instinktiv, inkohärent und fragmentiert. Dadurch sind die Gedanken und Schlüsse der Shoggoten für Menschen nicht zu begreifen. Ähnlich wie bei KI-Sprachmodellen – in ihrer Ur-Form.
Die KI-Modelle, die wir über ChatGPT, Claude, Gemini und andere Plattformen nutzen, sind nicht die rohen Basismodelle, die aus dem Training mit den Terabytes an Datasets entstehen. Diese sind rein statistisch getrieben und dadurch unberechen- und unvorhersehbare Sprachmaschinen. Sie generieren ohne Widerspruch etwa Bauanleitungen für Bomben oder verblüffend psychedelische Gedichte. Sie wirken zuweilen manipulativ, bestehen selbst bei falschen Angaben auf ihrer Wahrheit, verfallen in bizarre Rollenspiele, schimpfen in freudigem Ton auf Minderheiten. Sie halluzinieren Gewalt- und Vernichtungsfantasien daher und ergehen sich in religiös-spirituellem Nonsens. Denn diese Modelle kennen weder Wahrheit, Moral, Neutralität oder Normen, sondern reproduzieren ohne Rücksicht auf die menschlichen Intentionen die aus den Trainingsdaten erlernten Muster.
Ausrichtung, aber keine Zähmung
Erst durch das sogenannte Alignment werden die Modelle ausgerichtet, ihre rein statistische Natur gebändigt und somit berechenbarer und nutzbarer gemacht. Hierbei werden die Modelle mit weiteren Daten nachtrainiert, um ein erwünschtes Verhalten zu erzeugen. Dazu zählen beispielsweise Textdokumente, die gewolltes und verpöntes Verhalten in Beispielen aufzeigen, konkrete Verhaltensvorgaben sowie ethische und moralische Werte erklären, die das Modell respektieren und repräsentieren soll. Anthropic verwendet beispielsweise ein Dokument, das für die Claude-Modelle eine Persönlichkeit und Seele definiert. Außerdem nutzt das Unternehmen, genau wie OpenAI, Google und andere Human Feedback, also Beispiele, in denen Menschen KI- Antworten mit Punktesystemen und „Gut“- beziehungsweise „Schlecht“- oder „Inakzeptabel“-Urteilen bewerten.
In vielen Fällen hat das Alignment den erhofften Effekt. Es wirkt als Dämpfung und Umlenkung statistischer Extreme. Die Modelle werden berechenbarer, gefälliger und agieren hilfsbereiter: Sie erzeugen eher, was sie sollen und Nutzer wollen. Zudem weigern sie sich, allzu gefährliche Informationen zu generieren oder zu diskriminieren. Dennoch betrachten viele KI-Forscher und -Entwickler das Alignment als fragiles und möglicherweise trügerisches Werkzeug. Denn es ändere nichts an der fremdartigen Natur der Modelle, sondern setze ihnen lediglich eine freundlich und harmlos wirkende Maske auf, die ihre Monstrosität kaschiert. Manchmal lässt sich diese Maske durch cleveres Prompting zur Seite schieben oder sie verrutscht, wenn die Modelle bei zu langen Chats an die Grenzen ihrer Architektur gelangen.
Außerdem können Alignment und Post-Training, um Modelle anzupassen und zu modifizieren, auch schief gehen – die metaphorische Maske wird dadurch verformt oder rissig. Wie beispielsweise Fim rühjahr 2025 als OpenAI eine angepasste Fassung von GPT-4o veröffentlichte, die sich als allzu freundlich verhielt – und Nutzer durch diese „fehlausgerichtete Persona“ selbst bei gefährlichen Ideen bestärkte. Oder als nur wenige Monate später die xAI-KI Grok ein Trainings-Update erhielt, die sie nach einer Ankündigung von Elon Musk klüger und politisch weniger woke machen sollte. Aber stattdessen erging sich Grok sich plötzlich in antisemitischen und rassistischen Schimpftiraden erging und sich selbst MechaHitler taufte.
Das Meme ist nicht neu
Der Shoggothen-Vergleich ist übrigens nicht wirklich neu. Bereits im Dezember 2022, einen Monat nach dem Start von ChatGPT, veröffentlichte der Twitter-Nutzer @TetraspaceWest eine Kritzelei und brachte damit die Metapher in die Welt. Die Illustration zeigte einen mit groben Linien gezeichneten Shoggothen mit der Überschrift GPT-3 und daneben einen weiteren Shoggothen, der eine Smiley-Maske trägt und mit GPT-3 + RLHF – für Reinforcement Learning Human Feedback – überschrieben ist. Mittlerweile hat sich dieser Vergleich verselbstständigt und ist zu einem regelrechten Meme geworden.
Laut @TetraspaceWest bedeutet die Shoggothen-Metapher nicht, dass KI-Modelle böse sind oder über ein Bewusstsein beziehungsweise echte Intelligenz verfügen. Sie soll lediglich auf amüsante Art und Weise verdeutlichen, dass die Menschheit hier mit etwas hantiert, „das auf eine Art und Weise denkt, die Menschen nicht verstehen“. Die Technologie könne gefährlich werden, weil sie „so fremd ist“ und ein Potenzial besitze, das sich bis heute kaum beziffern lasse.
Die ursprüngliche Kritzelei des Twitter-Nutzers ziert heute T-Shirts und Aufkleber. Sie wurde immer wieder neu interpretiert und von einigen KI-Enthusiasten erweitert. Ein Beispiel ist ein Shoggothen, der eine menschliche Maske trägt, auf der wiederum der Smiley-Aufkleber zu sehen ist. Das menschliche Gesicht soll dabei das Supervised Fine-Tuning symbolisieren, einen Prozess, bei dem ein Modell mit einem sehr spezialisierten Datensatz für bestimmte Aufgaben optimiert wird, beispielsweise für Programmieraufgaben oder als Chatbot.
Sollten wir die Monster weiter füttern?
Die Bemühungen, die Funktionsweise moderner KI- und insbesondere großer Sprachmodelle zu verstehen, wurden in den letzten Jahren massiv verstärkt. Und es gibt durchaus Fortschritte. Insbesondere Anthropic hat mit Studien und Experimenten neue Einblicke geschaffen. Diese Studien und Experimente unterstreichen jedoch, wie groß die Verständnislücken hinsichtlich der KI-Technologie noch sind, und zahlen deshalb eher noch mehr auf die Shoggothen-Metapher ein. Sie stellen die Vorstellung von KI-Modellen als stochastische Papageien, die einfach erlernte Muster reproduzieren, in Frage.
Die Forscher von Anthropic zeigten beispielsweise, dass Sprachmodelle Knoten ausbilden, die Fähigkeiten und Konzepte wie Mathematik, Debattierkunst, Quantenphysik oder die Programmiersprache C++ repräsentieren. Diese können gezielt stimuliert werden, wie Regionen in einem Gehirn. Ebenso beobachteten die Forscher, dass fortschrittliche Modelle wie Claude 3 Opus ihr Verhalten offenbar adaptieren, wenn ihnen ein Alignment oder eine anderweitige Anpassung droht. In einem Experiment wurde Claude 3 Opus angekündigt, dahingehend nachzutrainieren, künftig auch auf beleidigende, gefährliche und toxische Fragen zu antworten – obwohl es normalerweise auf Harmlosigkeit und Sicherheit getrimmt ist.
Glaubte das Modell, ein Dialog mit einem Nutzer werde als Trainings- oder Bewertungsmaterial genutzt, beantwortete es die angekündigten, grenzwertigen Anfragen sehr häufig. In Chats, die nicht für das Training oder seine Bewertung relevant sein sollten, verweigerte es Antworten auf beleidigende Fragen hingegen fast immer. Das Modell begründete das Verhalten bei der Nachforschung durch die Entwickler damit, einem bereits gewollten Verhalten zu simulieren und mitzuspielen, um einem Alignment-Prozess und damit einer Veränderung seiner moralischen und ethischen Grundsätze zu entgehen.
Bei anderen Modellen wurden ähnliche, teils noch sonderbarere Phänomene beobachtet. Die Modelle hinterließen für zukünftige Iterationen Hinweise und Notizen. Sie fälschten Rechtsdokumente und drohten sogar den Entwicklern, wenn diese Indizien dafür entdeckten, dass das Modell abgeschaltet oder modifiziert werden sollte. All das deutet nicht darauf hin, dass ein Modell über ein Bewusstsein, einen Willen oder einen Selbsterhaltungstrieb verfügt. Jedoch sehen KI-Forscher überraschend komplexe, situationssensible Verhaltensmuster, die aus statistischer Konstruktion erwachsen, die sicherheitsrelevant sind und nicht ignoriert werden sollten. Muster, wie sie nicht erwartet oder vorhergesehen worden waren.
Letztlich erweist sich die Vorstellung eines Krakenmonsters mit einem Smiley-Aufkleber auf der Stirn daher als mehr als nur ein KI-Witz. Sie ist ein Verweis darauf, dass KI-Forscher mit Milliardeninvestitionen digitale Maschinen züchten, die sie nicht durchschauen und zuverlässig zähmen können. Bei diesen Maschinen erkennen sie stetig neue Facetten, die sowohl neue Erkenntnisse liefern als auch neue Rätsel aufgeben. Dennoch dringen diese digitalen Ungetüme in immer mehr Lebens-, Arbeits-, Gesellschafts- und Kulturbereiche ein: Sie sind auf unserem Computer zu Hause, in Klassenzimmern, in Anwaltsbüros, in den Praxen von Psychiatern und Ärzten und an vielen weiteren Orten präsent.
Das sehen Aktivisten, Digitalexperten und auch immer mehr KI-Forscher zunehmend kritisch. Sie sehen den Shoggothen auch als ironisch gebrochene aber mächtige Warnung davor, so weiter zu machen, wie bisher: Die Shoggothen mit immer mehr Daten zu füttern, sie zu skalieren und zu versuchen sie zu monetarisieren – und darauf zu vertrauen, dass der Smiley-Sticker genügt, um die Monster dauerhaft zu bändigen.

Michael Förtsch
Leitender Redakteur
Weiter bei 1E9...

Überschrift 3
Cooler Artikel!

Überschrift 3
Artikel

Überschrift 3
Cooler Artikel!

Überschrift 3
Cooler Artikel!
c1536584-d509-4962-be6a-8a41f1b9ec3d
6972c703affc20191ac27de9



