top of page

8. März 2026

Wieso Anthropic im Streit mit dem Pentagon liegt und Tausende ihre ChatGPT-App löschen


Das KI-Unternehmen Anthropic hat sich gegen das US-Verteidigungsministerium gestellt. Es weigert sich, seine KI-Modelle für die Bürgerüberwachung und für selbstständig tötende Drohnen und Roboter bereitzustellen. Als OpenAI dann einen Deal mit dem Pentagon machte, geriet das Unternehmen in die Kritik.

 

Von Michael Förtsch

 

Es war ein Moment zum Fremdschämen. Mitte Februar standen OpenAI-Chef Sam Altman, Anthropic-CEO Dario Amodei und weitere Vertreter der globalen KI-Industrie während des India AI Impact Summit neben dem indischen Premierminister Narendra Modi auf einer Bühne. Als Modi die KI- Unternehmer aufforderte, sich freundschaftlich an den Händen zu halten und diese in Gewinnerpose in die Luft zu recken, scherten Altman und Amodei aus. Zwar griffen sie die Hände ihrer anderen Nebenmänner, gegenseitig wollten sie sich jedoch nicht an den Händen fassen. Viele werteten das als Gradmesser dafür, wie tief die Rivalität zwischen den Gründern der beiden weltweit wichtigsten KI-Unternehmen ist. Der Moment verdeutlichte aber auch, wie unvereinbar und unterschiedlich die philosophischen und ethischen Grundsätze der beiden Firmen erscheinen: Unterschiede, die langfristig sowohl ihren kommerziellen als auch gesellschaftlichen Erfolg mitbestimmen könnten.

 

Dass Anthropic in der KI-Branche eine Sonderposition einnehmen möchte, ist nichts Neues. Bereits bei der Gründung im Jahr 2021 machte das Team aus ehemaligen OpenAI-Mitarbeitern klar, dass es einen anderen Ansatz bei der Entwicklung von KI verfolgen will. Die KI-Forscher und -Entwickler waren unzufrieden damit, dass OpenAI seine einstigen Leitlinien hinsichtlich Sicherheit und Transparenz zugunsten einer schnellen Kommerzialisierung und Milliardeninvestments, wie sie von Microsoft kamen, aufgab. Im Gegensatz dazu sollte Anthropic „eine verantwortungsvolle Entwicklung und Wartung fortschrittlicher KI zum langfristigen Nutzen der Menschheit“ verfolgen.

 

Zwar stellen viele infrage, wie ernst es der Firma damit wirklich ist. Insbesondere, da auch Anthropic die eigenen Richtlinien zur Sicherheit seiner Modelle verwässert hat und eng mit Palantir kooperiert. Dennoch werden das von Dario Amodei geführte KI-Unternehmen und seine Mitarbeiter derzeit als die good guys der KI-Branche gefeiert. Anthropic legte sich nämlich öffentlich mit dem US-Verteidigungs- bzw. Kriegsministerium, dessen Minister Pete Hegseth und somit mit der Trump-Regierung an. Das Ministerium wollte die Claude-KI-Modelle der Firma über einen mit 200 Millionen US-Dollar dotierten Vertrag nutzen – für „all lawful purposes“, wie es das Department of War beschreibt. Viele interpretierten diese Formulierung als „praktisch ohne Begrenzung“. Genau dem wollte Anthropic jedoch nicht zustimmen und bestand auf zumindest zwei Einschränkungen. Die Modelle sollten nicht für die Massenüberwachung von US-Amerikanern oder für den Einsatz vollautonomer Waffen wie Drohnen, die ohne menschliches Zutun töten können, eingesetzt werden.

 

Für das US-Kriegsministerium unter Pete Hegseth waren diese Einschränkungen inakzeptabel. Auch US-Präsident Donald Trump forderte, das „radikal linke, woke Unternehmen“ solle sich fügen. Wichtig in diesem Kontext: Claude war bis vor Kurzem der einzige KI-Dienst, der mit Daten höchster Geheimhaltungsstufe des US-Militärs umgehen durfte. Hegseth bestand darauf, dass Anthropic seine Modelle für den umfassenden militärischen Einsatz freigibt. Er setzte der Firma ein Ultimatum bis zum 27. Februar und drohte damit, Anthropic zum Lieferkettenrisiko zu erklären. Damit dürfte kein Partner oder Zulieferer des US-Militärs die KI-Systeme des Unternehmens mehr nutzen – ein administratives Werkzeug, das bislang ausschließlich dem Einsatz gegen ausländische Unternehmen vorbehalten war. Anthropic beugte sich jedoch nicht. Man könne den Forderungen des Pentagons „nicht guten Gewissens nachkommen“ und werde sich nicht durch Drohungen einschüchtern lassen.

 

Hegseth gegen Amodei?

 

Die Reaktion der Trump-Regierung auf die Entscheidung von Anthropic ließ nicht lange auf sich warten – und fiel massiv aus. Trump verkündete auf seiner Social-Media-Plattform Truth Social, dass die Anthropic-Modelle „unverzüglich aus allen Regierungssystemen“ verschwinden sollen. „Die linken Spinner bei Anthropic haben einen katastrophalen Fehler begangen, indem sie versucht haben, das Kriegsministerium unter Druck zu setzen“, so Trump weiter. Pete Hegseth kündigte an, die von ihm angedrohte Einstufung von Anthropic als Lieferkettenrisiko durchzusetzen. Etwas, das mittlerweile auch geschehen ist. Er warf Anthropic-Chef Dario Amodei „Arroganz“ und „Heimtücke“ vor, was US-Soldaten das Leben kosten könnte. Laut einem Bericht der New York Times sollen bei diesen Schritten durchaus auch persönliche Differenzen zwischen Hegseth und der Führungsriege des KI-Unternehmens eine Rolle gespielt haben.

 

Überraschend gab OpenAI nur wenige Stunden später bekannt, eine Übereinkunft mit dem Pentagon getroffen zu haben. Und das, obwohl OpenAI angeblich die gleichen „roten Linien“ wie Anthropic gezogen habe, wie Sam Altman angab. Der Vertrag mit dem US-Militär enthalte explizite Schutzklauseln, die besagen, dass die Technologie nicht für Massenüberwachung oder autonome Waffensysteme, die ohne menschliches Eingreifen töten können, eingesetzt werden darf. Auch für die Erstellung von Social-Credit-Scores, wie sie in China praktiziert werden, dürften die OpenAI-Modelle nicht genutzt werden. Genau das sieht das US-Militär aber offenbar anders. Es gibt an, OpenAI habe dem „all lawful use“ zugestimmt.

 

Die Kritik an OpenAI und der Partnerschaft war heftig. Während vor der Zentrale von Anthropic Menschen mit Kreide liebevolle Botschaften auf den Gehweg schrieben, wurde OpenAI unter anderem Bigotterie und eine gefährliche Nähe zur Trump-Regierung vorgeworfen. Auch innerhalb von OpenAI regte sich Widerstand. Dutzende Mitarbeiter forderten, den Vertrag mit dem Verteidigungsministerium zu überdenken. Unter dem Motto „Wir lassen uns nicht spalten“ forderten insgesamt 920 Mitarbeiter von OpenAI und Google Solidarität mit Anthropic und damit auch mehr Standhaftigkeit von OpenAI und dessen Führungsriege.

 

Am 1. März sah sich Sam Altman schließlich gezwungen, auf die Kritik einzugehen. Er gestand ein, dass der Vertrag mit dem Verteidigungsministerium „überstürzt“ abgeschlossen wurde und die Angelegenheit „optisch nicht gut“ aussehe. Er habe auf eine Deeskalation der Lage zwischen dem US-Militär und der KI-Industrie gehofft. Außerdem habe OpenAI das Angebot des US-Militärs für gut befunden. Er sehe die KI-Industrie gewissermaßen in der Pflicht und fordere einen pragmatischen Blick auf die Situation: „Unsere Branche sagt der Regierung: Die Technologie, die wir bauen, wird der entscheidende Faktor in geopolitischen Konflikten sein. China prescht voran. Ihr seid weit hinten“, so Altman. „Und dann sagen wir: Aber wir helfen euch nicht, weil wir euch für böse halten.“

 

Die Erklärungsversuche des OpenAI-Chefs ernteten jedoch nicht viel Verständnis und Zustimmung. Stattdessen sammelten sich auf X – ehemals Twitter – Tausende besorgte und wütende Beiträge. Bereits am nächsten Tag veröffentlichte OpenAI daher ein Update zu seiner Kooperation mit dem Verteidigungsministerium. Bestimmte Bestandteile des Vertrags seien präziser und klarer neu formuliert worden. Unter anderem, um eine Nutzung der KI-Modelle durch die National Security Agency und zur „absichtlichen Überwachung von US-Bürgern und Staatsangehörigen im Inland“ auszuschließen. Auch die Verarbeitung von etwa durch Data Brokern gekauften Social-Media- und Telefondaten durch Geheimdienste soll dadurch untersagt sein. Mit der Massenüberwachung der Einwohner von alliierten und feindlichen Ländern ist das Unternehmen hingegen offenbar einverstanden.

 

Für zusätzlichen Zündstoff sorgte zudem ein am 4. März geleaktes, internes Memo von Dario Amodei bei Anthropic. In diesem machte er offenbar kurz nach dem Scheitern der Verhandlungen und der Ankündigung des OpenAI-Deals gegenüber seinen Mitarbeitern seinem Frust und seiner Besorgnis Luft. Er schrieb, die Verhandlungen seien gescheitert, weil „uns die Verhinderung von Missbrauch wichtig war“, und fügte hinzu, das Verteidigungsministerium könne Anthropic nicht leiden, da das Unternehmen „Trump nicht mit diktatorischem Lob überschüttet“.

 

Die OpenAI-Führung bezeichnete Amodei als „leichtgläubig“, die Unterstützer des Deals als „Twitter-Idioten“ und die Leitplanken für die OpenAI-Modelle und deren Einsatz als bloßes „Sicherheitstheater“. Die Begründungen von Sam Altman nannte er „bloße Lügen“. Auf Social-Media-Plattformen nannten viele die harschen Worte zumindest „erfrischend ehrlich”. Wobei Amodei zwischenzeitlich in einem Interview für seinen „Ton“ um Entschuldigung bat und angab, seine Perspektive nicht „umsichtig oder wohlüberlegt“ reflektiert zu haben.

 

Imageschaden für OpenAI

 

Die Versuche von Sam Altman und weiteren OpenAI-Mitarbeitern, den Schaden zu begrenzen, waren nicht sonderlich erfolgreich. Eher im Gegenteil. Zahlreiche Nutzer argumentierten, dass Altman sich naiv und dumm stelle, wenn er vorgibt zu glauben, dass sich „eine Regierung, die dafür bekannt ist, zu lügen“, an Übereinkünfte hält. Das Image des KI-Pioniers ist derzeit also sichtbar beschädigt. Viele KI-Entwickler und Forscher sehen den vermeintlichen Deeskalationsversuch als Opportunismus sowie Verrat an der Branche und einer gemeinsamen Zukunftsvision. Auch innerhalb von OpenAI selbst. Der Mitarbeiter Max Schwarz, der großen Einfluss auf Modelle wie GPT-5, o1 und o3 hatte, verließ das Unternehmen. Ihm folgte einige Tage darauf Caitlin ​Kalinowski an, die bei OpenAI für Robotik und Hardware verantwortlich ist. Sie begründete ihre Fortgang mit der mangelnden Überlegung, die in die Zusammenarbeit mit dem US-Militär floss.

 

ChatGPT-Nutzer reagierten ebenfalls. Wie TechCrunch berichtete, stiegen die Deinstallationen der ChatGPT-App auf Mobilgeräten am ersten Märzwochenende um 295 Prozent an. Auf Social-Media-Plattformen teilten etliche Tausende mit, dass sie ihre Plus- und Pro-Abos bei ChatGPT gekündigt hätten. Bis Sonntagabend sollen es über 1,5 Millionen gewesen sein. Im gleichen Zeitraum stiegen die Downloads und die Zahl der neuen Abos für Claude. Im Apple App Store kletterte die App vor ChatGPT auf Platz 1. Sogar Sam Altman gestand ein, dass er das nicht sonderlich gut fand.

 

Auch Prominente wie Katy Perry setzten sich für Anthropic ein und teilten Screenshots ihrer neuen Claude-Abos. Anthropic nutzte diesen Schwung und stellte eine Option bereit, um Dialoge und Erinnerungen aus ChatGPT und anderen KI-Chatbots zu importieren. Tatsächlich scheint Anthropic bislang von seinem Schlagabtausch mit dem Pentagon zu profitieren. Zudem scheint die Anordnung des US-Präsidenten, die Claude-Modelle unverzüglich aus den Regierungsnetzen zu tilgen und die Einstufung als Lieferkettenrisiko, bislang ignoriert zu werden – oder einfach nicht so leicht umsetzbar zu sein. Selbst vom US-Militär. Denn wie das Wall Street Journal berichtet, wird ausgerechnet Claude eingesetzt, um Geheimdienstinformationen zu analysieren sowie aussichtsreiche Ziele für Angriffe auf den Iran zu identifizieren und Gefechte zu simulieren.

Michael Förtsch

Michael Förtsch

Leitender Redakteur

554

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare

Deine Meinung teilenJetzt den ersten Kommentar verfassen.

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

b1590178-e1ed-407c-8bcd-130e85ff6767

69adda843fdd64550e6cf918

bottom of page