11. September 2025
Minority Report warnte vor Technologie, die wir nicht verstehen – haben wir das vergessen?

Im Film Minority Report verhindert Tom Cruise mithilfe von Hellsehervorhersagen Verbrechen, die erst noch stattfinden werden. Dann wird ihm selbst vorgeworfen, einen Mann zu ermorden, den er nicht kennt. Der Film warnte vor der Undurchschaubarkeit und Unberechenbarkeit von Technologie. Angesichts des aktuellen KI-Hypes wirkt er daher erschreckend aktuell.
Von Michael Förtsch
Vor kurzem habe ich nach langer Zeit mal wieder Minority Report geschaut, die Verfilmung der gleichnamigen Philip-K-Dick-Kurzgeschichte von Steven Spielberg aus dem Jahr 2002. Dabei wollte ich mir eigentlich einen Eindruck verschaffen, wie gut der visuelle Stil des Films gealtert ist. Denn Spielberg und Kameramann Janusz Kamiński hatten zahlreiche Tricks angewendet, um dem Film einen futuristischen, eigenwilligen und vor allem wiedererkennbaren Look zu verpassen, der die zwischen Utopie und Dystopie changierende Natur der fiktiven Welt unterstreicht. So wurde der Film auf Zelluloid für Hochgeschwindigkeitskameras gedreht und gezielt überbelichtet. Zudem wurden feine Netze über Objektivrückseiten gespannt, um das Licht aufzuweichen. Bei der Entwicklung der Filmstreifen wurde dann das übliche Bleichen ausgelassen. All dies führte zu einem farbarmen, verrauschten Bild mit fast schon schwarz-weißfilmartigem Kontrast, was harsch, fast schon metallisch – und auch heute noch sehr besonders aussieht.
Beim Schauen ist mir aber noch etwas ganz anderes aufgefallen. Und zwar, wie klar die Geschichte als Warnung vor intransparenter Technologie und insbesondere vor Künstlicher Intelligenz, dem Handeln ihrer Entwickler und Verfechter interpretiert werden kann. Es ist zwar keineswegs neu, dass Künstliche Intelligenz mit Minority Report in Verbindung gebracht wird. Aber das geschah bislang vor allem aus einer sehr speziellen Perspektive. Nämlich beim Einsatz von KI-Technologie, um Verbrechen zu verhindern, bevor sie geschehen können – wobei die Technologie Vorurteile und rassistische Tendenzen verstärkt. Geholfen hat diese Debatte freilich wenig: Obwohl sowohl der Film als auch die Kurzgeschichte genau davor warnen, haben sich KI-Entwickler und Polizeibehörden eher davon inspirieren lassen. Im Jahr 2025 und im aktuellen KI-Hype wirkt Minority Report als Metapher aber noch stärker und weitläufiger.
Doch worum geht es eigentlich? Im Film arbeitet der Polizist John Anderton im Jahr 2054 in der experimentellen Precrime-Abteilung der Polizei von Washington. Diese nutzt drei durch genetische Anomalien hellseherisch begabte Menschen – die Precogs –, die mit Drogen ständig in einem vegetativen Halbschlaf gehalten werden, um Morde vorauszusehen. Oft sind es nur aufblitzende Eindrücke und Bilder, die die Morde zeigen. Diese müssen daher aufgezeichnet und von Anderton analysiert werden, um Ort und Zeit der Gewalttat zu bestimmen. Gelingt das, werden die Mörder durch eine Polizeieinheit vor ihrer Tat gefasst und zu einem Kälteschlaf verurteilt. Das System erscheint perfekt. Seit Jahren gab es in Washington keinen Mord mehr, weshalb das System bald auf die gesamten USA ausgedehnt werden könnte.
Erstaunlich aktuell
Gerade als das Programm vom kritischen Justizbeamten Danny Witwer auf seine Tauglichkeit als landesweites Werkzeug zur Verbrechensbekämpfung geprüft werden soll, sagen die hellsichtigen Precogs voraus, dass der Polizist Anderton einen Mord begehen wird. Er soll in weniger als zwei Tagen einen Mann erschießen, von dem er noch nie etwas gehört hat. Anderton gerät in Panik, flieht und versucht, seine Unschuld zu beweisen. Dabei deckt er auf, dass die Erfinder des Precrime-Programms sowohl die Beamten als auch die Bevölkerung über dessen Schwächen im Unklaren gelassen haben.
Die Precogs sehen nicht immer das Gleiche: Agatha, Arthur und Dash sind sich oft uneins, was die Zukunft angeht. Noch schwerer wiegt, dass niemand sagen kann, wie und wieso die unfreiwilligen Hellseher sehen, was sie sehen. Bisher hinterfragten das Anderton und seine Kollegen nie. Sie schrieben den Precogs stattdessen stets eine geradezu maschinelle Präzision und Unfehlbarkeit zu; vermieden gar, sie zu „vermenschlichen“. Als der Precog-Betreuer Wally dem Justizermittler das Verfahren erklären soll, kann er lediglich ausführen, wie die Bilder aus dem Gehirngewebe der Precogs eingefangen werden, aber nicht, wo sie herkommen. Denn es lässt sich nicht sagen, welche synaptischen Prozesse dafür verantwortlich sind. Ob die Bilder tatsächlich aus irgendeiner Zukunft stammen, oder eher temporale Halluzinationen darstellen, ist ebenfalls unklar.
Genau das lässt mich unweigerlich an den aktuellen KI-Hype denken: Eine zweifellos revolutionäre und unglaublich mächtige Technologie scheint in jeden Winkel unserer Gesellschaft vorzudringen – oder eher: hineingepresst zu werden. Im Bildungs- und Verwaltungswesen, in Justiz, Kunst und Kultur, Militär und in der Wirtschaft sollen große Sprachmodelle wie jene der GPT-, LLaMA- oder Claude-Reihe genau wie andere Machine-Learning-Systeme zum Einsatz kommen.

Die US-Regierung unter Donald Trump baut aktiv Beschränkungen und Regularien ab, die Entwicklung und Einsatz von Künstlicher Intelligenz behindern könnten. China hat gerade in einem Zehnjahresplan bestimmt, KI zu einer Schlüsseltechnologie des Landes auszubauen, um „eine neue Phase der Entwicklung der intelligenten Wirtschaft und Gesellschaft“ zu erreichen. Einige albanische Politiker sind sogar bereit, zunächst einzelne Ministerien, dann die komplette Regierung und schließlich den Posten des Premierministers an KI-Modelle zu übergeben, um „Nepotismus und Interessenskonflikte“ – sprich Korruption – zu begegnen, die das Land seit Jahrzehnten plagen. Hinzu kommen Hunderte von Unternehmen, die darauf hoffen, menschliche Angestellte zunehmend durch KI-Agenten ersetzen zu können.
Fehlbare Wundertechnologie
So vielversprechend Künstliche Intelligenz als Technologie auch ist, so fehlbar und undurchsichtig ist sie auch. Das gilt insbesondere für die großen Sprachmodelle, deren Training und Nutzung mittlerweile Milliardensummen verschlingen. Wie Tests und Studien immer wieder zeigen, sind die Modelle zwar seit dem Start von ChatGPT zuverlässiger geworden. Halluzinationen und Konfabulationen, bei denen die Modelle schlichtweg Unsinn verbreiten, finden jedoch weiterhin statt – selbst, wenn sie externe Quellen für ihre Antwort- und Entscheidungsfindung hinzuziehen können. Außerdem zeigen die vielversprechenden Reasoning-Modelle, die finale Antworten über eine Gedankenkette generieren, ernsthafte Schwächen – wie beispielsweise eine Studie von Apple ergab.
Das zentrale Problem ist jedoch ein anderes: Selbst die Entwickler der KI-Modelle wissen nicht genau, wie diese funktionieren. Das Grundkonzept ist zwar klar: Die Modelle lernen aus riesigen Datenmengen und können anschließend basierend auf erkannten Mustern neue Inhalte generieren, die statistisch gesehen am wahrscheinlichsten auf eine Anfrage folgen würden. Was dabei im Inneren der Systeme genau geschieht, wie die Modelle zu einer bestimmten Antwort gelangen, wieso es selbst bei umfangreichen Trainingsdaten zu einem Thema zu fehlerhaften oder widersprüchlichen Ergebnissen kommt und wie die internen Entscheidungsfindungen ablaufen, ist aber weiterhin sehr undurchsichtig.
Black Box
Auch wenn der Begriff Black Box überstrapaziert ist und nicht vollständig zutrifft, funktionieren LLMs und andere Modelle kaum wirklich berechenbar und intransparent. Erst allmählich beginnen Forscher von Unternehmen wie Anthropic und OpenAI sowie von verschiedenen Universitäten, Einblicke in die Inner Workings zu erhalten. Dabei wird das bisherige Verständnis der Modelle durchaus infrage gestellt. Große Sprachmodelle scheinen Kompetenzknoten für bestimmte Themen zu entwickeln. Modelle können die Worte in ihren Antworten vorab planen, statt diese einzeln zu generieren. Sie sind fähig, eine Art geistige Repräsentation aus ihrem Lernmaterial abzuleiten und womöglich sogar ein Verständnis der Wirklichkeit aufzubauen. Sie können schädliche Verhaltensmuster weitergeben, wenn sie zum Anlernen neuer Modelle genutzt werden. Kurzum: Sie sind komplexer als gedacht und wohl mehr als nur stochastische Papageien oder eine Auto-Vervollständigung auf Speed.
Unterschiede zur Kurzgeschichte
Der Spielberg-Film Minority Report basiert auf der gleichnamigen Kurzgeschichte von Philip K. Dick – allerdings nur sehr lose. Tatsächlich werden im Film nur einige zentrale Elemente und Namen verwendet, während das komplette Setting und der Ausgang verändert wurden. So spielt die Kurzgeschichte beispielsweise nach einem nahezu alles verwüstenden Atomkrieg. Anderton ist kein junger, sondern ein ausgelaugter, alternder Polizist, der bald in Rente gehen will.
Im Film stellt sich heraus, dass es für Anderton keinen der titelgebenden Minderheitenberichte gibt, in denen ein Precog eine alternative Zukunft sieht, die ihn entlasten könnte. Im Film entscheidet Anderton sich, den vorhergesagten Mord nicht zu begehen, als er erkennt, dass die Umstände, die ihn dazu treiben sollen, inszeniert sind. In der Kurzgeschichte ist das anders. Dort begeht Anderton letztlich den Mord, stellt sich der Polizei und belegt damit die Wirkung der Vorhersagen
Nur selten sprechen die Entwickler der meist genutzten und größten KI-Modelle offen darüber, wie wenig sie die Modelle verstehen. Wenn, dann maskieren sie dies gerne mit Aussagen, dass die „Interpretierbarkeit nicht gelöst“ sei. Oder sie verbinden dies mit Ankündigungen, dass sich das in den kommenden Jahren endlich ändern werde. Aus dem Unwissen über die Prozesse in den KI-Modellen leiten sie jedoch keine drastischen und eigentlich ethisch folgerichtigen Entscheidungen ab. Sie warnen nicht davor oder lehnen Angebote ab, ihre KI-Produkte bei der Regierungsarbeit, in Versicherungsgesellschaften, Banken oder Finanzunternehmen einzusetzen.

Eher das Gegenteil ist der Fall. Mehrere große US-KI-Unternehmen haben mittlerweile Verträge mit der US-Regierung abgeschlossen. Die spanische Bank BBVA hat GPT-5 bereits vor der öffentlichen Ankündigung des Modells für ihre Finanzanalysen eingesetzt. Und das, obwohl diese Modelle den KI-Firmen immer wieder entgleiten – auch öffentlich –, weil sie auf unerwartete und unberechenbare Weise selbst auf kleine Anpassungen reagieren. So wurde ChatGPT durch ein Update zu einem rückgratlosen Speichellecker und Grok mutierte zeitweise zu einem antisemitischen „Mecha Hitler“, der einen neuen Holocaust forderte. Hinzu kommt, dass Menschen in erschreckender Anzahl durch Konversationen mit den Chatbots in Psychosen verfallen, die in einigen Fällen sehr tragisch oder sogar tödlich endeten.
Ende gut, alles gut?
Wie bei Precrime in Minority Report scheint beim Blick auf Künstliche Intelligenz die Frage angebracht, ob das Tempo, mit dem die Technologie immer weiter ausgedehnt werden soll, gerechtfertigt ist. Sollte nicht mehr Skepsis und Widerstand bestehen, da nicht durchschaubar ist, wie sie funktioniert, wie die Entscheidungsfindungen und inneren Prozesse ablaufen? Es fehlt schlicht die Nachvollziehbarkeit und Vertrauensbasis, um dieser Technologie so viel Verantwortung und Einfluss zu übertragen. Je stärker die Technologie in den Alltag der Menschen verwoben wird, desto größer werden die gesellschaftlichen und ethischen Dimensionen. Umso größer kann auch der Schaden sein, den KI-Modelle anrichten, wenn sie nicht so funktionieren, wie viele es sich erhoffen.
Muss es erst zu einem wirklich kritischen Vorfall kommen, wie dem Vorwurf eines zukünftigen Mordes gegen Anderton, um für die Fallstricke der Technologie zu sensibilisieren? Braucht es eine schwerwiegende Klage gegen eine der großen KI-Firmen, um den Hype-Zyklus zu durchbrechen? Um festzustellen, dass der allzu leicht zu ignorierende Hinweis „Der KI-Dienst kann Fehler machen“ vielleicht nicht ausreicht, um Menschen dazu zu bringen, Aussagen, die von KIs generiert wurden, mit mehr Vorsicht zu behandeln?
In Minority Report wurden die Verurteilten wieder freigelassen, nachdem die Fehlbarkeit des Systems bewiesen war, und konnten ihr Leben fortsetzen. Der Schaden, den manche KI-Dienste hingegen bereits bei Menschen und ihren Familien angerichtet haben, ist hingegen wohl nicht wieder gut zu machen.
Bilder: ©20th Century Fox

Michael Förtsch
Leitender Redakteur
Weiter bei 1E9...

Überschrift 3
Cooler Artikel!

Überschrift 3
Artikel

Überschrift 3
Cooler Artikel!

Überschrift 3
Cooler Artikel!
036ac5ef-c99c-41a2-8fcd-06da8ed7d8a4
68c311ef375b48ad52e66140