top of page

5. November 2025

Big Tech sieht und hört mit: Wie die KI-XR-Brille das Smartphone ablösen könnte


Wer meinte, das Thema Datenbrillen sei durch, weil die Vision Pro von Apple kein Megaerfolg war, irrt sich: Nicht ohne Grund treiben Tech-Unternehmen wie Meta oder Google die Entwicklung von alltagstauglichen XR-Headsets immer weiter voran. Denn in Verbindung mit Künstlicher Intelligenz könnten die Geräte, die die Welt ihrer Träger sehen und hören können, zu mächtigen KI-Assistenten werden. Gleichzeitig könnten sie die ultimativen Datensammel-Automaten werden, die das Werbegeschäft von Big Tech auf ein ganz neues Level katapultieren.


Von René Kasperek


In meinem letzten Beitrag für 1E9 habe ich die These aufgestellt, dass Meta bei der nächsten Computerplattform führend sein könnte – also bei KI-gestützten Datenbrillen, die Informationen direkt ins Sichtfeld der Nutzer einblenden können, sei es in Augmented, Mixed oder Virtual Reality. Die darin skizzierte Plattform nimmt nun Gestalt an. Und die Integration von Künstlicher Intelligenz ist noch umfassender als erwartet: XR-Brillen mit ihren Kameras, Sensoren und Mikrofonen sollen zu den Augen und Ohren von KI werden.


Was im Herbst 2025 mit der Vorstellung von Metas neuer KI- und Augmented Reality-Brille Ray Ban Display und mit der Verknüpfung von Google Gemini mit dem neuen Samsung Headset Galaxy XR seinen vorläufigen Höhepunkt findet, ist deshalb womöglich der Beginn einer neuen Ära: Computer hören auf, Werkzeuge zu sein, die wir benutzen, und fangen an, Assistenten zu sein, die die Welt mit uns und wie wir wahrnehmen, autonom agieren und damit zum integralen Bestandteil unseres Alltags werden sollen, noch mehr als heute Smartphones.


Was jetzt anders ist: Drei technologische Kipppunkte


Technologisch wird der Wandel von drei entscheidenden Entwicklungen angetrieben, die sich gegenseitig beschleunigen:


  1. Die Hardware wird zum ständigen Begleiter: Geräte wie die Meta Ray-Ban, die 2025 eine Variante mit Display erhalten sollen, und das für Ende 2025 erwartete Android XR-Ökosystem von Google und Samsung sind darauf ausgelegt, dass Datenbrillen permanent getragen werden. Sie legen eine digitale Schicht über unsere Realität, die immer präsent ist.

  2. Die KI versteht unsere Welt: KI-Systeme wie Googles Gemini können nicht nur Text, sondern auch Live-Videostreams und Umgebungsgeräusche interpretieren. Sie „sehen“, was wir sehen. Google demonstriert dies bereits als Kernfunktion von Android XR: KI bekommt damit die Fähigkeit, die Welt durch die Brille zu verstehen und darauf basierend zu handeln.

  3. Die Steuerung wird intuitiv: Die entscheidende Hürde war bisher die klobige Interaktion. Metas neurales Armband, das mittels Elektromyographie (EMG) feinste Muskelimpulse am Handgelenk in digitale Befehle übersetzt, löst dieses Problem. Eine kaum sichtbare Fingerbewegung reicht aus, um eine Aktion auszulösen. Natürliche Sprache als Eingabe wird fundamental. Gleichzeitig wird das sensorgestützte Tracking von Gesten und Bewegungen immer besser.


Die Praxis: Science-Fiction wird Alltag


Diese drei Faktoren ermöglichen Szenarien, die gestern noch Science-Fiction waren. Nehmen wir das Beispiel des Kochens: Eine AR-Anwendung kann über die seit 2025 geöffnete Kamera-API der Meta Quest nicht nur ein Rezept einblenden. Ein KI-Modell analysiert den Kamerastream und erkennt beispielsweise, ob die Zwiebeln in der Pfanne wirklich schon glasig sind. Die App kann so die Anweisungen und Ratschläge dynamisch auf den aktuellen Kochvorgang anpassen.


Weitere Beispiele stehen kurz bevor:


  • Nahtlose Kommunikation: Gespräche werden in Echtzeit transkribiert und als Untertitel ins Sichtfeld projiziert, auch als Übersetzung aus anderen Sprachen.

  • Realistische Telepräsenz in XR: Mit visionOS 26 hat Apple seine „Personas“ entscheidend verbessert, während Metas Codec Avatars fotorealistische digitale Treffen in greifbare Nähe rücken. Damit könnten sich langsam, aber sicher „räumliche“ Alternativen zu Videocalls durchsetzen.

  • Permanentes Lernen im Alltag: Die Koch-App ist nur der Anfang. Stellt euch vor, ihr repariert ein Fahrrad. Die Brille erkennt das Bauteil, das ihr gerade in der Hand habt, und spielt eine holografische Anleitung zur Montage genau an der richtigen Stelle ein. Der KI-Tutor passt sich eurem Arbeitstempo, beantwortet Fragen – und macht so jeden Ort zum Klassenzimmer, in dem ihr neues, oft praktisches Wissen erlangt. Das ist die Vision des personalisierten Lernens, das sich unserem Leben anpasst, nicht umgekehrt.


Warum KI-Agenten die Entwicklung entscheidend beschleunigen


Im Gegensatz zu einem passiven KI-Chatbot, der auf Befehle wartet, ist ein Agent ein proaktives System. Er nimmt seine Umgebung wahr (Perzeption), lernt aus Interaktionen (Gedächtnis), kann andere Apps autonom nutzen (Tool-Use) und basierend auf einem Ziel selbstständig mehrstufige Pläne ausführen (Autonomie).


Um das greifbar zu machen, stellen wir uns eine Architektin vor. Sie sitzt nicht mehr an einem komplexen BIM-Programm und schiebt mühsam eine Maus über den Bildschirm. Stattdessen beschreibt sie ihre Vision einem KI-Agenten in natürlicher Sprache. Der Agent nutzt im Hintergrund generative KI-Tools, um ihre Ideen in Echtzeit in ein 3D-Modell zu übersetzen, das ihre XR-Brille als Hologramm direkt auf den Bauplan vor ihr projiziert. Diese friktionsfreie Gestaltung erlaubt es ihr, ihre Vision in Minuten zu iterieren, nicht in Tagen.


Aber der eigentliche Schritt, der dem Ganzen die Krone aufsetzt, ist dieser: Der Agent hat Zugriff auf die digitalen Register der Bauämter und lokale Vorschriften. Noch während die Architektin entwirft, erkennt er, dass ihre Vision mit dem Bebauungsplan kollidiert. Statt einer simplen Fehlermeldung macht er einen proaktiven Vorschlag: „Interessant. Wenn wir den Südflügel um vier Grad drehen, bleiben wir im Rahmen der vorgeschriebenen Höhe und optimieren gleichzeitig die Sonneneinstrahlung.“


Ein Arbeitsschritt, der sonst rechercheintensive Überprüfung und potenziell wochenlange Rückfragen beim Amt erfordert hätte, wird in Sekunden erledigt. Das ist die Verheißung: eine Welt mit weniger Reibung, optimiert durch einen allwissenden, proaktiven KI-Partner.


Die Brücke zur autonomen Welt: Von deinen Augen zu Robotern


Der wahre ökonomische Treiber hinter diesen Technologien könnte jedoch woanders liegen: in der Robotik. Die von Millionen XR-Geräten gesammelten Egoperspektiven-Daten sind der perfekte Trainingsdatensatz für Roboter, die sich selbstständig in der physischen Welt zurechtfinden sollen – genau wie Menschen.


NVIDIA hat mit Project GR00T bereits ein Basismodell für humanoide Roboter vorgestellt, das genau auf solchen Daten aufbaut, um menschliche Handlungen in der realen Welt zu lernen. Unsere Interaktionen mit der Welt werden zur Trainingspipeline für die nächste Generation von autonomen Maschinen.

 

Die Risiken: Überwachung, Denkfaulheit und soziale Ungleichheit


Die Verheißungen sind groß, doch die Implikationen sind es auch – auch wenn die Tech-Unternehmen darüber ungern sprechen. Drei zentrale Risiken kristallisieren sich heraus:


  1. Die totale Transparenz (oder Überwachung): Die Verbindung aus XR-Brillen, die permanent Daten über unsere Interaktion mit der Welt sammeln, und KI-Modellen, die diese Daten in der Cloud verarbeiten, erlaubt – ergänzt um die schon über uns im Internet gesammelten Informationen – die Erstellung von Persönlichkeitsprofilen, von denen selbst Meta mit seinen sozialen Plattformen Facebook, Instagram und WhatsApp bisher nur träumen konnte. Stand jetzt ist es quasi unmöglich, die gesammelte Datenmenge on device, sprich: in der Brille, zu verarbeiten – dafür fehlt die Rechenpower. Hybrid-Modelle wie Apples Private Cloud Compute zeigen zwar einen Weg für mehr Datenschutz, doch nicht alle Anbieter werden den Weg des Premiumherstellers mit Premiumpreisen gehen (wollen).

  2. Die neue Denkfaulheit: Das Phänomen, unser Denken und unser Gedächtnis an Technik auszulagern, ist seit dem „Google-Effekt“ gut dokumentiert. Die Sorge ist, dass ständige KI-Assistenz auch unsere Fähigkeit verkümmern lässt, uns durch komplexe Probleme zu kämpfen. Die Wissenschaft ist sich hier zwar uneins – je nach Aufgabe kann KI den Kopf sogar sinnvoll entlasten –, doch die Gefahr einer kognitiven Bequemlichkeit ist real. Die viel größere Falle liegt aber in der Aufmerksamkeitsökonomie: Wenn der Social Feed ohne den Griff zum Handy permanent im Sichtfeld schwebt, wird es ungleich schwerer, der Ablenkung zu widerstehen. Für unsere Konzentrationsfähigkeit könnte das ein weiterer Tiefschlag werden. Und es dürfte auch nicht gerade förderlich sein, wenn das Internet mit KI-Einheitsbrei überflutet wird, der menschliche Kreativität und Perspektivenvielfalt verdrängt.

  3. Die augmentierte Kluft: Wer sich diese Technologie leisten kann, hat einen potenziellen Produktivitätsvorteil. Dies könnte eine neue soziale Spaltung zwischen informationell Augmentierten und Nicht-Augmentierten schaffen, die weit über die heutige digitale Kluft hinausgeht. Augmentierte sind dabei Personen, deren Wahrnehmung und kognitive Fähigkeiten durch digitale Technologien wie KI-gestützte Datenbrillen erweitert oder ergänzt werden.


Liefern wir unser Leben einzelnen Unternehmen aus?


Das erste oben genannte Risiko dürfte das schwerwiegendste sein – denn darin steckt aus Sicht der Anbieter das größte ökonomische Potential: Es geht um den digitalen Lock-in und die Kommerzialisierung unseres innersten Wesenskerns.


Wenn wir uns für eine dieser Plattformen entscheiden, liegt unser gesamter Lebenskontext bei einem einzigen Unternehmen. Jeder Gedanke, den wir teilen, jede Umgebung, die wir sehen, jede Gewohnheit, die wir entwickeln, füttert unseren digitalen Zwilling – eine hochdetaillierte Kopie unserer Persönlichkeit, unserer Vorlieben und unserer Schwächen. Dieser Zwilling gehört nicht uns; er liegt als Datensatz bei OpenAI, Google oder Meta. Ein Wechsel wird dadurch nahezu unmöglich, der Lock-in-Effekt ist total.


Stellen wir uns die entscheidende Frage: Was macht ein Unternehmen, das 100 Milliarden Dollar in KI-Rechenzentren und deren laufende Energiekosten investiert hat, um dieses Kapital zu refinanzieren? Die naheliegendste Antwort ist die Perfektionierung des Werbegeschäfts. Die digitalen Zwillinge werden zur ultimativen Zielgruppe, die an Konzerne verkauft wird, um Konsumgüter mit einer nie dagewesenen, psychologisch perfekten Präzision zu vermarkten.


Noch beunruhigender ist jedoch das Potenzial zur gesellschaftlichen und politischen Einflussnahme. Wer Zugriff auf die kollektiven digitalen Zwillinge einer Gesellschaft und über permanent aktive KI-Assistenten auch auf die realen Menschen dahinter hat, besitzt ein mächtiges Werkzeug zur Meinungsbildung. Es kann genutzt werden, um politische Narrative zu formen oder Wahlen zu beeinflussen. Das Risiko ist somit nicht nur der Verlust der Privatsphäre, sondern die stille Enteignung und anschließende Manipulation unserer Identität.


Die Entscheidung, die wir treffen müssen


Nach all dem könnte man meinen, der „Drops sei gelutscht“, aber das ist natürlich fatalistisch. Wir sollten die rote Pille nehmen und jetzt die Weichen stellen, indem wir auf offene KI-Architekturen setzen, Datenschutz aktiv einfordern und die Spielregeln für den öffentlichen Raum neu aushandeln. Ein Schritt wäre Datensouveränität herzustellen, indem man vor allem kritische Infrastruktur und das Bildungssystem aus der Abhängigkeit von US-Monopolen löst. Europäisch geführte Datencenter sollten die Möglichkeit bekommen, dezentralisierte Strukturen aufzubauen. Jedes Krankenhaus, jede Universität und jedes Amt benötigt sein eigenes GPU-Cluster im Keller, auf dem selbstgehostete Open-Source-Modelle und Infrastruktur laufen.


Doch die persönlichste und vielleicht tiefgreifendste Frage, die diese Technologie aufwirft, betrifft das, was uns menschlich macht: unsere Fähigkeit zu lernen und zu wachsen. Hier stehen wir an einer fundamentalen Weggabelung.


Der eine Pfad führt in eine Welt, in der die Technologie zu einem ultimativen persönlichen Tutor wird. Ein KI-Partner, der uns befähigt, neue Sprachen im Gespräch zu lernen, komplexe handwerkliche Fähigkeiten zu meistern und unser Wissen ständig zu erweitern. Er wird zum Katalysator für unsere Neugier.


Der andere Pfad ist der der totalen Assistenz, der uns jede kognitive Anstrengung abnimmt. Er flüstert uns die Antwort ins Ohr, bevor wir die Frage zu Ende gedacht haben. Er löst das Problem, bevor wir die Chance hatten, aus dem Fehler zu lernen. Dieser Weg führt in eine komfortable Abhängigkeit, in der wir aufhören, unsere eigenen geistigen Muskeln zu trainieren.


Die KI-XR-Brille ist mehr als nur ein neues Display. Sie ist ein Spiegel, der uns vor die Wahl stellt. Die entscheidende Schnittstelle ist nicht das Glas vor unseren Augen, sondern die zwischen der Technologie und unserer eigenen Neugier. Wir entscheiden, ob sie zum Tor für grenzenloses Lernen wird – oder zu einem sehr bequemen Käfig: A Brave New World.


René Kasperek erforscht die Schnittstelle von Extended Reality und künstlicher Intelligenz. Als CTO und Experience Architect bei Blickwinkel Tour entwickelt er immersive Erlebnisse, die Geschichte und Kultur in neuen Dimensionen erlebbar machen. Mit seinem neuen Projekt Splexit verwandelt er Klassenzimmer in XR-gestützte Lernräume. Aus der 3D- und Softwareentwicklung kommend, arbeitet Kasperek heute an selbstgehosteten, KI-gestützten Anwendungen, die als Grundlage für souveräne, datensichere XR-Erfahrungen dienen. In Vorträgen und Workshops teilt er seine Vision einer Zukunft, in der immersive Räume und kontextbewusste KI unsere Wahrnehmung, unser Lernen und unser Denken nachhaltig verändern – und warum Open Source dabei wichtiger wird als je zuvor. Hier erfahrt ihr mehr über Renés Arbeit.

René Kasperek

René Kasperek

CTO

554

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare (1)

sbrunthaler
vor 2 Tagen

KI-Datenbrille plus neurales Interface = ferngesteuerte User!

Das gefällt mir.

1

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

577d1672-9bc9-4e8c-81c2-e1697722dac1

6909efd12c1a83034480fb46

bottom of page