26. Februar 2025
Das Internet ist tot – und Künstliche Intelligenz hat es getötet, vielleicht

Eine obskure Verschwörungstheorie besagt, dass das Internet, wie wir es heute kennen, nicht real ist. Es sei lediglich eine Ansammlung von Inhalten, die von Künstlichen Intelligenzen generiert werden, um die Nutzer zu beschäftigen und zum Konsum zu verführen. Das echte Internet hingegen sei seit einigen Jahren tot. Eine bizarre Vorstellung, die Wirklichkeit zu werden droht.
Von Michael Förtsch
Es erinnert an jene ikonische Szene aus The Matrix, in der Neo und Morpheus sich in dicken Ledersesseln gegenübersitzen. „Du bist hier, weil du etwas weißt. Du kannst es nicht erklären, aber du fühlst es“, sagt Morpheus. „Du weißt nicht, was es ist, aber es ist da, wie ein Splitter in deinem Kopf, der dich verrückt macht. Es ist dieses Gefühl, das dich zu mir geführt hat. Weißt du, wovon ich spreche?“ Ziemlich genauso erging es vor einigen Jahren einer wachsenden Zahl von Internetnutzern. Sie surften durch die digitale Weite, nur um zunehmend das diffuse Gefühl zu entwickeln, dass mit dem World Wide Web irgendetwas nicht stimmt. Dass sich etwas verändert hat. Ein Wandel, der sich zunächst schwer konkretisieren oder in Worte fassen lässt, aber dennoch spürbar ist: So entwickelte sich ein nebulöses Empfinden, dass die Terabyte an Texten, Bildern, Videos und anderen Inhalten, die das immer unüberschaubarere digitale Ökosystem befüllen, auf seltsame Weise künstlich erscheinen. Dass sie fake und strange sind.
Der Ursprung dieses Gefühls lässt sich kaum auf ein konkretes Datum oder eine bestimmte Person zurückführen. Diskussionen, die dieses merkwürdige Empfinden aufzugreifen versuchen, lassen sich bis zu Einträgen auf Imageboards wie 4chan und Wizardchan, auf Community-Plattformen wie Reddit oder auch vereinzelten Tweets in den 2010er Jahren zurückverfolgen. Den ersten klar formulierten Ausdruck sowie eine prägnante Bezeichnung erhielt das Phänomen jedoch am 5. Januar 2021. An diesem Tag veröffentlichte ein Nutzer namens IlluminatiPirate auf dem nostalgisch geprägten Forum Agora Road’s Macintosh Café den Beitrag Dead Internet Theory: Most of the Internet is Fake. „Das Internet fühlt sich inhaltsleer und menschenleer an“, schreibt IlluminatiPirate. „Verglichen mit dem Internet von etwa 2007 – und darüber hinaus – ist das Internet von heute völlig steril.“
IlluminatiPirate beschreibt sich selbst als oldfag – ein Begriff aus der Internetkultur, der Personen bezeichnet, die schon lange Teil der digitalen Gemeinschaft sind. Jemand, der dabei war, als das Web 2.0 seinen Aufstieg begann, als die Rule 34 geboren wurde und Digg, del.icio.us und Technorati noch ein Ding waren. Laut der Beschreibung von IlluminatiPirate hätten er und andere irgendwann die Veränderung des Internets bemerkt und dann versucht, die Puzzleteile zusammenzusetzen, um herauszufinden, was da nun eigentlich los ist. Die Erklärung: „Ja, das Internet mag gigantisch erscheinen, aber es ist wie ein Luftballon, gefüllt mit heißer Luft“, konstatiert IlluminatiPirate. Wer heute im Netz unterwegs sei, begegne nur noch Varianten der gleichen Inhalte, die lediglich leicht verändert sind.
Selten tauche tatsächlich etwas Neues oder Originelles auf, und wenn doch, werde es durch Algorithmen schnell in den Mainstream katapultiert, nur um bald darauf Teil des repetitiven Grundrauschens zu werden. Seien es Memes wie Pepe, Hawk Tuah oder a Chill Dude, Diskussionen über Videospiele wie Concorde, die Schuhe von Ron DeSantis oder Internet-Phänomene wie Copypasta. Selbst viele Kommentatoren auf Plattformen wie X – ehemals Twitter–, Facebook, TikTok, Instagram oder Reddit seien künstlich und austauschbar, da sie stets Variationen bereits bekannter Aussagen lieferten. Die Ursache? Glaubt man der Dead Internet Theory, ist das Internet nichts weiter als ein digitaler Spiegeltrick – ein potemkinsches Dorf, eine Simulation, die primär von Künstlicher Intelligenz aufrechterhalten wird.
Die Sache mit dem Mond
Laut IlluminatiPirate und seinen Mitstreitern ist das heutige Internet keineswegs so lebendig, wie es auf den ersten Blick scheint. Vielmehr, so die Theorie, täusche die US-Regierung in Zusammenarbeit mit großen Tech-Unternehmen die gesamte Weltbevölkerung. Dieser großangelegte Betrug soll etwa um das Jahr 2016 begonnen haben – der Zeitpunkt, an dem das Internet starb. Ziel dieser Manipulation sei es, die Nutzer durch Propaganda zu indoktrinieren, sie in einer Art geistigem Dämmerzustand zu halten, zum Konsum unnötiger Produkte zu verleiten und letztlich von den wirklich relevanten Weltgeschehnissen abzulenken. Der Großteil der vermeintlichen Milliarden von Internetnutzern sei in Wahrheit nichts weiter als ein Heer von KI-gesteuerten Bots, die das Netz mit belanglosen Texten, Bildern und Videos überfluten.
Das echte Internet mit Internetnutzern, die eigene kreative Inhalte schaffen, ihre Erfahrungen und Erkenntnisse teilen, das gäbe es zwar noch irgendwie. Aber es sei deutlich kleiner und finde abseits der großen Plattformen statt. Eben in Foren, auf Blogs, in privaten Subreddits und Gruppen sowie in Nischen, die viele nicht wahrnehmen und gefunden werden wollen.
Die Technologie hinter der großangelegten Verschwörung? Laut den Theoretikern handelt es sich um ehemalige DARPA- und Militärprojekte wie LifeLog, die darauf abzielten, das Leben und die Erfahrungen und Beziehungen realer Personen zu protokolieren und simulieren. Hinzu kämen fortschrittliche Maschinenlernprogramme sowie verstörende Konzepte wie The Selfish Ledger von Google, das darauf basiere, Internetnutzer durch gezielte Verhaltenssteuerung – das sogenannte Nudging – zu manipulierbaren Marionetten zu machen. Ihre Steuerung erfolge durch die Analyse und Nutzung riesiger Mengen an persönlichen Daten, die von Nutzern selbst bereitwillig über soziale Netzwerke, smarte Geräte und digitale Konten geteilt werden.

Das ultimative Ziel des Dead Internet sei die Schaffung einer konsumorientierten Gesellschaft, die die (Internet-)Wirtschaft am Laufen hält, während sie sich selbst immer leichter kontrollierbar macht. Das Internet sei dadurch mittlerweile nichts weiter als eine nahezu menschenleere, jedoch hochfunktionale Manipulations- und Geldmaschine. Das ist der Kern der Dead Internet Theory, die
in den letzten Jahren so einiges an Verbreitung und zahlreiche Abwandlungen und Neuinterpretationen erfahren hat. Je nach Version stehen mal anstatt der US-Regierung die großen Tech-Konzerne, die Kommunistische Partei Chinas, Geheimgesellschaften wie die Illuminaten oder Freimaurer oder gar eine entflohene, hochentwickelte Künstliche Intelligenz hinter allem.
Die Dead Internet Theory ist dadurch eine gleichermaßen faszinierende wie absurde Verschwörungstheorie, vergleichbar mit Geschichten über Aliens in Area 51, das Bermudadreieck oder die flache Erde. Das gesamte Internet ein gigantischer Fake, kontrolliert von dunklen Mächten – welcher Art auch immer – … das hat schon etwas, aber ist natürlich ziemlicher Unfug. Aber, wie viele, die auf diese Theorie stießen, recht schnell feststellten, ist an der Dead Internet Theory doch irgendetwas dran. Nicht unbedingt, was die Hintermänner und ihre Weltherrschaftsmotive betrifft. Aber das unterschwellige Gefühl, dass das World Wide Web immer steriler und künstlicher wird, lässt sich kaum leugnen. Das Empfinden wird sogar von Beobachtungen und technologischen Entwicklungen gestützt, wie etwa die Atlantic-Autorin Kaitlyn Tiffany bereits 2021 anmerkte.
„Die Dead-Internet-Leute, irgendwie haben sie schon recht“, schrieb Tiffany in ihrem Artikel und wies als Beispiel auf die regelmäßig erscheinenden Beiträge über „ungewöhnliche Ereignisse im Zusammenhang mit dem Mond“ hin: den Blutmond, den Supermond, den Jägermond, den rosa Supermond. „Ich verstehe einfach nicht, warum alle so viel Wert darauflegen, dass ich mir ständig den Mond ansehe?“, bemerkte sie ironisch. Tatsächlich ist der mediale Hype um Mondphänomene ein Trend, der erst vor wenigen Jahren einsetzte und viele Artikel darüber nahezu identisch. Fast so, als wären sie eher generiert statt geschrieben worden.
Andere Internetnutzer, Journalisten und IT-Experten haben seither eine Fülle weiterer (teils anekdotischer) Beispiele zusammengetragen, die den Tod des „menschlichen Internets“ nahelegen. Darunter...
Der überprüfbare Fakt, dass nur Sekundenbruchteile nach der Veröffentlichung eines YouTube-Videos bereits die ersten, oft überraschend allgemeingehaltenen Kommentare darunter erscheinen.
Der bizarre Umstand, dass sich unzählige Twitter-Nutzer über den Klang der kasachischen Sprache in einem Video lustig machen, das ironischerweise gar keinen Ton hat.
Studien, die bereits 2017 zeigten, dass mehr als 50 Prozent des Datenverkehrs im Internet auf Bot-Aktivitäten zurückzuführen war – ein Wert, der laut einem Bericht von Arkose Labs bis 2023 auf ganze 73 Prozent angestiegen ist.
Die Befürchtung von Entwicklern großer Plattformen wie YouTube und Reddit, dass der durch Bots generierte Datenverkehr eines Tages so überwältigend werden könnte, dass die internen Systeme beginnen, die Bots für authentische Nutzer und die authentischen Nutzer für Bots zu halten.
Die wachsende Macht von Algorithmen, die nicht nur Nutzern Präferenzen und Abneigungen entlocken, sondern diese in Echokammern treiben, um ihr Verhalten gezielt in eine bestimmte Richtung zu lenken.
Die Erkenntnis von Google in einem Bericht aus dem Jahr 2022, wonach viele Websites zunehmend so gestaltet sind, als wären sie für Suchmaschinen und nicht mehr für echte Menschen gestaltet worden.
Aber bedeutet all das, dass die Dead Internet Theory zutrifft? Nein. Was diese Beobachtungen jedoch verdeutlichen, ist die entfremdende Wirkung, die Automatisierungssysteme und die zunehmende Plattformisierung des Internets auf die Nutzer haben. Dieser Einfluss von Bots, Algorithmen und maschinell optimierten Inhalten lässt bereits ein Internet erahnen, das mehr und mehr die Handschrift von Technologie anstelle menschlicher Kreativität trägt.
Die KI-Flut ertränkt das Internet
Die Behauptung, das Internet sei 2016 „gestorben“, ist offensichtlich übertrieben. Dennoch zeigt sich unbestreitbar, dass die Zahl künstlich generierter Inhalte und automatisierter Präsentationen seit Jahren kontinuierlich wächst. Insbesondere seit dem Jahr 2022, als KI-Tools wie Midjourney, Stable Diffusion und DALL-E geboren wurden und mit dem Start von ChatGPT ein neuer Hype um Künstliche Intelligenz entfacht wurde. Zum ersten Mal wurde es mit diesen Werkzeugen für normale Menschen möglich, einfach und schnell riesige Mengen an Text und Bildern in kurzer Zeit zu erstellen. Damit könnte die Dead Internet Theory tatsächlich in gewisser Weise wahr werden, auch wenn die Verschwörungstheoretiker das Todesdatum zu früh angesetzt haben.
Auf Plattformen wie Reddit, X oder LinkedIn finden sich zunehmend Beiträge, die mal nachweislich, mal gefühlt von Chatbots stammen. Von Gruselgeschichten über Nachrichtenzusammenfassungen bis hin zu absurden Learnings darüber, wie man persönliche Erfahrung auf das Berufsleben als Marketingmanager übertragen kann. Solche Texte entstehen oft mit nichts weiter als einem einfachen Prompt. Besonders Foren für angehende Autoren und Fanfiction-Enthusiasten haben daher inzwischen explizite Verbote für KI-generierte Inhalte ausgesprochen, nachdem sie von diesen regelrecht überschwemmt wurden.
Doch es sind nicht nur soziale Medien und große Plattformen, die von KI-Inhalten geprägt sind. Auch in redaktionellen Medien werden Inhalte zunehmend „mithilfe maschineller Unterstützung“ erstellt oder übersetzt. Besonders in Bereichen, in denen schnelle und kostengünstige Klicks das Ziel sind, hat sich diese Praxis etabliert. Ende 2023 sorgte das einst angesehene Magazin Sports Illustrated für einen Skandal: Hinter mehreren angeblichen Journalisten – mitsamt Namen und Portraits – verbarg sich in Wahrheit ein Marketingunternehmen namens AdVon Commerce, das Produkttests zu Sportartikeln einfach von KI-Chatbots erstellen ließ. Ähnliches passierte beim renommierten Tech-Magazin CNET. Und auch in Deutschland sind solche Fälle bekannt – und oft genug führen sie zu gravierenden Fehlern, die Leser fehlinformieren und das fragile Vertrauen in die Medien untergraben.
Slop? Slop!
Neben Texten sind es auch KI-generierte Bilder, die das Internet überfluten – und wir übrigens auch selbst immer wieder mal in Artikeln verwenden. Laut einer Studie von Copyleaks aus dem März 2024 entstehen täglich 34 Millionen davon. Sie finden ihren Weg in Foren, soziale Netzwerke und in die redaktionellen Inhalte von Magazinen und Zeitungen. In den USA sind bereits 71 Prozent aller geteilten Bilder KI-generiert – eine beeindruckende, aber auch alarmierende Zahl. Denn selbst die großen Tech-Konzerne haben Mühe, dieser Menge Herr zu werden. Sucht man beispielsweise nach Bildern von Prominenten, stößt man immer häufiger auf überzeugende oder auch absurde KI-Fakes. Zeitweise war sogar das erste Bild, das bei einer Suche nach William Shakespeare angezeigt wurde, ein von einer KI generiertes Porträt.
Auf TikTok und Instagram finden sich zunehmend Kanäle wie Storytimez_de oder dailyfaithtv, die illustriert mit KI-Bildern fragwürdige oder völlig falsche Geschichten verbreiten. Diese reichen von angeblichen Entdeckungen wie der Arche Noah über Verschwörungstheorien zu Echsenmenschen, die die Welt kontrollieren, bis hin zu Behauptungen, der in Wahrheit verstorbene Joe Biden sei durch einen Doppelgänger ersetzt worden. Die zugehörigen Bilder sind oft schnell als KI-Fakes zu entlarven – aber eben nicht immer. Auch die begleitenden Skripte, die Sprachsynthese und die automatisierten Schnitte dieser Videos scheinen oft gänzlich maschinell erstellt zu sein.
Insbesondere Facebook scheint unter der Masse billiger KI-Bilder geradezu zu ersticken. Hunderte von Seiten mit Namen wie Dream Home, Super Funny Bunny, Log Cabin Living oder Love Shares 3.0 teilen mit Tools wie DALL-E 3, Stable Diffusion oder Flux erstellte Inhalte. Diese Bilder – mittlerweile gerne als AI Slop bezeichnet – reichen von albern bis grotesk: afrikanische Kinder, die aus Plastikflaschen Autos und Kernreaktoren bauen, Flugbegleiter, die Haustiere aus einem brennenden Flugzeug retten, monströs überladene Berghütten mit Pools, verstümmelte Soldaten, die einsam ihren Geburtstag feiern, oder gar Jesus mit einem Körper aus Garnelen.
„Diese Bilder wurden insgesamt Hunderte von Millionen Mal aufgerufen“, stellten Forscher des Stanford Internet Observatory fest, die 2023 über 100 solcher Facebook-Seiten analysierten. „Ein Beitrag mit einem KI-generierten Bild gehörte zu den 20 meistgesehenen Inhalten auf Facebook im dritten Quartal 2023.“ Oft werden diese Inhalte von Einzelpersonen oder kleinen Teams automatisiert generiert, mit dem Ziel, emotionale Reaktionen hervorzurufen und durch Facebooks Creator-Bonus-Programm Geld zu verdienen. Gleichzeitig locken sie Nutzer über Links in den Beiträgen oder Kommentaren auf Spam- oder Betrugsseiten.
Viele dieser Facebook-Seiten wurden entweder mit bereits vorhandenen Abonnenten gekauft oder durch Hacks übernommen. Insbesondere ältere Nutzer sind sich des artifiziellen Charakters der dort veröffentlichten Bilder nicht bewusst. Die hohen Interaktionsraten sorgen zudem dafür, dass der Algorithmus von Facebook diese Inhalte mit Nachdruck verbreitet. In einem Selbstexperiment erlebte der IT-Experte Conspirador Norteño, dass er bei einem vollkommen frisch angelegten Facebook-Konto unmittelbar 22 Prozent „AI generated dreck“ vorgesetzt bekam.
Der Umgang mit dem Phänomen des AI Slop ist selbst für Facebook nicht einfach. Denn die Bilder verstoßen grundsätzlich nicht gegen die Richtlinien des sozialen Netzwerks, solange sie nicht explizit für Spam-Aktionen eingesetzt werden. Hinzu kommt, dass seit den Massenentlassungen von 2023 die Moderationsteams des Unternehmens stark reduziert wurden, was es erschwert, Beschwerden über diese Inhalte nachzugehen. Und... die Massen an KI-Bildern liefern eigentlich genau das, was Meta will: Aufmerksamkeit und Engagement, die sich an Werbetreibende verkaufen lassen.
Gleichzeitig zeichnet sich derzeit eine bemerkenswerte Entwicklung ab: Die menschlichen Nutzer werden für die KI-Müllproduzenten nach und nach irrelevant. Views und Likes von Bots, die für Facebook zunehmend schwerer zu erkennen sind, zählen genauso wie jener menschliche Nutzer. Daher verbünden sich die KI-Slop-Produzenten mit Betreiber von automatisierten Klickfarmen. So werden die bizarren Bilder zunehmend zu KI-Inhalten, die vor allem für andere KIs geschaffen werden – ein geschlossener Kreislauf, der Tech-Unternehmen und Werbekunden um ihr Geld bringt.
Wenn die Politik faked
Die Verbreitung schnell erzeugter KI-Bilder wurde besonders während des letzten US-Präsidentschaftswahlkampfs befeuert. Insbesondere Anhänger des wieder ins Amt getretenen US-Präsidenten Donald Trump nutzten KI-Bildgeneratoren, um ihren Kandidaten in imperialen Posen oder heroischen Szenarien zu inszenieren. Neben Facebook fanden sich diese Bilder auch auf Plattformen wie X, Reddit, Truth Social, Mastodon und vielen weiteren. Für großes Aufsehen sorgte beispielsweise ein Bild, das Trump durch die Fluten nach einem Hurricane in Florida stampfend zeigte. Ein weiteres zeigte ihn, wie er zwei Kätzchen vor haitianischen Immigranten rettet – eine Anspielung auf eine rassistische Verschwörungstheorie, der zufolge Haitianer die Haustiere von US-Amerikanern essen würden.
Auch die Eskalation des Nahostkonflikts infolge des Angriffs der Terrorgruppe Hamas auf Israel führte zu einem Anstieg der Verbreitung von KI-Bildern, die gezielt für Propaganda genutzt wurden. Dabei wurden etwa Bilder generiert, die palästinensische Kinder in matschgetränkten Zelten oder in verwüsteten Städten zeigten. Viele dieser Bilder waren zwar leicht als KI-Fakes zu entlarven. Dennoch wurden einige Tausende Male betrachtet. Laut Experten für Desinformation wurden diese Inhalte gezielt von Hamas-nahen Gruppen fabriziert, um Unmut gegen die israelische Armee zu schüren und Spenden zu generieren, die oft weniger der palästinensischen Bevölkerung als vielmehr der Hamas zugutekamen.
Allein diese beiden Ereignisse führten dazu, dass über Monate hinweg abertausende KI-generierte Bilder auf verschiedensten Plattformen allgegenwärtig wurden. Manchen Bildern konnte man kaum entkommen. Häufig wurden sie sogar als Slideshows zusammengefasst, animiert und mit emotional aufgeladenen Texten oder Sprachmitteilungen hinterlegt – vor allem für die Veröffentlichung auf TikTok und Instagram. Weiterverbreitet wurden sie dann auch von Konten mit kryptischen Namen und generischen Profilbildern, die keiner realen Person zuzuordnen waren. Mutmaßlich also Bots, die Stimmung machen sollten.
AI-Influencer
Parallel zur wachsenden Masse an KI-generierten Bildern und Texten entwickelt sich eine noch relativ nischige, aber wachsende Ökonomie von KI-Influencern. Dabei handelt es sich um vollständig mit Künstlicher Intelligenz erstellte fiktive Personen, wie etwa die hyperrealistische Fitness-Influencerin fit_aitana, die von der Agentur theclueless.ai erschaffen wurde. Sie hat mittlerweile über 300.000 Follower, die ihre virtuellen Reisen durch Ägypten, Paris und die Strände von Rio begeistert verfolgen und mit Kommentaren wie „Siehst mal wieder heiß aus!!!“ reagieren. Die stetig wachsende Popularität solcher KI-Influencer zieht Partnerschaften mit namhaften Modemarken und Automobilherstellern nach sich.
Auch auf Plattformen für erotische Inhalte, wie OnlyFans oder Fanvue, tauchen immer mehr rein KI-generierte Modelle auf. Diese können von ihren Schöpfern nackt oder leicht bekleidet in aufreizenden Posen oder sogar simulierten sexuellen Handlungen dargestellt werden. Gleichzeitig lizenzieren reale Erotikdarstellerinnen und Models wie Chloe Amour oder Riley Reid ihre „likeness“ an KI-Start-ups, die diese für die Produktion virtueller Inhalte nutzen. Über Plattformen wie Clona.ai oder FlirtFlow wird es Nutzern sogar ermöglicht, mit den vollständig fiktiven oder KI-replizierten Erotikstars zu chatten.
Doch das ist bei weitem nicht alles. Die Vielfalt und Qualität KI-generierter Inhalte nimmt rapide zu, und es entstehen immer neue Möglichkeiten, die generierten Inhalte dynamischer, raffinierter und überzeugender zu gestalten. Vor allem durch die Entwicklung moderner KI-Video-Modelle wie Sora, Kling, Hailuo, Haiper oder DreamMachine wächst die Zahl KI-generierter Videos auf allen möglichen Plattformen. Während viele dieser Videos noch scherzhaft und albern wirken – oft aufgrund absurder Fehler, die für Lacher sorgen – gibt es auch beeindruckend gut produzierte Kurzfilme und Trailer, die beispielsweise fiktive Kinofilme ankündigen oder in wenigen Minuten kleine Geschichten erzählen.
Die Fortschritte in der KI-Technologie ermöglichen es auch, KI-Influencer zu animieren. Diese treten dadurch längst nicht mehr nur in statischen Bildern auf, sondern bewegen sich in Videos, posieren, treiben Sport oder tanzen – vor allem auf Plattformen wie Instagram, TikTok oder YouTube Shorts. Mithilfe von KI-Sprachsynthesediensten wie Eleven Labs können die KI-Personen sogar sprechen, Werbebotschaften verbreiten und zur Interaktion auffordern, etwa durch Likes und Abonnements.
Auch KI-generierte Audioaufzeichnungen erleben derzeit einen Aufschwung. Dank synthetischer Stimmen, die mittlerweile äußerst überzeugend klingen, finden sich auf YouTube und anderen Plattformen immer mehr virtuelle Podcasts. Diese werden oft mit Tools wie Googles Notebook LM, der offenen Alternative Open NotebookLM, oder Diensten wie Wondercraft AI Podcast Creator und ElevenLabs GenCraft erstellt. Basierend auf hochgeladenen Dokumenten, Texten oder kurzen Themenvorgaben können diese Programme innerhalb von Sekunden mehrminütige Gespräche zwischen virtuellen Personen generieren – mit Debatten, die glaubwürdig erscheinen, jedoch vollständig maschinell erstellt sind.
Ertrinkt das Interet?
Der aktuelle Trend hin zu immer mehr künstlich generierten statt von Menschen erdachten und gemachten Inhalten erscheint vielen Internetnutzern wie der Vorbote einer düsteren Zukunft: Das einst so von kreativem Chaos und menschlicher Absurdität geprägte World Wide Web drohe sich in eine vollautomatisierte Ödnis zu verwandeln, deren Hauptzweck darin besteht, emotionale Impulse auszulösen, Bedürfnisse schnell zu befriedigen und die Aufmerksamkeit der Nutzer zu vermarkten. Unterstrichen wird dieser Angst durch die Pläne der großen Internetkonzerne und Innovatoren aus dem Silicon Valley. Sie planen nicht weniger, sondern mehr Künstliche Intelligenz.
Im Dezember 2024 kündigte Meta an, sein mittlerweile über zwei Jahrzehnte altes soziales Netzwerk Facebook mit KI-gestützten Charakteren zu bereichern. Diese sollen von Nutzern in Metas AI Studio erstellt werden, einer Plattform, die bereits heute den Bau von Chatbots ermöglicht, die bereits auf Instagram und Co. beworben werden. Prominente und Influencer sollen KI-gestützte Versionen ihrer selbst erschaffen können, die mit echten Nutzern chatten und interagieren. „Die KI-Charaktere werden Biografien und Profilbilder haben und in der Lage sein, Inhalte zu generieren und zu teilen“, erklärte Facebook-Manager AI Connor Hayes dazu. „So stellen wir uns die Zukunft vor.“ Diese Charaktere sollen sich so verhalten, als wären sie echte Nutzer.
Ein Eindruck davon, wie ein solches KI-dominiertes Facebook oder ein durch Künstliche Intelligenzen geprägtes Internet aussehen könnte, lässt sich bereits heute anhand der Social-Media-App SocialAI gewinnen. Auf der Plattform von Michael Sayman interagiert der Nutzer in einer bewusst erzeugten Filterblase: Jeder andere „Nutzer“ ist ein Bot. Die Bots lassen sich so konfigurieren, dass sie sich wie Fans, Unterstützer, Scherzbolde, Kritiker oder Trolle verhalten. Wer Zuspruch sucht, bekommt ihn. Wer eine harsche Kritik oder ein humorvolles Roasting erleben möchte, kann das ebenfalls einstellen. Während der Interaktionen lernen die Bots die Vorlieben des Nutzers kennen – was er hören möchte und was nicht – und passen ihr Verhalten entsprechend an. Was anfangs unterhaltsam erscheint, wird jedoch schnell monoton und hohl, da jegliche Natürlichkeit, Unvorhersehbarkeit und Menschlichkeit fehlt.
Schätzungen zufolge könnten bereits zwischen 2025 und 2026 über 90 Prozent der Inhalte im Internet von KI-Modellen generiert sein – sei es in Form von Texten, Bildern, Videos, 3D-Modellen oder anderen Medien. Die Folgen eines solchen Wandels wären weitreichend. Das Internet würde nicht nur künstlicher und entmenschlichter wirken, sondern auch zunehmend unüberschaubar und weniger vertrauenswürdig. Experten aus den Bereichen Medien, KI und Gesellschaft warnen, dass es schwieriger würde, das Internet mithilfe von Suchmaschinen zu erschließen und zuverlässige Informationen zu finden. Allein aufgrund der schieren Masse an Inhalten wären Informationen wahrscheinlich häufiger falsch als wahr.
Das Internet wäre nicht mehr der Spiegel menschlicher Kreativität, Kunst und Kultur, sondern eine zunehmend sterile, von Algorithmen und KI-Systemen dominierte Simulation. Eine aus der es, anders als in The Matrix, wohl keinen Ausweg gibt. Auch der Kampf gegen die Künstliche Intelligenz wäre wohl kein Mittel. Denn nicht die Künstliche Intelligenz an sich ist das Problem. Sie kann schließlich auch genutzt werden, um menschliche Kreativität und Schaffenskraft zu beflügeln – und das tut sie auch. Ein Patentrezept gegen die drohende Künstlichkeit gibt es daher nicht. Aber es kann nicht schaden, menschliche Kreative, Autoren und Schöpfer in ihrer Arbeit zu unterstützen. Denn je mehr von ihnen es gibt, umso besser für ein lebendiges Internet.

Michael Förtsch
Leitender Redakteur
Weiter bei 1E9...

Überschrift 3
Cooler Artikel!

Überschrift 3
Artikel

Überschrift 3
Cooler Artikel!

Überschrift 3
Cooler Artikel!