top of page

18. September 2025

Really Simple Licensing: Sorgt dieser Standard dafür, dass KI-Firmen endlich für Inhalte zahlen


Ruiniert KI endgültig das Geschäft von Verlagen, Autoren, Blogs und Newslettern? Für Nutzer wird es bequem, sich Fragen direkt von KI-Chatbots und -Suchmaschinen beantworten zu lassen, die – meist unbezahlt – auf Inhalte aus dem Netz zugreifen. Auf die ursprünglichen Quellen wird weniger geklickt, was weniger verkaufte Abos und Werbeerlöse bedeutet. Mit dem Really Simple Licensing-Standard wird nun eine vielversprechende technische Lösung für das Problem vorgeschlagen.

 

Von Michael Förtsch

 

Es ist einer der größten Vorwürfe, der den Unternehmen hinter Künstlicher Intelligenz gemacht wird: Sie sollen ihre KI-Chatbots und Suchmaschinen wie ChatGPT, Claude, Gemini, DeepSeek oder Perplexity mit Inhalten trainiert haben, für die sie entweder gar nicht oder nur über Partnerschaften mit ausgewählten, vor allem großen Medienfirmen zahlen. Auch wenn die KI-Bots für Suchen, Zusammenfassungen und Recherchen auf Websites zugreifen, sehen und klicken sie keine Werbeanzeigen. Abos schließen sie auch nicht ab. Doch durch die Antworten, die KI direkt liefert, wird im Zweifelsfall verhindert, dass Nutzer die herangezogenen Quellen selbst besuchen. Das ist ein Problem für große Medienhäuser, kleine Verlage, Blogs und Newsletter – sprich: für alle, die selbst Inhalte erstellen. Denn ihre Arbeit lohnt sich dadurch weniger oder wird sogar unwirtschaftlich. Und das, obwohl ihre Inhalte womöglich tausendfach genutzt und verarbeitet werden und Firmen wie OpenAI, Anthropic, Google und Co. daran verdienen. Weswegen bereits Klagen und Unterlassungserklärungen angestrengt wurden. Jetzt könnte sich jedoch eine für alle Seiten akzeptable Lösung abzeichnen.


Really Simple Licensing nennt sich die Idee, die ein kleines Team um Eckart Walther erdacht hat. Walther ist kein Unbekannter, sondern einer der Schöpfer von Rich Site Summary beziehungsweise Really Simple Syndication. Die besser als RSS bekannte Technologie erlaubt es, über eine einfache Adresse den Inhalteverlauf einer Website oder eines Dienstes zu abonnieren. Beim Erscheinen neuer Inhalte werden diese automatisch aktualisiert. Von Feed Readern über Podcast-Apps bis hin zu Nachrichten-Aggregatoren setzen zahlreiche Anwendungen auf den Ende der 2000er Jahre bekannt gewordenen Standard. RSL „baut direkt auf dem Erbe von RSS auf“, heißt es in einer Ankündigung der Gruppe RSL Collective, der unter anderem bereits Yahoo, die Verlage O’Reilly Media und Ziff Davis und die Erklärplattform WikiHow angehören.


Der RSL Standard ist als offene und kollaborative Software-Initiative gestaltet und „für jede Website kostenlos nutzbar“, wie die Entwickler unterstreichen. Konzeptionell baut der Standard auf der seit 30 Jahren etablierten robots.txt auf. Die kleine Textdatei wird von Entwicklern auf Servern hinterlassen, um Suchmaschinen-Crawlern vorzugeben, welche Teile einer Website sie indexieren dürfen und welche nicht. Außerdem können einzelne Crawler abgewiesen und andere zugelassen werden. RSL soll den Zweck und Nutzen von robots.txt erweitern.


Suchmaschinenbetreiber sind technisch zwar nicht dazu verpflichtet, sich an die darin formulierten Vorgaben zu halten. Die allermeisten tun das, da es sich im Internet als Best Practice etabliert hat. Es gibt jedoch immer wieder Fälle, in denen Unternehmen die Hinweise in der Textdatei ignorieren oder ihre Crawler tarnen, um Inhalte von Websites zu stehlen.


Du kommst hier nicht rein!

 

Das Team von RSL verfolgt einen Ansatz, bei dem die robots.txt zu einer Art digitalem Grenzkontrolleur aufgewertet wird. Anstatt Bots nur abzuweisen oder durchzulassen, können über einen Verweis in der Textdatei auf einem Lizenzvertrag granulare Vorgaben festgelegt werden, wer unter welchen Bedingungen Zugang erhält und wer nicht. Auch kann festgelegt werden, welche Inhalte auf der Website auf welche Weise verwendet werden dürfen. Um dies zu überprüfen, müssen sich die Crawler technisch ausweisen und einen gültigen Token vorzeigen. Laut Walther gibt RSL den Betreibern dadurch eine deutlich „größere Kontrolle über ihre Inhalte“ und schafft „maschinenlesbare Lizenzvereinbarungen für das Internet“, die angesichts der aktuellen technischen und wirtschaftlichen Entwicklungen dringend benötigt werden.


Bei einer solchen Lizenz kann es sich um eine Übereinkunft handeln, dass ein Crawler die Inhalte einer Website frei und uneingeschränkt nutzen darf. Es können aber auch strengere Vorgaben gemacht werden. Beispielsweise kann festgelegt werden, dass die eigenen Inhalte nur für bestimmte Zwecke abgerufen und eingesetzt werden dürfen – etwa für die Generierung von KI-Übersichten, jedoch nicht für das Training von KIs. Wenn die Inhalte für KI-Trainings grundsätzlich freigegeben werden, kann dies auf bestimmte Anbieter eingegrenzt werden. Beispielsweise kann festgelegt werden, dass dies nur für nicht-kommerzielle Open-Source-Modelle gestattet ist und der Urheber klar benannt werden muss. Eine solche Lizenz kann aber auch die Vorgabe enthalten, dass nur Crawler auf die Inhalte zugreifen dürfen, deren Betreiber dafür zahlen. Dies kann in Form einer Einmalzahlung, eines monatlichen Abonnements oder einer Gebühr für jeden Zugriff des Crawlers auf den Server erfolgen.


Die Lizenzen sind nur wenige Textzeilen lang, wodurch sie praktisch in Echtzeit beim Zugriff eines Crawlers auf die Website abgeglichen werden. Sie können über dafür eingerichtet Server verwaltet und abgeschlossen werden. Auf diesen wird dann auch regelmäßig geprüft, ob eine Lizenz noch aktuell ist, indem sie beispielsweise mit Buchhaltungsdaten abgeglichen wird. Zahlt ein KI-Unternehmen regelmäßig einen Betrag, um auf die aktuellen Inhalte einer Nachrichtenwebsite zuzugreifen, wird die Lizenz mit jedem bestätigten Zahlungseingang erneuert. Trifft am Ende des Monats für den Folgemonat keine Zahlung ein, wird die Lizenz hingegen automatisch deaktiviert und der entsprechende Crawler vom RSL-Kontrolleur abgewiesen.


Einen Haken hat die Sache allerdings: Wie die RSL-Entwickler erklären, kann RSL selbst keine Bots oder Crawler davon abhalten, die Inhalte nicht entgegen den Vorgaben in der robots.txt-Datei zu sammeln, wenn die KI-Firmen das so wollen. Dafür ist neben RSL als Kontrolleur noch ein digitaler Türsteher nötig, der entsprechend reagiert, wenn eine Lizenz abgelaufen ist. Dies können Verlage entweder über eigene Serversoftware oder durch die Einbindung von Dienstleistern wie Content Delivery Networks regeln. Das RSL Collective selbst will dies für seine Mitglieder über eine Kooperation mit Fastly umsetzen.


Ein Bollwerk gegen Datendiebstahl?

 

Really Simple Licensing ist nicht der einzige Versuch, das Crawling durch KI- und Tech-Unternehmen für Inhalte-Ersteller zu moderieren und monetarisieren – also für Medienunternehmen, einzelne Blogger oder Künstler. So arbeitet das Internetunternehmen Cloudflare an einem digitalen Marktplatz, auf dem Inhalte zum Verkauf bereitgestellt werden können. Wie Eckart Walther sagt, sind all diese Anstrengungen komplementäre Versuche, eine sehr komplexe Herausforderung zu lösen. RSL und die Cloudflare-Plattform hätten dadurch ihre Berechtigung und könnten sich sogar ergänzen. Tatsächlich werden beide Initiativen auch von den gleichen Plattformen und Verlagen unterstützt.


Die RSL-Entwickler wollen jedoch noch mehr. Parallel zum freien Standard baut das Team mit dem RSL Collective auch eine Rechtevertretung auf. Das Konzept ähnelt dem der VG Wort für Journalisten und Autoren, der GEMA für Musiker und Plattenlabes oder der SAG-AFTRA für Schauspieler in den USA. Verlage, Medienunternehmen, Autoren und andere Kreative sollen sich dem RSL Collective kostenfrei anschließen können, das die RSL-Server bereitstellt und im Namen seiner Mitglieder mit KI- und Tech-Unternehmen über Konditionen verhandelt.


Das Ziel sei es, für die eigenen Mitglieder allgemein gültige Regeln für den Umgang mit Inhalten und faire Vergütungen zu sichern. Letztere sollen vom RSL Collective gebündelt eingesammelt und an die Mitglieder ausgezahlt werden. Ebenso sollen eventuelle Rechtsstreitigkeiten gemeinsam ausgefochten werden.


Neben den bereits bestätigten Mitgliedern haben auch die Plattformen Reddit, Medium und Quora sowie die Verlage People Inc., The MIT Press und Ziff Davis ihre Unterstützung für das RSL Collective und den Standard erklärt. Dadurch besteht die Chance, dass sich die Machtverhältnisse tatsächlich verschieben und auch kleinere Verlage sowie freie Inhalte-Ersteller gegenüber den KI-Unternehmen bessere Chancen erhalten, eigene Forderungen und Rechte durchzusetzen. Bislang sind OpenAI, Anthropic, Google und Co. nämlich nur mit großen Medienunternehmen wie der New York Times, dem Springer Verlag oder Nachrichtenagenturen wie Reuters und AP zu finanziellen Einigungen und Kooperationen gelangt.

Michael Förtsch

Michael Förtsch

Leitender Redakteur

554

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare (1)

marcovonschmidt
26. Sept. 2025

Meine Prognose. Das wird ein Verwaltungsmonster, bei dem die Gebühren den kleinen Anbietern mehr Kosten verursachen als Einnahmen, denn letztere gehen wieder hauptsächlich an die Großen. Eine KI ist im Prinzip auch nur eine Suchmaschine, die die Inhalte dann kuratiert. Besuchen weniger Leute die Quellen, natürlich. Werden Quellen angezeigt, die man sonst nie gefunden oder besucht hätte? Auch das findet statt und sollte nicht außer acht gelassen werden. Man sollte es auch als Chance sehen. Die KI wird bald so weit sein, dass sie für vieles gar nicht mehr auf Quellen zurückgreifen muss oder eben die noch frei zugänglichen ausreichen. Was ist wenn eine KI auf den Bahamas das Netz ohne Rücksicht auf Verluste scannt und auswertet und dann mit eine KI aus der EU redet und diese von der Bahamas KI lernt. Dann hat die EU KI keine Daten illegal abgerufen.

Wer will das am Ende kontrollieren? Wer findet rechtskräftig heraus, ob eine KI die Informationen gesucht und verarbeitet hat, oder ein Mensch diese gesammelt und per KI verarbeitet hat? Daten auf Webseiten können auch ohne KI ausgelesen werden. Die KI ist gekommen und wird bleiben. Jetzt eine rückwärts gewandte Maßnahme zu ergreifen wird nicht funktionieren und maximal dazu führen, dass die Länder die sich dann in dem Rechtsraum befinden in dem dieses Bürokratiemonster Anwendung findet, einfach schlechtere KI's anbieten können, als andere. Denn China, Indien usw. werden sich sicher nicht daran halten. Die USA inoffiziell sicher auch nicht. Wer kann das schon überprüfen. Und sollte doch mal Schadensersatz fällig werden, dann wird das aus der Portokasse bezahlt. Mehrgewinn 100 Mrd., Strafe 1 Mrd. in diesem Verhältnis wird es doch am Ende wieder ausfallen. Für mich hört es sich an, als wenn jetzt die Mönche (Content Ersteller) den Buchdruck (KI) verhindern wollen. Wie das geendet ist, wissen wir alle. Der Fortschritt setzt sich durch. Weniger verhindern, mehr ermöglichen, sollte unser Motto sein.

Bearbeitet
1

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

f590d13b-57a7-42cd-bf9c-35da4f914922

68cbd48ab71c8fd10d91f80a

bottom of page