top of page

18. März 2023

Forscher haben eine Tarnkappe gegen KI-Bild-Generatoren entwickelt


Ein Team der University of Chicago will es Entwicklern und Nutzern von KI-Bild-Generatoren schwerer machen, fremde Bilder und deren Stile für das Training von Modellen zu nutzen. Mit einer freien Software können die Bilder dafür mit dem Stil anderer Künstler getarnt werden. Allerdings wurde die Methode bereits ausgehebelt.


Von Michael Förtsch


Mit Text-zu-Bild-Generatoren wie Midjourney, DALL-E 2 und Stable Diffusion können Nutzer beeindruckende Bilder erschaffen. Binnen weniger Monate hat sich die Technologie rasant entwickelt und ermöglicht mittlerweile sogar fotorealistische Aufnahmen, die kaum noch von echten Lichtbildern zu unterscheiden sind. Aber viele nutzen die KI-Werkzeuge auch, um Motive in Zeichen- und Malstilen bekannter Kreativer zu generieren und zu teilen. Das ist nicht ohne Probleme und Kritik. Denn die hinter den Tools stehenden Modelle wurden vielfach mit Bildern von Künstlern oder auch Fotoagenturen wie Getty trainiert, die nicht um Erlaubnis oder Einwilligung gefragt wurden. Das hat bereits zu Klagen gegen die Entwicklerunternehmen geführt. Ebenso tunen Nutzer offene Modelle wie Stable Diffusion mit zusätzlichen Bildern und dadurch auch Stilen.


Ein Team von Forschern des SAND Lab der University of Chicago will verhindern, dass derartiges in Zukunft weiterhin so einfach möglich ist. Die Firmen hinter den KI-Kunst-Generatoren würden von der Ausbildung, dem Talent und der Kreativität der Künstler profitieren, ohne sie zu entschädigen und zu benennen, so die Forscher. Mit dem Glaze Project haben die Entwickler daher eine Art digitalen Tarnanzug für digitale Bilder konzipiert, der zwar nicht das Kopieren der Dateien verhindert, aber dass Maschinenlern-Modelle die einzigartigen Stile der betreffenden Künstler adaptieren und emulieren. Dadurch würden sie als Trainingsmaterial für ein sogenanntes style mimicry unbrauchbar.


Wie die Forscher in einer Studie ausführen, nimmt das bereits für Windows und MacOS verfügbare Glaze-Programm an einem Kunstwerk „sehr kleine Änderungen“ vor. Die seien für einen Menschen nur beim genauen Hinsehen erkennbar, aber würden die Maschinenlern-Programme in die Irre führen. Denn diese Manipulationen seien nicht willkürlich, sondern würden die einzigartigen Muster des Werks auflösen und denen eines ähnlichen, aber bereits bekannten Stils angleichen – wie dem von Rembrandt, Monet oder Van Gogh. Hierfür nutzen die Forscher eine abgewandelte Methode des sogenannten Style Transfer, mit dem etwa Fotos in Fake-Gemälde im Stil bekannter Künstler konvertiert werden. Wird eine KI mit den getarnten Bildern trainiert, lernt sie also einen anderen Stil als gewünscht.


Tarnkappe kann bereits umgangen werden


Dass die Methode grundsätzlich funktioniert, das haben die Entwickler des SAND Lab in Kooperation mit mehreren Künstlern erprobt. Beispielsweise mit einem Musa Victoriosa genannten Gemälde von Karla Ortiz. Würde jemand das manipulierte Bild nutzen, um den Stil der Künstlerin in ein KI-Modell zu trainieren, würde das KI-System nicht Ortiz’ Stil erkennen, sondern „zum Beispiel den von Vincent van Gogh“, so die Forscher. Entsprechend würde jemand, der anschließend „Kunstwerke im Stil von Karla Ortiz“ damit erzeugen will, stattdessen Bilder in der Optik von Van Gogh oder einen Mischmasch aus beiden Stilen erhalten.


Laut den Entwicklern sei Glaze in Anbetracht der rasanten Entwicklung der Technologie „keine dauerhafte Lösung“, aber könne den Künstlern dennoch einen gewissen Schutz und Vorsprung bringen. „Diese transformative Technologie ist der erste von vielen Schritten, die uns dabei helfen, unsere Handlungsfähigkeit im Internet zurückzuerlangen“, so die Künstlerin Karla Ortiz dazu.


Die Reaktionen auf Glaze sind aber durchaus gespalten. Einige Künstler kritisieren, dass die Tarnkappe bei ihren Bildern stark erkennbar ist; sie etwa wabernde Muster auf Farbflächen erzeugt oder Farben und Details verzerrt. Außerdem haben Mitglieder der Initiative Spawning, die Künstler im Umgang mit und der Nutzung von KI-Werkzeugen unterstützen will, Glaze erprobt und festgestellt, dass die Tarnkappe nicht zuverlässig funktioniert und sich leicht entfernen lässt.


Laut Jordan Meyer von Spawning habe das Team die Software mit Kunstwerken von Salvador Dali erprobt. Dessen sehr eigener Stil hätte trotz Entfremdung als neuer Stil in ein KI-Modell trainiert werden können. Außerdem habe das Team sehr schnell eine einfache Methode gefunden, um getarnte Kunstwerke von den Verschleierungen zu trennen. „Wir begrüßen die Motivation und Bemühungen, die hinter dem Projekt stehen, aber leider hat es weniger als eine Stunde gedauert, bis wir Glaze umgehen konnten“, so Meyer. „Wir haben unsere Erkenntnisse mit den Projektentwicklern geteilt und gehen davon aus, dass weniger konsensorientierte Akteure nicht lange brauchen werden, um herauszufinden, was wir getan haben.“

Michael Förtsch

Michael Förtsch

Leitender Redakteur

554

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare

Deine Meinung teilenJetzt den ersten Kommentar verfassen.

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

3b56d45b-c731-4549-bba3-79bfaf7d06a0

698e3aac8879a928a5a8a992

bottom of page