Dieses kostenlose Tool verbirgt die Arbeit von Künstlern vor der Text-zu-Bild-KI, um Diebstahl zu verhindern

click fraud protection

Schließlich gibt es ein Tool, das Ihre Kunstwerke vor KI-Bildgeneratoren wie Stable Diffusion, DALL-E und Midjourney schützen kann. So funktioniert das.

Eine Gruppe von Ph. D. Studenten und Informatik-Professoren der University of Chicago haben ein kostenloses Tool entwickelt, mit dem Künstler ihre Kunstwerke schützen können KI-Kunst Generatoren. Mit dem Aufkommen von Text-zu-Bild-Tools wie Midjourney, DALL-E und Stable Diffusion stehen Künstler vor einer schwer, ihre Kreationen vor KI-Modellen zu schützen, die den Stil und die Elemente in ihrem Original trainieren arbeiten. Einige Künstler haben sogar Klage gegen diese Bildgeneratoren eingereicht, die ihre individuellen Stile kopieren und anderen erlauben, sie zu replizieren.

Heute nutzen Tausende von Künstlern Online-Plattformen, um ihr Talent zu präsentieren und ihren Lebensunterhalt mit den Fähigkeiten zu verdienen, die sie jahrelang entwickelt haben. Da sie ihre Arbeit jedoch online veröffentlichen, KI-Bildgeneratoren behandeln sie als Muster

und helfen Sie anderen, ein ähnliches oder inspiriertes Bild zu erstellen, ohne dem ursprünglichen Schöpfer die gebührende Anerkennung oder Entschädigung zu gewähren. Das ist wo Glasur kommt herein. Es ist ein Werkzeug, mit dem Künstler "sorgfältig berechnete Störungen auf ihre Kunst anzuwenden"Diffusionsmodelle zu verwirren und sie an der Stilnachahmung scheitern zu lassen.

Glaze fügt Kunstwerken subtile Modifikationen hinzu

Bild: Glasur/Universität Chicago

In Zusammenarbeit mit über 1.100 professionellen Künstlern haben die Entwickler von Glaze einen interessanten Ansatz entwickelt, um Originalkunstwerke vor Diebstahl und Kopieren zu schützen. Das Tool verwendet KI, um die "stilspezifische Merkmale des Originalwerks eines Künstlers" und wendet subtile Änderungen an ihnen an. Obwohl diese Veränderungen für das menschliche Auge kaum sichtbar sind, sind sie doch signifikant genug die Bildgeneratoren verwirren. Die Änderungen heißen „Stil Mäntel," und das resultierende Kunstwerk wird als "getarntes Kunstwerk. Künstler können sogar die Intensität von Style Cloaks im Tool steuern.

Das Forschungspapier der Universität Chicago erwähnt, dass das Tool Mimikry mit einer Erfolgsquote von über 92 Prozent unter normalen Umständen und über 85 Prozent gegen adaptive Gegenmaßnahmen widerstehen kann. Die meisten an der Umfrage der Universität beteiligten Künstler sagen auch, dass die von Glaze vorgenommenen Änderungen geringfügig sind und den Gesamtwert ihrer Kunst nicht mindern. Insgesamt kann das Tool vor allem Künstlern dabei helfen, ihre Originalität zu bewahren auf digitalen Plattformen, auf denen KI Bildgeneratoren haben zu einem Anstieg der Plagiate geführt. Glaze wird in den kommenden Wochen für Mac und Windows PC verfügbar sein.

Obwohl Glaze in der Lage sein sollte, Künstler für einige Zeit zu schützen, geben seine Entwickler zu, dass das KI-basierte Tool keine langfristige Lösung für das Problem ist, nämlich den Stil von Künstlern nachzuahmen. Die von diesem Tool verwendeten Techniken sind effektiv; KI-Modelle entwickeln sich jedoch schneller als zuvor, und es besteht eine gute Chance, dass sie knacken, wie Glaze Bilder verbirgt, und sie zurückentwickeln, um zur Originalversion zu gelangen. Nichtsdestotrotz arbeiten die Entwickler an den Tools, um ihre Effektivität zu verbessern gegen KI-Kunst Modelle.

Quelle: Glasur 1, 2