Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Künstler verklagen AI-Bildgeneratoren

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterMontag, 16.01.2023

Dieselben Anwälte, die jüngst Github Copilot verklagten, reichten nun im Namen von drei Künstlerinnen eine Klage gegen Stability (Stable Diffusion), Midjourney und DeviantArt wegen ihrer Verwendung von Stable Diffusion ein, einem "Collage-Tool des 21. Jahrhunderts".

AI-Copyright-Experte Alex J. Champandard hat zwei gute Threads zum Prozess, und während er auch schreibt, dass die Anwälte ihren Fall schlampig konstruierten, meint Champandard, dass Stable Diffusion, Midjourney und DeviantArt in einer schlechten Position stehen.

Die klassische Reaktion auf die Klage im SD-Reddit-Sub waren vor allem Witze über die Darstellung von Bildsynthese als „Collage-Tool“ darstellt. Was keine sehr große Rolle für diesen Fall spielt. Das liegt daran, dass ein kürzlich erschienenes Paper bewiesen hat, dass Bildsynthesizer Trainingsdaten verbatim reproduzieren können. Alle Stable-Diffusion-Checkpoint-Dateien "wissen", wie Batman aussieht, weil Stability und LAION Hunderte von Batman-Bildern verwendet haben, ohne einen Cent an Warner zu zahlen, und manchmal geben sie diese Daten unverändert aus. Das ist alles, was die Anwälte und ihre Kläger brauchen.

Ich denke, der Fall hat gute Chancen, vor Gericht zu landen und für die Ankläger entschieden zu werden, denn selbst wenn das Gericht der komplexeren Beschreibung der Bildsynthese als „ein Werkzeug zum Entrauschen eines Bildes basierend auf Parametern seines Latent Space“ folgt, wurden diese Parameter immer noch von einem gewinnorientierten Unternehmen aufgestellt, das die Werke von Tausenden von Künstlern ohne Vergütung für die Entwicklung ihrer Bildermaschine nutzte. Ich bin absolut nicht davon überzeugt, dass hier eine Fair-Use-Verteidigung greifen wird.

Die Frage läuft dann auf ein Urheberrecht für Stil hinaus und es ist keineswegs sicher zu sagen, dass das Urheberrecht künstlerische Stile (noch) nicht schützt, weil man immer ein neues Gesetz einführen kann, das dies tut. Die Frage ist, ob ein solches Gesetz fair und gerecht wäre. Und vielleicht, in einer Welt, in der ich einen schnellen Schnappschuss einer Zeichnung machen und ganze Welten in diesem Stil erzeugen kann, ist es das. (Stil ist nicht das einzige Urheberrechtsproblem von Image Synthesis, sondern auch Marken. Stellen Sie sich einen Stift vor, der „weiß“, wie Batman aussieht und ihn malen kann, aber nicht unter der Lizenz von DC Comics entwickelt wurde. Nach meinem grundlegenden Verständnis des Urheberrechtsgesetzes dies wäre ein glasklarer Verstoß.)

Ich bin mir sehr sicher, dass, wenn das Aufkommen der KI-Bildsynthese zu neuen Urheberrechtsgesetzen in Bezug auf Stil führt, diese auf Automatisierungssysteme und KI beschränkt sein werden, und es Ihnen immer noch freisteht, Picassos Kubismus von Hand oder in Photoshop zu kopieren. Es steht Ihnen auch frei, einen Algorithmus zu trainieren, der Stile „lernt“ und sie nachahmt, aber Sie dürften diesen Algorithmus und die Weights des Modells nicht veröffentlichen.

So wie die meiste Fan-Kunst heute gesetzlich illegal ist und von IP-Inhabern lediglich toleriert wird, werden auch KI-Algorithmen derzeit von Rechteinhabern höchstens toleriert. Als Mensch werden Sie immer frei sein, Batman zu zeichnen und auch eine Milliarde Batman-Comics zu scannen und jede erdenkbaren Algorithmus mit diesen Scans zu trainieren und die ausgeklügeltste „intelligente“ Batman-Zeichenmaschine aller Zeiten zu erstellen – aber sobald Sie die Outputs oder den Algorithmus veröffentlichen, können Sie zur Rechenschaft gezogen werden, genauso wie Sie zur Rechenschaft gezogen werden können, wenn Sie T-Shirts von Batman-Zeichnungen aus Ihrem privaten Blackbook drucken.

Artstation und Deviantart werden nun einige TOS-Anpassungen vornehmen, und Kunst-/illu-/Fotoplattformen werden wohl bald Vergütungsmodelle entwickeln, um wie Shutterstock ihre Nutzerbasis dafür zu bezahlen, dass sie ihre Bilder für Trainingsdatensätze lizenzieren, auch um ihre eigenen Bildgeneratoren zu bauen.

Projekte wie Have I been trained von Mat Dryhurst und Holly Herndon werden zu Opt-In-Mechanismen für Bildplattformen. Stability und LAION sagten bereits zu, diese Mechanismen respektieren zu wollen. Mit diesen neuen Zustimmungsmechanismen und einem Schatz an HD/High-Quality-Bild-Daten können diese Plattformen legale CKPT-Dateien für kreative Anwendungen wie Photoshop trainieren, und die an den Trainingsdaten beteiligten Künstler werden damit etwas Geld verdienen. Und machen Sie sich nichts vor: Die illegalen Checkpoint-Dateien vom Schwarzmarkt, die auf The Pirate Bay schon bald zum Download bereitstehen, werden besser darin sein, stilistische Imitationen zu produzieren, basierend auf Tonnen von crowdsourced Bilder-Datenbanken, die von "illegal" gescannten Kunstwerken, Comics und Illustrationen stammen. Wir könnten Zeuge eines Wettbewerbs zwischen illegalen und legalen Datasets um die beste Qualität des Outputs werden. Das Einzige, dessen ich mir wirklich sicher bin, ist, dass diese Technologie nicht verschwinden wird.

Ein anderes häufiges Argument, das man Nutzern von Bildgeneratoren hört, ist, dass diese Algorithmen wie Menschen lernen und dass eine Illegalisierung des Prozesses, ein Bild zu sehen und die „Stilregeln“ zu extrahieren, jede menschliche Kunst und im Grunde die gesamte menschliche Kultur haftbar gemacht werden könnte. Eine kurzsichtige Denkweise: Kein Mensch hat jemals einen Algorithmus, ein Unternehmen oder eine Maschine zwischen Wahrnehmung und Kognition und dem Kunstwerk platziert. Menschen sehen etwas, extrahieren die Stilregeln, wenden diese Regeln in Ihrem Kopf an, wandeln sie in motorische Funktionen um und bringen Linien auf Papier, aus denen ein Bild entsteht.

Mit KI ist es so: Du willst ein Bild deiner Mutter im Stil von Picasso. Die Maschine hat eine Datenbank voller Parameter, unter anderem für die Parameter "Mutti-Ähnlichkeit" und "Picasso-Ähnlichkeit". Die Maschine kombiniert diese Parameter, indem es eine verrauschte Leinwand so glättet, wie sein statistisches Modell sagt, dass Ihre Mutter aussehen würde, wenn sie von Picasso gemalt würde.

Bei dieser Bildsynthese gibt es kein symbolisches Denken, die Fähigkeit des Menschen, jeden Input aufzunehmen, in Symbole umzuwandeln und mit diesen auf mehr oder weniger raffinierte Weise zu spielen. Wenn Sie je eine Matheaufgabe im Kopf gelöst haben, haben sie symbolisches Denken angewandt. Bildsynthese tut nichts davon. Es nimmt eine Eingabe, bildet sie auf sein statistisches Modell ab und fügt ein stochastisches Element mit seiner Denoising-Funktion hinzu. In menschlicher Hinsicht haben diese Modelle überhaupt nichts gelernt, so wie ein Telefonbuch nichts über die Personen gelernt hat, deren Namen auf seinen Seiten stehen. Aus diesem Grund ist kein "stochastischer Papagei" im psychologischen Sinne kreativ. 

Eine weitere ethische Dimension, über nicht viel debattiert wird, sehe ich im Kontext eines kürzlich veröffentlichten Artikels, in dem Forscher eine Ethik für „mimetische Modelle“ von „AI that acts like you“ vorstellten. Künstler und Illustratoren bringen sicherlich große Anteile ihrer eigenen Persönlichkeit in ihre Arbeit ein und ihr Stil repräsentiert auch einen guten Teil dessen, wer sie als Person sind. Ich denke nicht, dass unlizenzierte Kunst-Datasets eine Datenschutzverletzung darstellen, wie wir sie heute definieren, aber jeder gute Anwalt könnte daraus ein weiteres Argument bauen.

Nichts davon besagt natürlich, dass man mit diesen statistischen Modellen keine Kunst schaffen kann. Natürlich können Sie mit diesem Tool Kunst erstellen. Sie können mit allem Kunst schaffen, sogar mit einer Banane und Klebeband oder altem stinkenden Fett und einem Stuhl. Aber das ist für diesen Prozess nicht relevant.

Hier kommt es alleine darauf an, ob die beteiligten Unternehmen nicht-lizenzierte Kunstwerke bei der Erstellung eines kommerziellen Tools verwendet haben und ob die Fair-Use-Verteidigung für eine Maschine gilt, die einen künstlerischen Stil nachahmen kann.

Haben sie und wir werden sehen.

Künstler verklagen AI-Bildgeneratoren

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.