Leider gibt es ein Problem beim Abspielen des Videos.
Kritik von Berliner Verlagen und Illustrator:innen
Künstliche Intelligenz ist aus vielen Bereichen nicht mehr wegzudenken. Nun wurde erstmals ein nur mit KI generiertes Buchcover gestaltet. Die Branche der Illustrator:innen sorgt sich um ihre Arbeitsplätze. Von Nathalie Daiber und Elena Deutscher
Felsen, karge Tannen und ein mächtiges Feuer, das den Nachthimmel rot färbt: So kann man das Buchcover des Jugendromans "Skogland brennt" von der Autorin Kirsten Boie beschreiben. Eigentlich ist nichts dagegen einzuwenden, aber das Cover-Motiv ist mit Hilfe einer Künstlichen Intelligenz (KI) erstellt worden.
Die Berliner Illustratorin Sybille Hein, die mit ihrer Kollegin Rinah Lang am Freitag an einem Instagram-Flashmob #BuchbrauchtMensch teilgenommen hatte, fragt sich deshalb, ob sie demnächst von einer KI ersetzt wird. "Es hat im Moment was Irreales, aber wenn man zurück in die Geschichte blickt, dann ist das natürlich immer wieder vorgekommen", erklärt Hein. Am Anfang ihrer Karriere habe sie mit vielen Menschen zusammengearbeitet, deren Berufe es heute gar nicht mehr gebe. "Buchdrucker oder Grafiker arbeiten heute zum Beispiel ganz anders."
Hein ist renommierte Kinderbuchillustratorin und bereitet die großen Themen für die Kleinen auf: Aktuell schreibt und zeichnet sie in ihrem Atelier im Prenzlauer Berg an einem Buch über "Fakes". "Freiheit" ist ein anderes Bilderbuch von ihr für Leser:innen ab vier Jahren.
Die Kritik an dem KI-Cover kam dabei nicht nur von Kunstschaffenden, sondern auch von anderen Verlagen. Der Berliner Kindermann Verlag positionierte sich sofort als "Verlag ohne KI". Ihr Markenzeichen ist seit 30 Jahren die Herausgabe von Weltliteratur als Bilderbücher für Kinder. Wie zum Beispiel Goethes Faust oder "der Sturm" von Shakespeare.
Ohne Illustrator:innen, sagt Anna Kindermann, könne sie den Verlag gleich schließen. "Bei 'Skogland' war ich, ehrlich gesagt, fassungslos. Besonders wir Menschen in der Buchbranche sollten doch hinter den Künstler:innen stehen und die KI, auch wenn sie vielleicht nicht mehr aufzuhalten ist, als letztes nutzen."
Dass sich KI ganz aus der Buchbranche raushalten lässt, glauben weder Anna Kindermann noch Sybille Hein. Aber die Illustratorin hat klare Vorstellungen für den Umgang mit Künstlicher Intelligenz: "Ich wünsche mir, dass es eine Transparenz gibt, wie unsere Werke genutzt werden und natürlich auch, dass es eine Möglichkeit gibt, dass wir fair daran beteiligt werden."
Denn: Wie man ein Buchcover entwirft, das muss auch ein KI-Modell erst lernen. Dafür werden KIs mit vielen künstlerischen Werken trainiert. Die Daten stammen aus dem Internet. Das heißt, die KI lernt von der Kreativität der Menschen und damit von teilweise urheberrechtlich geschützten Werken. Die Kunstschaffenden sehen dafür bisher keinen Cent.
Das KI-Training mit geschützten Werken ist dann erlaubt, wenn es unter das "Text- und Data-Mining" (TDM) fällt. Diese gesetzliche Schranke, ermöglicht, dass geschützte Werke unter bestimmten Umständen genutzt werden dürfen. TDM bedeutet, Daten (wie Texte oder Bilder) werden nach Mustern und anderen Zusammenhängen durchsucht, wodurch die KI lernt, Vorhersagen zu machen.
Der Rechtswissenschaftler Tim Dornis, Professor an der Universität Hannover, und der Informatiker Sebastian Stober, Professor an der Otto von Guericke Universität Magdeburg, haben ausführlich mit dem Urheberrecht und mit KI-Training befasst. Stober kritisiert die Intransparenz des Trainings: "Das Problem ist, man kann nicht in so ein Modell reinschauen und sehen, da hat er den Stil von Shakespeare gelernt und da den von Goethe und da hat er gelernt, wie man News-Artikel schreibt."
Allerdings steht für den Informatiker fest, dass zumindest ein Teil der Werke im Inneren der KI "memorisiert" sein und dass KI-Modelle mit geschützten Werken trainiert worden sein müssen - denn sonst wäre es gar nicht möglich, dass eine KI dazu in der Lage ist, ähnliche Texte oder Bilder zu generieren.
In einem Gutachten, dass die beiden Experten für die Initiative Urheberrecht erstellt haben, ziehen sie das klare Fazit: KI-Training mit geschützten Werken sei eine Urheberrechtsverletzung. "Eine generative KI wertet Bilder so umfassend aus, dass sie so ähnliche Bilder wieder generieren kann", erklärt Dornis und ergänzt: "Da geht es nicht darum, ob auf der Mehrzahl der Bilder ein Hund, eine Katze oder eine Landschaft zu sehen ist, sondern darum, alle Informationen statistisch abzubilden, damit die KI im Nachgang auf Knopfdruck ein Bild von einer Katze, einem Hund oder einer Landschaft erzeugen kann." Und das sei nicht mehr mit "Text- und Data-Mining" abgedeckt, so die Wissenschaftler.
Allerdings können sich Kunstschaffende bisher kaum dagegen wehren, dass ihre Werke im KI-Training genutzt werden. Zwar kann man sein Werk – zum Beispiel ein Buch – mit einem entsprechenden Hinweis versehen, der die Nutzung für das KI-Training untersagt, ob dieser dann auch beachtet wird, ist fraglich.
Aber nicht nur die Buchbranche muss sich mit dem Thema KI auseinandersetzen. Erste rechtliche Schritte gegen KI-Anbieter geht jetzt die Verwertungsgesellschaft GEMA. Sie klagt gegen OpenAI und wirft dem KI-Anbieter vor, geschützte Songtexte von deutschen Künstlern und Künstlerinnen durch den Chatbot ChatGPT wiederzugeben, ohne dafür Lizenzen erworben zu haben. Ob die Klage Erfolg hat und ob sich künstlerische Werke so schützen lassen, wird sich zeigen.
Sendung: rbb24 Abendschau, 16.11.2024, 19:30 Uhr
Beitrag von Nathalie Daiber und Elena Deutscher
Artikel im mobilen Angebot lesen