loukides1_Stanislav KogikuSOPA ImagesLightRocket via Getty Images_AI Stanislav Kogiku/SOPA Images/LightRocket via Getty Images

Das Urheberrechtsproblem der KI ist lösbar

SEBASTOPOL, KALIFORNIEN: Die generative künstliche Intelligenz stellt das aktuelle Urheberrecht auf unvorhergesehene und unbequeme Weise auf die Probe. Das US Copyright Office hat kürzlich eine Leitlinie veröffentlicht, laut der die Arbeitsergebnisse bildgenerierender KI nicht urheberrechtlich geschützt seien, sofern in die Erstellung der Abfragen keine menschliche Kreativität eingeflossen sei. Doch das wirft viele Fragen auf: Wie viel Kreativität ist nötig, und ist es die gleiche Art Kreativität, die ein Künstler mit dem Pinsel ausübt?

Eine andere Gruppe von Fällen betrifft Texte (in der Regel Romane und deren Verfasser). Einige argumentieren, dass das Training eines Modells unter Verwendung von urheberrechtlich geschütztem Material schon an sich eine Urheberrechtsverletzung darstellt, auch wenn das Modell diese Texte im Rahmen seiner Ergebnisse nie reproduziert. Doch ist das Lesen von Texten seit jeher – schon seit Schriftsprache gibt – Teil des menschlichen Lernprozesses. Während wir für die Bücher bezahlen, zahlen wir nicht dafür, dass wir aus ihnen zu lernen.

Wie lässt sich das sinnvoll gestalten? Was sollte das Urheberrecht im Zeitalter der KI bedeuten? Eine Antwort hierauf liefert der Technologe Jaron Lanier mit seiner Idee der Datenwürde, die implizit zwischen dem Training (oder der „Schulung“) eines Modells und der Erzeugung von Arbeitsergebnissen mittels dieses Modells unterscheidet. Ersteres, so argumentiert Lanier, sollte eine geschützte Aktivität sein, während die Produktion der Ergebnisse tatsächlich das Urheberrecht einer Person verletzen könne.

Diese Unterscheidung ist aus mehreren Gründen attraktiv. Erstens schützt das aktuelle Urheberrecht „transformative Nutzungen …, die etwas Neues hinzufügen“ – und das ist ziemlich offensichtlich genau das, was KI-Modelle tun. Auch ist es nicht so, dass große Sprachmodelle (LLMs) wie ChatGPT den kompletten Text etwa von George R. R. Martins Fantasy-Romanen enthalten, um dann dreist daraus zu kopieren.

Vielmehr besteht das Modell aus einem enormen Satz von Parametern, der auf allen Inhalten basiert, mit denen das Modell während des Trainings gefüttert wurde. Diese Parameter bilden die Wahrscheinlichkeit ab, mit der ein Wort auf ein anderes folgt. Wenn diese Wahrscheinlichkeits-Engines jetzt ein Sonett ausspucken, das dem Reimschema Shakespeares folgt, aber nicht von diesem stammt, ist das transformativ, selbst wenn das neue Sonett nicht annähernd gut ist.

Lanier betrachtet die Schaffung eines besseren Modells als ein öffentliches Gut, das allen dient – auch den Autoren, deren Werke verwendet werden, um das Modell zu trainieren. Das mache es transformativ und schützenswert. Aber es gibt ein Problem mit seinem Konzept der Datenwürde (das Lanier durchaus anerkennt): Es ist unmöglich, sinnvoll zwischen dem „Training“ aktueller KI-Modelle und der „Erzeugung von Arbeitsergebnissen“ im Stile etwa der Romanautorin Jesmyn Ward zu unterscheiden.

Subscribe to PS Digital
PS_Digital_1333x1000_Intro-Offer1

Subscribe to PS Digital

Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.

Subscribe Now

KI-Entwickler trainieren Modelle, indem sie sie mit kleinen Mengen an Daten füttern und milliardenfach auffordern, das nächste Wort vorherzusagen. Dabei werden die Parameter immer wieder leicht angepasst, um die Vorhersagen zu verbessern. Derselbe Prozess wird freilich anschließend verwendet, um die Ergebnisse zu erzeugen, und hier liegt aus urheberrechtlicher Sicht das Problem.

Ein Modell, das aufgefordert wird, wie Shakespeare zu schreiben, könnte mit dem Wort „To“ beginnen, was es geringfügig wahrscheinlicher macht, dass es danach „be“ wählt. Dies wiederum macht es etwas wahrscheinlicher, dass das nächste Wort „or“ sein wird – und so weiter. Dennoch bleibt es unmöglich, dieses Ergebnis mit den Trainingsdaten in Verbindung zu bringen.

Woher kommt das Wort „or“? Obwohl es das nächste Wort in Hamlets berühmtem Monolog ist, kopierte das Modell nicht Hamlet. Es wählte „or“ einfach aus Hunderttausenden von Wörtern aus, die es hätte wählen können – alles auf statistischer Grundlage. Das ist nichts, was wir Menschen als Kreativität betrachten würden. Das Modell maximiert einfach die Wahrscheinlichkeit, dass wir Menschen sein Arbeitsergebnis als verständlich empfinden.

Aber wie können Autoren dann ggf. angemessen für ihre Arbeit entschädigt werden? Während es bei den aktuellen generativen KI-Chatbots unmöglich ist, die Herkunft der Ergebnisse nachzuvollziehen, ist das nicht das Ende der Geschichte. Seit dem Launch von ChatGPT vor rund einem Jahr haben Entwickler Anwendungen auf der Basis der bestehenden Grundmodelle entwickelt. Viele verwenden die sogenannte „Retrieval-Augmented Generation“ (RAG), um es einer KI zu ermöglichen, etwas über in ihren Trainingsdaten nicht enthaltene Inhalte zu „wissen“. Wenn Sie einen Text für einen Produktkatalog generieren müssen, können Sie die Daten Ihres Unternehmens hochladen und dann mit der Anweisung „Verwende in der Antwort nur die in dieser Anfrage enthaltenen Daten.“ an das KI-Modell senden.

Obwohl RAG dafür konzipiert wurde, proprietäre Informationen zu nutzen, ohne den arbeits- und rechenintensiven Prozess des Trainings durchlaufen zu müssen, schafft sie ganz nebenbei eine Verknüpfung zwischen der Antwort des Modells und den Dokumenten, aus denen die Antwort erstellt wurde. Das bedeutet, dass wir jetzt wissen, wo die Inhalte herkommen, was uns Laniers Vision der Datenwürde deutlich näher bringt.

Wenn wir eine von einem menschlichen Programmierer erstellte Währungsumrechnungssoftware in einem Buch veröffentlichen und unser Sprachmodell sie in der Antwort auf eine Anfrage reproduziert, können wir das der ursprünglichen Quelle zuschreiben und die Tantiemen entsprechend zuweisen. Das Gleiche würde für einen im Stile von Wards’ (ausgezeichnetem) Singt, ihr Lebenden und ihr Toten, singt geschriebenen KI-generierten Roman gelten.

Googles KI-gesteuerte Übersichtsfunktion ist ein gutes Beispiel dafür, was wir von RAG erwarten können. Da Google bereits die weltbeste Suchmaschine hat, sollte seine Zusammenfassungs-Engine in der Lage sein, auf eine Anfrage mit einer Suche zu reagieren und die wichtigsten Ergebnisse in ein LLM einzuspeisen, um die Übersicht zu erstellen, nach der der Benutzer gefragt hat. Das Modell würde die Sprache und Grammatik liefern, aber den Inhalt aus den in der Anfrage enthaltenen Dokumenten ableiten. Dies wiederum würde uns sagen, woher die Inhalte stammen.

Da wir nun also wissen, dass es möglich ist, Ergebnisse zu generieren, die das Urheberrecht beachten und die Urheber entschädigen, müssen die Regulierungsbehörden tätig werden, um Unternehmen, die dies nicht tun, zur Rechenschaft zu ziehen – genau, wie sie für Hassrede und andere Formen unangemessener Inhalte zur Verantwortung gezogen werden. Wir sollten die Behauptung führender LLM-Anbieter, dass dies technisch nicht machbar sei, nicht akzeptieren. Tatsächlich ist es eine der vielen geschäftsmodellbedingten und ethischen Herausforderungen, die sie bewältigen können und müssen.

Zudem bietet RAG zumindest eine Teillösung für das aktuelle Problem der „KI-Halluzinationen“. Wenn eine Anwendung (wie die Google-Suche) einem Modell die zur Formulierung einer Antwort benötigten Daten zur Verfügung stellt, ist die Wahrscheinlichkeit, dass das Modell völligen Unsinn produziert, viel kleiner, als wenn es sich ausschließlich auf seine Trainingsdaten stützt. Die KI-Ergebnisse ließen sich also präzisieren, indem man sie auf als zuverlässig bekannte Quellen beschränkt.

Wir fangen gerade erst an, zu erkennen, was mit diesem Ansatz möglich ist. Die RAG-Anwendungen werden mit der Zeit zweifellos komplexer und vielschichtiger werden. Aber da wir nun über die Werkzeuge verfügen, um die Herkunft von Inhalten zurückzuverfolgen, haben Technologieunternehmen keine Ausrede mehr für die mangelnde Wahrnehmung ihrer urheberrechtlichen Verantwortung.

Aus dem Englischen von Jan Doolan

https://prosyn.org/8nVsDNRde