Zephyrnet-Logo

Richtlinien zur Urheberrechtsentschädigung für generative KI: Sind Benutzer tatsächlich sicher?

Datum:


 Einleitung

Mit der Ausweitung der generativen KI-Technologie auf Plattformen und Anwendungen kämpfen Entwickler mit einer Reihe von Urheberrechtsstreitigkeiten. Zum Beispiel vor Kurzem eine Sammelklage wurde gegen Bard, den generativen KI-Chatbot von Google, eingereicht. Google wurde wegen Web-Scraping (einschließlich urheberrechtlich geschützter Inhalte) für das Training seines Chatbots vorgeworfen. Sogar der beliebte LLM-Chatbot ChatGPT hat Kritik von Medien und Autoren erhalten und mehrere davon erlebt Sammelklagen dagegen Klage erhoben. Das bekannteste davon ist das Autorengilde, eine Gruppe prominenter Autoren in den USA.

Als Reaktion darauf haben Unternehmen damit begonnen, Richtlinien zur Urheberrechtsentschädigung einzuführen, um ihre Nutzer vor möglichen Urheberrechtsklagen zu schützen, die sich aus der Nutzung ihrer generativen KI-Technologie ergeben. Eine Urheberrechtsentschädigungspolice, manchmal auch als Urheberrechtsverletzungsversicherung bezeichnet, ist eine Art Versicherung, die dazu dient, Einzelpersonen oder Organisationen vor Rechtsstreitigkeiten zu schützen, die sich aus potenziellen Ansprüchen wegen Urheberrechtsverletzungen ergeben. In diesem Blog untersuche ich die Richtlinien zur Urheberrechtsentschädigung von drei großen Technologiegiganten und analysiere ihre rechtliche Wirksamkeit beim Schutz ihrer Benutzer vor potenziellen Urheberrechtsstreitigkeiten.

Welche urheberrechtlichen Bedenken gibt es bei Generative AI?

Die Urheberrechtsbedenken im Zusammenhang mit generativer KI wurden bereits in zwei Blogbeiträgen erörtert (hier und hier). Kurz gesagt, generative KI wirft Bedenken hinsichtlich Urheberrechtsverletzungen in verschiedenen Bereichen auf. Beispielsweise können Produkte oder generative KI selbst Lizenzen zur urheberrechtlichen Nutzung verletzen. Ob KI-generierte Werke zunächst urheberrechtlich geschützt sind, ist umstritten. Nur von Menschen geschaffene Werke sind urheberrechtlich geschützt. Einige behaupten, dass KI-generierte Produkte diese Bedingung nicht erfüllen, da sie nicht das Ergebnis menschlicher Kreativität sind. Einige behaupten, dass die Autoren diejenigen sein sollten, die die KI-Modelle entwickelt haben, die diese Werke produzieren.

Die Frage, ob die Verwendung urheberrechtlich geschützter Daten zum Trainieren von KI-Modellen gegen das Urheberrecht verstößt, gibt Anlass zur Sorge. Der Datensatz, der einem KI-Modell Anweisungen zur Ausführung einer Aufgabe gibt, wird als Trainingsdaten bezeichnet. Trainingsdaten für generative KI bestehen häufig aus urheberrechtlich geschützten Medien, darunter Text, Fotos und Musik. Während einige behaupten, dass die Verwendung urheberrechtlich geschützter Daten zum Trainieren von KI-Modellen eine faire Nutzung sei, behaupten andere, dass es sich um einen Verstoß handele.

Schließlich besteht die Sorge, dass mithilfe generativer KI nicht genehmigte abgeleitete Werke erstellt werden könnten. Ein Werk, das auf einem bereits bestehenden urheberrechtlich geschützten Werk basiert, wird als abgeleitetes Werk bezeichnet. Beispiele für abgeleitete Werke könnten eine Musikversion eines Theaterstücks oder eine Buchübersetzung sein. Ohne die Zustimmung des Urheberrechtsinhabers kann generative KI zur Herstellung abgeleiteter Werke verwendet werden, was zu Rechtsverletzungen führen kann. Das KI-generierte Werk kann als Verletzung des Urheberrechts einer anderen Person angesehen werden. 

Adobe-Glühwürmchen

In Juni 2023Adobe, der Hersteller von Acrobat und Photoshop, war eines der ersten Unternehmen weltweit, das seine Entschädigungsrichtlinie für geistiges Eigentum für sein neues generatives KI-Produkt Adobe Firefly einführte. Firefly, ein Produkt von Adobe Creative Cloud, ist ein generativer KI-basierter Bildersteller. Das Produkt wurde speziell für den kommerziellen Einsatz entwickelt, um Unternehmen ein Tool zur einfachen Erstellung professioneller Standardbilder zur Verfügung zu stellen. Um die „kommerzielle Sicherheit“ von Firefly zu gewährleisten, hat Adobe daher entsprechende Vorkehrungen getroffen. Beispielsweise wurde Firefly für lizenzierte Inhalte wie Adobe Stock (ein Adobe-Produkt mit eigenem Bildsatz), gemeinfreies Material (abgelaufenes Urheberrecht) und anderes nicht urheberrechtlich geschütztes oder offen lizenziertes Material geschult. Adobe ist einer der Gründer und Mitarbeiter des Initiative zur Authentizität von Inhalten (CAI), eine Initiative, an der mehrere Medien- und Technologieunternehmen beteiligt sind; Wissenschaft und NGOs. Das CAI möchte einen offenen Industriestandard für die Herkunft und Authentizität von Inhalten bereitstellen.

Darüber hinaus ist Adobe Teil des Koalition für Inhaltsherkunft und Authentizität (C2PA). C2PA hat einen offenen technischen Standard etabliert, der es Herausgebern, Urhebern und Verbrauchern ermöglicht, die Herkunft von Medien unterschiedlicher Art zurückzuverfolgen. Dies beinhaltet eine Option für Ersteller, anzugeben, ob generative KI durch a verwendet wurde Inhaltsnachweis. Inhaltsanmeldeinformationen sind eine Art von „manipulationssicher“ Metadaten sollen eine größere Transparenz und Identifizierung im Prozess der Bilderstellung mithilfe von Tools wie generativer KI ermöglichen. Um Content Credentials nutzen zu können, müssen Urheber unter Verwendung dieser Credentials manipulationssichere Metadaten zu ihren generierten Werken hinzufügen. Es ermöglicht den Urhebern, weitere Informationen zu ihrer Arbeit hinzuzufügen, einschließlich des Namens/der Identität des Urhebers, des Bearbeitungsverfahrens und anderer verwandter Informationen. Daher war Adobe im Gegensatz zu OpenAI bei der Kuratierung seiner Trainingsdatensätze vorsichtig, um sie vor Ansprüchen wegen Urheberrechtsverletzungen zu schützen. Als ob dies nicht genug wäre, hat Adobe eine weitere bemerkenswerte Funktion eingeführt, um seine Benutzer vor Urheberrechtsentschädigungen zu schützen – die IP-Entschädigungsrichtlinie. Die IP-Schadensfreistellung von Firefly sieht eine Entschädigung für jegliche urheberrechtliche Rechtsstreitigkeiten vor. Dies unterliegt jedoch selbstverständlich einigen Nutzungsbedingungen. Dieser Schritt von Adobe scheint eine vorbeugende Maßnahme als Reaktion auf die Kritik zu sein, die andere KI-Tools zur Bildgenerierung erhalten haben DALL-E , Stable Diffusion und DreamUp.

Microsofts Copilot-Urheberrechtsverpflichtung

Nach Adobe veröffentlichte auch Microsoft seine Entschädigungsrichtlinie. Copilot-Urheberrechtsverpflichtung. Die Entschlossenheit von Microsoft, die Sorgen der Verbraucher über Urheberrechtsverletzungen bei seinen KI-Assistenten auszuräumen, ist ein bedeutender Schritt. Dadurch wird Microsofts bereits bestehender IP-Schadensersatzschutz um Urheberrechtsansprüche im Zusammenhang mit der Copilots-Suite erweitert, zu der GitHub, Dynamics 365, Power Platform und andere Produkte gehören. Interessanterweise deckt es auch die Ausgabe ab, die diese KI-Helfer produzieren. Diese Garantie soll gewerbliche Nutzer vor möglichen finanziellen Verlusten im Falle des Vorwurfs einer Urheberrechtsverletzung schützen. Die Durchsetzbarkeit dieser Versprechen wurde jedoch von einigen Experten geprüft, bis sie vollständig in die kommerziellen Vereinbarungen und Nutzungsbedingungen integriert wurden. Dies ist von Bedeutung, da es sich bei dieser Entschädigungs-„Richtlinie“ derzeit lediglich um eine auf der Website des Unternehmens veröffentlichte Verpflichtungserklärung handelt – sie wurde in keiner seiner Nutzungsvereinbarungen offiziell aufgenommen. Selbst wenn wir das Engagement von Microsoft als Beweis seiner rechtlichen Absicht betrachten würden, gibt es weitere Komplikationen. In der Verpflichtung heißt es, dass die Benutzer Inhaltsfilter und Sicherheitssysteme verwenden müssen – dies spiegelt die Komplexität wider, die es mit sich bringt, sich durch die verschiedenen Unklarheiten und Grauzonen von Urheberrechtsverletzungen im Zusammenhang mit generativer KI zurechtzufinden. Selbst im besten Fall scheint die Richtlinie von Microsoft daher keinen garantierten Schutz für die Benutzer zu gewährleisten. 

Die Entschädigungsrichtlinie von Google für Nutzer generativer KI

Kürzlich hat Google auch seine Entschädigungsrichtlinie für Nutzer generativer KI veröffentlicht und sich dem Kampf um Entschädigungsrichtlinien großer Technologiegiganten angeschlossen, indem es eine umfassende Entschädigungsrichtlinie für Nutzer generativer KI eingeführt hat auf seinen Google Cloud- und Workspace-Plattformen. Google geht dieses Problem gründlich an, da es es auf zweigleisige Weise angeht. Diese Richtlinie gilt insbesondere für Software auf der Vertex AI-Entwicklungsplattform und dem Duet-KI-System, das sich hauptsächlich auf die Text- und Bildgenerierung in Google Workspace- und Cloud-Programmen konzentriert. Es ist wichtig zu beachten, dass sich die Entschädigung von Google nicht auf Fälle erstreckt, in denen Nutzer vorsätzlich die Rechte anderer verletzen, beispielsweise indem sie urheberrechtlich geschütztes Material für kommerzielle Zwecke verwenden (und nicht unter eine Fair-Dealing-Bestimmung fallen). Diese Unterscheidung dient dazu, den verantwortungsvollen Einsatz generativer KI-Technologie sicherzustellen.

Bezeichnenderweise gibt es keine Entschädigungsrichtlinie von Google für seinen beliebten generativen KI-Chatbot Google Bard. Es ist nur auf Vertex AI und Duet AI beschränkt, die auf weitaus weniger Benutzer beschränkt sind. Der wichtige Bereich, in dem sich Google Bard von einigen anderen generativen KI-Tools wie Adobe Firefly unterscheidet, sind die für das Training verwendeten Inhalte oder Datensätze. Google Bard ist Googles eigener generativer KI-Chatbot, der ein Large Language Model (LLM) verwendet, das dem ChatGPT von OpenAI ähnelt.

Während sich Adobe Firefly auf nicht urheberrechtlich geschütztes Material beschränkt, soll Google Bard auf sämtliche Quellen aus dem Internet (unabhängig vom Urheberrecht) trainiert worden sein. Dies bereitet Google große Sorgen, wie die jüngste Reihe von Rechtsstreitigkeiten gegen Bard zeigt. Daher scheint die Richtlinie von Google ihren Nutzern keinen wesentlichen und wirksamen Schutz zu bieten, und dies erklärt wahrscheinlich, warum dieser Richtlinie auch einen Monat nach ihrer Einführung nicht viel Aufmerksamkeit geschenkt wurde. Zweifellos hat nicht einmal OpenAI eine Entschädigungsrichtlinie für ChatGPT angekündigt, die der Vorgehensweise von Google Bard in Bezug auf Urheberrechtsbedenken ziemlich ähnlich ist.

Fazit

Im sich schnell verändernden Bereich der generativen KI sind Regeln zur Urheberrechtsentschädigung unerlässlich, um den Nutzern rechtlichen Schutz zu bieten. Als Reaktion auf diese Bedenken haben Microsoft, Adobe und Google alle ihre Regeln geändert, um bestimmte Aspekte der Anwendung generativer KI zu berücksichtigen. Auch wenn diese Pläne einen großen Fortschritt darstellen, müssen Verbraucher dennoch aufmerksam und vorsichtig sein und den Umfang und die Grenzen der angebotenen Entschädigung kennen. Diese Vorschriften werden sich sicherlich im Einklang mit der Weiterentwicklung der KI weiterentwickeln und den Unternehmen, die diese bahnbrechende Technologie nutzen, noch mehr Rechtssicherheit bieten.

Prachi Mathur

Autor

Prachi Mathur ist Studentin an der National Law School der University of India (NLSIU) in Bangalore. Sie interessiert sich unter anderem für Technologierecht, Recht des geistigen Eigentums, Recht und Wirtschaft, Beweisrecht und Strafrecht. In ihren Blogbeiträgen erläutert sie gerne die Funktionsweise des Gesetzes.

spot_img

Neueste Intelligenz

spot_img