Zephyrnet-logo

Ontbundeling van het IP-labyrint van generatieve AI's: lessen uit de Britse AI-wet

Datum:


De exponentiële opkomst van kunstmatige intelligentie (“AI”)-technologie is niet zonder kosten voor de samenleving verlopen. Een van de nieuwste uitlopers van de AI-ontwikkeling zijn de generatieve AI-tools. Deze AI-tools worden gedefinieerd als Large Language Models (“LLM’s”) die worden gebruikt om teksten of andere inhoud zoals afbeeldingen of audio te produceren op basis van de gegevens die worden gebruikt om ze te trainen. 

Er zijn echter verschillende zorgen die met name verband houden met de LLM's met betrekking tot intellectuele eigendomsrechten. Hoewel er zorgen zijn over het IP-eigendom van de creaties door AI, zou een belangrijkere vraag misschien kunnen zijn: hoe zit het met de IP-beschermde gegevens die worden gebruikt om deze LLM’s te trainen? Generatieve AI’s worden getraind gebruik van grote hoeveelheden data, inclusief enorme archieven met afbeeldingen en teksten. Wanneer ze op een prompt reageren, identificeren deze AI-systemen patronen en associaties tussen deze gegevens, die ze gebruiken om regels op te stellen en uiteindelijk conclusies en voorspellingen te produceren. Deze gegevens die door de LLM's worden gebruikt, kunnen IP-beschermd zijn en dergelijk gebruik kan dus worden beschouwd als een inbreuk op de rechten van de eigenaren van dergelijke rechten.

Het Verenigd Koninkrijk (“VK”) heeft onlangs de invoering van een particulier wetsvoorstel over de regulering van AI in het land. Het wetsontwerp bevindt zich nog in de beginfase en moet vervolgens worden ondersteund door regelgeving. Het bevat echter enkele belangrijke bepalingen die van pas kunnen komen bij het oplossen van de problemen rond de training van generatieve AI’s.

In dit stuk zal ik het probleem van schending van IE-rechten zoals auteursrecht en handelsmerken bij de training van generatieve AI's onderzoeken met behulp van verschillende recente ontwikkelingen. Vervolgens zal ik het Britse AI-wetsvoorstel kritisch beoordelen om de doeltreffendheid ervan bij het oplossen van deze problemen te beoordelen. Ten slotte betoog ik ook dat het Indiase IE-wetgevingsregime van Groot-Brittannië kan leren om met een alomvattend raamwerk te komen om AI en de inbreuken op IE te reguleren.

Generatieve AI, rechtszaken en het IE-probleem

Generatieve AI’s worden getraind met behulp van enorme hoeveelheden data. Omdat deze gegevens niet openbaar worden gemaakt, bestaat er een dreigende zorg dat dergelijk gebruik inbreuk zou kunnen maken op de intellectuele eigendomsrechten van de eigenaren van deze gegevens. Prosecraft was bijvoorbeeld software die werd gebruikt om taalkundige analyses van literatuur uit te voeren. De website bood analyses van verschillende boeken op basis van hun aantal woorden, levendigheid, passieve stem en het totale aantal bijwoorden. Thij eigenaar van de website was gedwongen de website te sluiten na klachten van talrijke auteurs. Tegen de tijd dat de website zijn activiteiten stopte, had deze echter al duizenden romans geanalyseerd zonder toestemming van de auteurs, en daarmee hun auteursrechten geschonden. Een andere zorg die bleef bestaan, was of de eigenaar van de website van plan was de verzamelde gegevens te verwijderen.

Op dezelfde manier vormden drie kunstenaars een class action-rechtszaak Andersen tegen Stabiliteit AI et al., een zaak die in 2022 werd aangespannen. De kunstenaars beweerden dat de generatieve AI-platforms hun originele werken gebruikten zonder toestemming te krijgen om hun AI in hun stijlen te trainen. Hierdoor konden gebruikers werken maken die mogelijk niet voldoende transformerend waren ten opzichte van hun bestaande, beschermde werken, en dus als ongeautoriseerde afgeleide werken zouden worden beschouwd. Terwijl de kwestie van het transformatieve gebruik van auteursrechtelijk beschermd werk voortduurt, zijn er talloze rechtszaken aangespannen tegen generatieve AI’s vanwege hun schending van auteursrechten en handelsmerkrechten.  

Een recenter voorbeeld met betrekking tot de schending van IE-rechten door generatieve AI’s is te zien in de rechtszaak aangespannen tegen OpenAI en Microsoft voor het gebruik van de werken van non-fictieauteurs om hun AI-modellen te trainen.

Zelfs als we van mening zijn dat de rechtbanken deze kwesties in het voordeel van de rechthebbenden beoordelen, is het probleem waarmee het IE-kader in alle rechtsgebieden wordt geconfronteerd, dat de rechtsmiddelen van rechtbanken reliëfs achteraf. Dit zijn vrijstellingen die worden toegekend zodra de schade al is toegebracht aan de eigenaren van IE-rechten. Neem het geval van de noodbibliotheek die tijdens de COVID-XNUMX-crisis door het internetarchief is opgericht. Terwijl de rechtbank de oprichting van de genoemde bibliotheek verwierp, was de schade al aangericht aan de auteurs wier boeken aan veel mensen tegelijk werden uitgeleend. Bovendien is het in een digitale economie, gedreven door data, veel gemakkelijker om auteursrechtelijk beschermd materiaal op onrechtmatige wijze te behouden, ook al is de juridische beslissing tegen de overtreder gericht. Dit is hierboven aangetoond aan de hand van het voorbeeld van Prosecraft waarin de auteurs zich zorgen maakten over de gegevens die zij hadden verzameld, ook al was de website verwijderd.

Dus in het licht van deze problemen van remedie achteraf en de verzameling van gegevens, wordt het onvermijdelijk dat er een juridisch kader komt dat de training van generatieve AI’s reguleert. We zullen nu kijken naar een dergelijk raamwerk dat in het Britse parlement is voorgesteld in de vorm van de AI Bill, 2024.

Evaluatie van de Britse AI-wet

Het Verenigd Koninkrijk Wetsvoorstel (regulering) kunstmatige intelligentie is voorgesteld met de bedoeling om kunstmatige intelligentie te reguleren en andere verbonden doeleinden. Het definieert AI in een brede zin en omvat huidige en zelfs toekomstige ontwikkelingen op dit gebied. Interessant is dat het wetsvoorstel specifiek omschrijft dat AI generatieve AI omvat, die wordt gedefinieerd als diepe of grote taalmodellen die tekst en andere inhoud kunnen genereren op basis van de gegevens waarop ze zijn getraind. Er lijkt dus een duidelijke intentie te zijn om de generatieve AI-tools te reguleren.

Het wetsvoorstel stelt de oprichting voor van een AI-autoriteit (“AA”) die verschillende functies heeft, waaronder samenwerking met andere toezichthouders om de aanpak van AI op één lijn te brengen, het accrediteren van onafhankelijke AI-auditors en het uitvoeren van hiaatanalyses van regelgevende verantwoordelijkheden. Terwijl sectie 2 voorziet in verschillende principes die de AA en bedrijven die AI ontwikkelen of gebruiken als leidraad moeten dienen, lijkt het transparantiebeginsel de hele onderbouw van het wetsvoorstel te ondersteunen.

sectie 5 van het voorgestelde wetsvoorstel gaat over de IE-kwesties die AI met zich meebrengt. Voor het trainen van generatieve AI’s bepaalt het artikel dat de persoon die betrokken is bij het trainen van AI dat moet doen leveren een record of alle gegevens en intellectuele eigendommen van derden die in die training worden gebruikt naar de AA. Bovendien moeten deze personen die de AI trainen met behulp van data dat ook doen verzekeren de AA dat de door hen gebruikte gegevens de geïnformeerde toestemming van de partijen hebben gekregen en dat zij hebben voldaan aan alle toepasselijke IE- en auteursrechtverplichtingen. Logischerwijs zouden de toekomstige gevallen die voortvloeien uit het wetsvoorstel, als het een wet zou worden, afhankelijk zijn van de garantie die aan de AA wordt gegeven.

Het wetsvoorstel voorziet ook in de interne regulering van de bedrijven die AI ontwikkelen of inzetten door de benoeming van AI-functionarissen die het veilige, ethische, onbevooroordeelde en niet-discriminerende gebruik van AI moeten garanderen. Het lijkt erop dat het wetsvoorstel, om rekening te houden met onbewuste algoritmische discriminatie, bepaalt dat de AI-modellen moeten worden ontworpen om onwettige discriminatie die voortvloeit uit invoergegevens te voorkomen.

In de huidige fase heeft het wetsvoorstel echter geen gevolgen of sancties vanwege de overtredingen ervan. Deze gevolgen zullen later via de AI-regelgeving worden geïnformeerd.

Het plan van de Britse AI Bill, zoals hierboven benadrukt, probeert de toenemende invloed van AI aan te pakken met principes als transparantie, welwillendheid, eerlijkheid en verantwoordingsplicht. Het beoogt een samenwerkingsstructuur op het gebied van AI-regelgeving op te bouwen, waarbij verantwoordelijkheden bij de belanghebbenden worden gelegd en tegelijkertijd groei wordt gewaarborgd. Het wetsvoorstel gaat rechtstreeks in op de problemen die in de voorgaande paragrafen zijn benadrukt. Het is verantwoordelijk voor de kwestie van verlichting achteraf door te voorzien in verschillende principes die moeten worden gevolgd bij de opleiding van AI’s, en behandelt ook het probleem van de gegevensaccumulatie door te zorgen voor transparantie in het systeem. Het lijkt de fundamentele zorgen met betrekking tot generatieve AI en IP-rechten aan te pakken. Hoewel het lijkt alsof een dergelijk regelgevingskader de technologische ontwikkeling zou kunnen belemmeren, ben ik van mening dat een dergelijke regelgeving noodzakelijk is om te zorgen voor een robuust AI-regime dat in overeenstemming is met de intellectuele eigendomsrechten van mensen.

Conclusie: wat kan India leren?

De problemen met betrekking tot de schending van intellectueel eigendom zijn in alle rechtsgebieden voelbaar. India ook, heeft geen speciale AI-wetgeving om kwesties op het gebied van AI aan te pakken, zoals die van generatieve AI en IE-wetgeving. Hoewel er tegen de gegevens die worden gebruikt om AI-modellen te trainen, kan worden geprocedeerd als blijkt dat deze inbreuk maken op het auteursrecht, is het ontbreken van een vooraf Het transparantieregime, de tijd en het geld die met het hele proces gemoeid zijn, en een overkoepelend orgaan dat toezicht houdt op de ontwikkeling van AI, maken het moeilijk om te zorgen voor een robuust regelgevingskader dat zich bezighoudt met kwesties die verband houden met AI, inclusief het IE-recht. 

In deze context kan het Britse wetsvoorstel worden gezien als een belangrijke ontwikkeling die ook door India kan worden gebruikt om zijn bestaande wettelijke kader opnieuw te beoordelen en tegemoet te komen aan de nieuwe kenmerken van AI. Een dergelijke wet kan helpen een gedefinieerd reguleringskader te bieden dat ook de kosten die als gevolg van de klimaatverandering ontstaan, vermindert achteraf aard van rechtsmiddelen. Bovendien kan de oprichting van een AI-orgaan een grote bijdrage leveren aan de aanpak van de problemen die de AI-ontwikkeling met zich meebrengt.

spot_img

Laatste intelligentie

spot_img