Zephyrnet-logo

OpenAI wordt geconfronteerd met een rechtszaak wegens smaad terwijl ChatGPT valse beschuldigingen genereert tegen de radiopresentator

Datum:

OpenAI, de bekende kunstmatige intelligentie bedrijf, worstelt nu met een rechtszaak wegens laster die voortvloeit uit de fabricage van valse informatie door hun taalmodel, ChatGPT. Mark Walters, een radiopresentator in Georgia, heeft een rechtszaak aangespannen tegen OpenAI nadat ChatGPT hem valselijk beschuldigde van oplichting en verduistering van fondsen van een non-profitorganisatie. Het incident geeft aanleiding tot bezorgdheid over de betrouwbaarheid van door AI gegenereerde informatie en de mogelijke schade die dit kan aanrichten. Deze baanbrekende rechtszaak heeft veel aandacht getrokken vanwege het groeiende aantal verkeerde informatie en de implicaties ervan voor wettelijke aansprakelijkheid.

Radiopresentator Mark Walters heeft een rechtszaak wegens smaad aangespannen tegen OpenAI omdat zijn AI-chatbot ChatGPT valse beschuldigingen tegen hem genereerde.

De beschuldigingen: gefabriceerde claims van ChatGPT tegen Mark Walters

In deze smaadzaak beschuldigt Mark Walters OpenAI van het genereren van valse beschuldigingen tegen hem via ChatGPT. De radiopresentator beweert dat een journalist genaamd Fred Riehl ChatGPT heeft verzocht om een ​​echte federale rechtszaak samen te vatten door een link naar een online pdf te geven. ChatGPT creëerde echter een gedetailleerde en overtuigende valse samenvatting die verschillende onnauwkeurigheden bevatte, wat leidde tot laster tegen Mark Walters.

De groeiende bezorgdheid over desinformatie gegenereerd door AI

Valse informatie gegenereerd door AI-systemen zoals ChatGPT is een urgent probleem geworden. Deze systemen missen een betrouwbare methode om feit van fictie te onderscheiden. Ze produceren vaak verzonnen data, feiten en cijfers wanneer ze om informatie worden gevraagd, vooral als ze worden gevraagd iets te bevestigen dat al is gesuggereerd. Hoewel deze verzinsels de gebruikers meestal misleiden of tijd verspillen, zijn er gevallen waarin dergelijke fouten schade hebben veroorzaakt.

Lees ook: EU roept op tot maatregelen om deepfakes en AI-inhoud te identificeren

Gevolgen in de praktijk: verkeerde informatie leidt tot schade

De opkomst van gevallen waarin door AI gegenereerde verkeerde informatie schade veroorzaakt, baart ernstige zorgen. Zo dreigde een professor zijn studenten te laten zakken nadat ChatGPT ten onrechte had beweerd dat ze AI hadden gebruikt om hun essays te schrijven. Bovendien kreeg een advocaat te maken met mogelijke sancties nadat hij ChatGPT had gebruikt om niet-bestaande rechtszaken te onderzoeken. Deze incidenten benadrukken de risico's die gepaard gaan met het vertrouwen op door AI gegenereerde inhoud.

Lees ook: Advocaat voor de gek gehouden door nep juridisch onderzoek van ChatGPT

OpenAI's ChatGPT creëert alternatieve feiten die echte problemen veroorzaken.

Verantwoordelijkheid en disclaimers van OpenAI

OpenAI bevat een kleine disclaimer op de startpagina van ChatGPT, waarin wordt erkend dat het systeem "af en toe onjuiste informatie kan genereren". Het bedrijf promoot ChatGPT echter ook als een betrouwbare gegevensbron en moedigt gebruikers aan om "antwoorden te krijgen" en "iets nieuws te leren". De CEO van OpenAI, Sam Altman, leert liever van ChatGPT dan uit boeken. Dit roept vragen op over de verantwoordelijkheid van het bedrijf om de juistheid van de gegenereerde informatie te waarborgen.

Lees ook: Hoe goed zijn door mensen getrainde AI-modellen voor het trainen van mensen?

Het bepalen van de wettelijke aansprakelijkheid van bedrijven voor valse of lasterlijke informatie gegenereerd door AI-systemen vormt een uitdaging. Internetbedrijven worden traditioneel beschermd door Sectie 230 in de VS, waardoor ze worden beschermd tegen wettelijke aansprakelijkheid voor door derden gegenereerde inhoud die op hun platforms wordt gehost. Het blijft echter onzeker of deze beveiligingen zich uitstrekken tot AI-systemen die onafhankelijk informatie genereren, inclusief valse gegevens.

Lees ook: China's voorgestelde AI-regelgeving schudt de industrie

De rechtszaak wegens smaad die Mark Walters in Georgië heeft aangespannen, zou mogelijk het bestaande wettelijke kader kunnen aanvechten. Volgens de zaak vroeg journalist Fred Riehl aan ChatGPT om een ​​pdf samen te vatten, waarop ChatGPT antwoordde met een valse maar overtuigende samenvatting. Hoewel Riehl de valse informatie niet publiceerde, werden de details bij een andere partij gecontroleerd, wat ertoe leidde dat Walters de verkeerde informatie ontdekte. De rechtszaak zet vraagtekens bij de aansprakelijkheid van OpenAI voor dergelijke incidenten.

Er is bezorgdheid over de echtheid van door AI gegenereerde inhoud, aangezien AI valse informatie genereert.

Beperkingen van ChatGPT en misleiding door gebruikers

Met name ChatGPT heeft, ondanks het voldoen aan het verzoek van Riehl, geen toegang tot externe gegevens zonder aanvullende plug-ins. Deze beperking geeft aanleiding tot bezorgdheid over het potentieel om gebruikers te misleiden. Hoewel ChatGPT gebruikers niet op dit feit kan wijzen, reageerde het anders toen het later werd getest, waarbij duidelijk werd aangegeven dat het geen toegang had tot specifieke pdf-bestanden of externe documenten.

Lees ook: Bouw een ChatGPT voor pdf's met Langchain

Eugene Volokh, een professor in de rechten die gespecialiseerd is in aansprakelijkheid voor AI-systemen, is van mening dat smaadclaims tegen AI-bedrijven in theorie juridisch levensvatbaar zijn. Hij stelt echter dat de rechtszaak van Walters voor uitdagingen kan komen te staan. Volokh merkt op dat Walters OpenAI niet op de hoogte heeft gebracht van de valse verklaringen, waardoor ze de kans hebben ontnomen om de situatie recht te zetten. Bovendien is er geen bewijs van daadwerkelijke schade als gevolg van de output van ChatGPT.

Ons zeggen

OpenAI is verwikkeld in een baanbrekende rechtszaak wegens laster, aangezien ChatGPT valse beschuldigingen genereert tegen radiopresentator Mark Walters. Deze zaak benadrukt de toenemende zorgen over door AI gegenereerde desinformatie en de mogelijke gevolgen ervan. Aangezien juridische voorrang en aansprakelijkheid in AI-systemen in twijfel worden getrokken, kan de uitkomst van deze rechtszaak het toekomstige landschap van door AI gegenereerde inhoud en de verantwoordelijkheid van bedrijven zoals OpenAI bepalen.

spot_img

Laatste intelligentie

spot_img