Zephyrnet-logo

De gemeenteraad in Brazilië keurt het door ChatGPT geschreven voorstel goed

Datum:

De gemeenteraad van Porto Alegre, een stad in het zuiden van Brazilië, heeft de wetgeving goedgekeurd die is opgesteld door ChatGPT. 

De verordening moet voorkomen dat de stad belastingbetalers geld in rekening brengt voor het vervangen van door dieven gestolen watermeters. Een stemming van 36 leden van de raad keurde het voorstel unaniem goed, dat eind november in werking trad. 

Maar wat de meesten van hen niet wisten, was dat de tekst voor het voorstel was gegenereerd door een AI-chatbot, totdat raadslid Ramiro Rosário toegaf dat hij ChatGPT had gebruikt om het te schrijven.

“Als ik het eerder had onthuld, zou het voorstel zeker niet eens in stemming zijn gebracht”, zegt hij vertelde de Associated Press.

Dit is de allereerste wetgeving die door AI is geschreven en die is aangenomen door wetgevers waar wij aasgieren van op de hoogte zijn; als je andere door robo geschreven wetten, contracten of dergelijke interessante dingen kent, doe dat dan Laat het ons weten. Voor alle duidelijkheid: ChatGPT werd niet gevraagd om met het idee te komen, maar werd gebruikt als hulpmiddel om de kleine lettertjes op te schrijven. Rosário zei dat hij een prompt van 49 woorden gebruikte om de grillige chatbot van OpenAI te instrueren om de volledige versie van het voorstel te genereren. 

Aanvankelijk keurde gemeenteraadsvoorzitter Hamilton Sossmeier de methoden van zijn collega af en vond hij dat Rosário een ‘gevaarlijk precedent’ had geschapen. Later veranderde hij echter van gedachten en zei: ‘Ik begon dieper te lezen en zag dat dit, helaas of gelukkig, een trend gaat worden.’

Sossmeier heeft misschien gelijk. In de VS haalden senator Barry Finegold en vertegenwoordiger van de staat Massachusetts eerder dit jaar de krantenkoppen vanwege hun Bill getiteld: “Een wet opgesteld met behulp van ChatGPT om generatieve kunstmatige intelligentiemodellen zoals ChatGPT te reguleren.”

Het tweetal is van mening dat ingenieurs op het gebied van machinaal leren digitale watermerken moeten opnemen in elke tekst die door grote taalmodellen wordt gegenereerd om plagiaat te detecteren (en vermoedelijk mensen in staat te stellen te weten wanneer iets door de computer is gemaakt); expliciete toestemming van mensen verkrijgen voordat ze hun gegevens verzamelen of gebruiken voor het trainen van neurale netwerken; en voeren regelmatig risicobeoordelingen van hun technologie uit.

Het gebruik van grote taalmodellen zoals ChatGPT om juridische documenten te schrijven is momenteel controversieel en riskant, vooral omdat de systemen de neiging hebben informatie te verzinnen en te hallucineren. In juni kwamen advocaten Steven Schwartz en Peter LoDuca die Levidow, Levidow & Oberman vertegenwoordigden, een advocatenkantoor gevestigd in New York, onder vuur te liggen omdat ze in een rechtszaak nep-rechtszaken aanhaalden die door ChatGPT waren verzonnen.

Ze klaagden de Colombiaanse luchtvaartmaatschappij Avianca aan namens een passagier die gewond raakte aan boord van een vlucht uit 2019, en vroegen ChatGPT om soortgelijke gevallen terug te roepen om aan te halen, wat ze ook deden, maar ze verbeeldden zich er ook gewoon een paar. Schwartz en LoDuca gaven hun fout destijds toe aan het niet begrijpen van de beperkingen van de chatbot, en beweerden dat ze niet wisten dat deze informatie kon hallucineren.

Rechter Kevin Castel van de Southern District Court van New York realiseerde de zaken waren nep toen advocaten van de tegenpartij de aangehaalde gerechtelijke documenten niet konden vinden en Schwartz en LoDuca vroegen hun bronnen te citeren. Castel legde hen beiden een boete van $ 5,000 op en verwierp de rechtszaak volledig. 

“De les hier is dat je de zaken waarvoor een advocaat verantwoordelijk is niet aan een machine kunt delegeren”, zegt Stephen Wu, aandeelhouder van Silicon Valley Law Group en voorzitter van het Artificial Intelligence and Robotics National Institute van de American Bar Association. eerder verteld Het register.

Rosário gelooft echter dat de technologie effectief kan worden gebruikt. “Ik ben ervan overtuigd dat … de mensheid een nieuwe technologische revolutie zal meemaken. Alle instrumenten die we als beschaving hebben ontwikkeld, kunnen voor kwaad en goed worden gebruikt. Daarom moeten we laten zien hoe het ten goede kan worden gebruikt”, zei hij. ®

PS: Amazone aangekondigd zijn Q-chatbot op re:Invent deze week, een digitale assistent voor het bewerken van code, het gebruik van AWS-bronnen en meer. Het is beschikbaar als preview-versie, en omdat het een LLM-systeem is, dachten we dat het dingen zou verzinnen en dingen verkeerd zou doen. En we hadden gelijk: interne documenten gelekt to Platformer beschrijft het neurale netwerk “dat ernstige hallucinaties ervaart en vertrouwelijke gegevens lekt.”

spot_img

Laatste intelligentie

spot_img