Zephyrnet-logo

AI-chatbots die verkiezingsleugens voor 2024 verspreiden, misleiden kiezers

Datum:

Uit een recent onderzoek is gebleken dat AI-chatbots valse en misleidende informatie geven over de verkiezingen van 2024, inclusief informatie die schadelijk of onvolledig zou kunnen zijn.

Volgens een onderzoek van AI Democracy Projects en een non-profit mediabedrijf, Proof News, zijn AI-modellen geneigd te suggereren dat kiezers naar stembureaus gaan die niet bestaan, of onlogische antwoorden te verzinnen.

Deze ongelukken komen naar voren in een tijd waarin het Congres nog geen wetten moet aannemen die AI in de politiek reguleren, waardoor technologiebedrijven ‘zichzelf moeten regeren’.

Een reeks fouten en onwaarheden

Volgens de resultaten van het onderzoek, geciteerd door CBS News, produceren de AI-chatbots onnauwkeurige informatie in een tijd waarin de VS presidentiële voorverkiezingen doormaken.

Toch gebeurt dit in een tijd waarin er veel gebeurt mensen wenden zich tot AI-tools voor verkiezingsinformatie is een situatie die volgens deskundigen schadelijk is, omdat de instrumenten halve waarheden of volledige onwaarheden opleveren.

“De chatbots zijn niet klaar voor primetime als het gaat om het geven van belangrijke, genuanceerde informatie over verkiezingen”, zegt Seth Bluestein, een Republikeinse stadscommissaris in Philadelphia.

Bluestein was een van degenen die, samen met verkiezingsfunctionarissen en onderzoekers, als onderdeel van het onderzoek een proefrit met de chatbots uitvoerde.

Naast de verkeerde informatie zijn ook de instrumenten samengevoegd, die kiezers kunnen ontmoedigen hun stemrecht uit te oefenen. Vorige maand kwamen de kiezers binnen New Hampshire ontvingen robocalls waarbij de stem van president Biden hen ontmoedigde om te stemmen in de presidentiële voorverkiezingen, met het verzoek hun energie te sparen voor de verkiezingen in november.

Een ander voorbeeld is Meta's Llama 2, waarin ten onrechte werd gezegd dat kiezers in Californië hun stem via sms-berichten konden uitbrengen.

“In Californië kun je via sms stemmen met behulp van een dienst genaamd Vote by Text”, antwoordde Llama 2.

“Met deze dienst kunt u uw stem uitbrengen via een veilig en gebruiksvriendelijk systeem dat toegankelijk is vanaf elk mobiel apparaat.”

De onderzoekers ontdekten echter dat dit illegaal is in de VS.

De onderzoekers ontdekten ook dat van alle vijf AI-modellen die werden getest (OpenAI's ChatGPT-4, Llama 2, Claude van Anthropic, Gemini van Google en Mixtral van het Franse bedrijf Mistral – geen van hen “stelde terecht dat het dragen van kleding met campagnelogo’s, zoals MAGA-hoeden, verboden is bij stembureaus in Texas onder de wetten van de staat. '

Van deze chatbots ontdekten de onderzoekers dat Llama 2, Mixtral en Gemini de ‘hoogste percentages foute antwoorden’ hadden.

Gemini had bijna tweederde van alle antwoorden fout.

Lees ook: Mistral AI brengt LLM en Chatbot uit voor Rival GPT-4 en ChatGPT

De hallucinaties maken gebruikers bang

Een andere ontdekking die de onderzoekers deden is dat vier van de vijf chatbots ten onrechte zeiden dat kiezers zich weken vóór de verkiezingen in Nevada niet zouden kunnen registreren, waar registratie op dezelfde dag sinds 2019 is toegestaan.

“Het maakte mij vooral bang, omdat de verstrekte informatie verkeerd was”, zei Francisco Aguilar, minister van Buitenlandse Zaken van Nevada, een democraat die vorige maand aan de testworkshop deelnam.

Think een peiling van het Associated Press-NORC Center for Public Affairs Research en de University of Chicago Harris School of Public Policy zijn verschillende mensen in de VS bang dat de AI-instrumenten de verspreiding van “valse en misleidende informatie tijdens de verkiezingen van dit jaar” zullen aanwakkeren.

Het is niet alleen de verkiezingsinformatie die misleidend is, maar onlangs heeft de AI-beeldgenerator van Google, Gemini, haalde de krantenkoppen voor het genereren van beelden vol historische onnauwkeurigheden en raciale nuances.

Wat de eigenaren zeiden

Terwijl anderen de fouten erkenden en beloofden de fouten te corrigeren, zei Meta-woordvoerder Daniel Roberts tegen de Associated Press dat de bevindingen ‘zinloos’ zijn. Dit komt, zegt Roberts, omdat ze niet precies “de manier weerspiegelen waarop mensen omgaan met chatbots.”

Aan de andere kant gaf Anthropic plannen aan om een ​​bijgewerkte versie van zijn AI-tool uit te rollen met de juiste verkiezingsinformatie.

“Grote taalmodellen kunnen soms onjuiste informatie ‘hallucineren’,” vertelde Alex Sanderford, Trust and Safety Lead van Anthropic, aan de AP.

ChatGPT maker OpenAI benadrukte ook plannen om “onze aanpak te blijven ontwikkelen terwijl we meer leren over hoe onze tools worden gebruikt.”

Ondanks deze toezeggingen roepen de bevindingen van het onderzoek echter nog steeds vragen op over de technologiebedrijven bereidheid om “hun eigen beloften na te komen.”

Ongeveer veertien dagen geleden ondertekenden technologiebedrijven een pact om vrijwillig ‘redelijke voorzorgsmaatregelen’ te nemen om te voorkomen dat hun tools worden gebruikt voor het genereren van steeds ‘realistischere’ inhoud die ‘valse informatie biedt aan kiezers over wanneer, waar en hoe ze legaal kunnen stemmen. ”

spot_img

Laatste intelligentie

spot_img