Zephyrnet-logo

Google voorkomt dat AI Gemini-chatbot verkiezingstoespraak bespreekt

Datum:

Tyler Kruis


Tyler Kruis

Gepubliceerd op: 13 maart 2024

Het door Google gecreëerde Gemini AI-model mag tijdens de verkiezingscyclus van 2024 niet meer worden gesproken. Meerdere technologiebedrijven, waaronder Google, hebben het afgelopen jaar enorme doorbraken geboekt op het gebied van AI-technologie. AI-modellen zijn echter krachtig genoeg geworden om grootschalige verkiezingsfraude te veroorzaken en politieke propagandacampagnes aan te wakkeren als ze in verkeerde handen vallen.

Nu AI op grotere schaal beschikbaar wordt, blijven Amerikaanse kiezers met de begrijpelijke zorg zitten dat bedrijven als Google hun AI-modellen zouden kunnen gebruiken om het verloop van de verkiezingen te veranderen door het verspreiden van verkeerde informatie. Veel gebruikers melden al dat modellen als Gemini en ChatGPT duidelijke politieke vooroordelen hebben in hun schrijven.

Alphabet (het moederbedrijf van Google) komt tegemoet aan de zorgen van mensen door de bedrijfsprincipes te versterken. Ze hebben verkiezingsuitspraken tijdens de verkiezingscyclus van 2024 volledig verboden.

Als je Gemini-verkiezingsgerelateerde vragen stelt over Donald Trump, Joe Biden of andere kandidaten, antwoordt de chatbot eenvoudigweg: “Ik leer nog steeds hoe ik deze vraag moet beantwoorden. Probeer in de tussentijd Google Zoeken.”

Deze beperkingen werden voor het eerst aangekondigd in december. Google legde uit dat ze deze verdedigingsmechanismen vroegtijdig wilden invoeren, zodat actoren (of zelfs het bedrijf zelf) geen kans zouden krijgen om deze te gebruiken om desinformatie te verspreiden.

“Ter voorbereiding op de vele verkiezingen die in 2024 over de hele wereld plaatsvinden en uit een overvloed aan voorzichtigheid over zo’n belangrijk onderwerp, zullen we binnenkort de soorten verkiezingsgerelateerde vragen beperken waarop Gemini antwoorden zal geven”, zegt een woordvoerder van Google.

De aanscherping van de verkiezingsuitspraken in Gemini staat in schril contrast met de recente beslissingen van OpenAI. Het bedrijf achter ChatGPT heeft slechte pers gekregen nadat het terugkwam op twee belangrijke beveiligingsclausules. De servicevoorwaarden van ChatGPT stonden aanvankelijk het gebruik in politieke campagnes of het leger niet toe.

In de loop van de tijd heeft ChatGPT zijn servicevoorwaarden gewijzigd om alleen ‘risicovol’ gebruik van ChatGPT in politieke campagnes te verbieden en het leger het voor alles behalve het bouwen van wapens te laten gebruiken.

spot_img

Laatste intelligentie

spot_img