Zephyrnet-Logo

Google verhindert, dass der AI Gemini-Chatbot über Wahlreden spricht

Datum:

Tyler Kreuz


Tyler Kreuz

Veröffentlicht am: 13. März 2024

Dem von Google entwickelten Gemini-KI-Modell wurde die Wahlbeteiligung im Wahlzyklus 2024 untersagt. Mehrere Technologieunternehmen, darunter Google, haben im vergangenen Jahr große Durchbrüche in der KI-Technologie erzielt. Allerdings sind KI-Modelle mittlerweile mächtig genug, um groß angelegten Wahlbetrug auszulösen und politische Propagandakampagnen anzuheizen, wenn sie in die falschen Hände geraten.

Angesichts der zunehmenden Verfügbarkeit von KI haben US-Wähler verständlicherweise die Sorge, dass Unternehmen wie Google ihre KI-Modelle nutzen könnten, um den Verlauf von Wahlen durch die Verbreitung von Fehlinformationen zu ändern. Viele Nutzer berichten bereits, dass Models wie Gemini und ChatGPT in ihren Texten klare politische Vorurteile haben.

Alphabet (die Muttergesellschaft von Google) geht auf die Anliegen der Menschen ein, indem es die Grundsätze seines Unternehmens stärkt. Sie haben das Wahlreden während des Wahlzyklus 2024 vollständig verboten.

Wenn Sie Gemini wahlbezogene Fragen zu Donald Trump, Joe Biden oder anderen Kandidaten stellen, antwortet der Chatbot einfach: „Ich lerne immer noch, wie ich diese Frage beantworten soll.“ Versuchen Sie es in der Zwischenzeit mit der Google-Suche.“

Diese Einschränkungen wurden erstmals bereits im Dezember angekündigt. Google erklärte, dass sie diese Abwehrmaßnahmen frühzeitig einführen wollten, damit Akteure (oder sogar das Unternehmen selbst) keine Chance hätten, sie zur Verbreitung von Fehlinformationen zu nutzen.

„In Vorbereitung auf die vielen Wahlen, die im Jahr 2024 weltweit stattfinden, und aus größter Vorsicht bei einem so wichtigen Thema werden wir bald die Arten von wahlbezogenen Anfragen einschränken, auf die Gemini Antworten zurückgibt“, erklärt ein Google-Sprecher.

Die Verschärfung der Wahlrede bei Gemini steht in krassem Gegensatz zu den jüngsten Entscheidungen von OpenAI. Das Unternehmen hinter ChatGPT hat sich schlechte Presse eingehandelt, nachdem es zwei wichtige Sicherheitsklauseln zurückgenommen hat. Die Nutzungsbedingungen von ChatGPT erlaubten zunächst keine Nutzung in politischen Kampagnen oder beim Militär.

Im Laufe der Zeit änderte ChatGPT seine Nutzungsbedingungen dahingehend, dass nur noch die „riskante“ Verwendung von ChatGPT in politischen Kampagnen verboten wurde und das Militär es für alles andere als den Waffenbau verwenden durfte.

spot_img

Neueste Intelligenz

spot_img