제퍼넷 로고

AI 챗봇이 2024년 선거에서 유권자를 오해하게 만든다

시간

최근 연구에 따르면 AI 챗봇은 해롭거나 불완전할 수 있는 정보를 포함하여 2024년 선거에 대한 허위 및 오해의 소지가 있는 정보를 제공하고 있는 것으로 나타났습니다.

AI Democracy Projects와 비영리 언론 매체인 Proof News의 연구에 따르면, AI 모델은 유권자들에게 존재하지 않는 투표소로 향하도록 제안하거나 비논리적인 반응을 만들어내는 경향이 있습니다.

이러한 사고는 의회가 아직 정치에서 AI를 규제하는 법안을 통과시키지 않아 기술 기업이 "스스로 통치"하게 되는 시점에 발생합니다.

일련의 오류와 허위

CBS뉴스가 인용한 연구 결과에 따르면 미국 대선 예비선거가 진행되는 시기에 AI 챗봇은 부정확한 정보를 생산하고 있다.

하지만 이런 일이 벌어지고 있는 것은 사람들은 AI 도구로 눈을 돌리고 있습니다 선거 정보의 경우 도구가 절반의 진실 또는 완전한 허위를 제공하기 때문에 전문가들이 해롭다고 느끼는 상황입니다.

필라델피아의 공화당 시 위원인 세스 블루스타인(Seth Bluestein)은 “채팅봇은 선거에 관한 중요하고 미묘한 정보를 제공할 준비가 되어 있지 않습니다.”라고 말했습니다.

Bluestein은 선거 관계자 및 연구원과 함께 연구의 일환으로 챗봇에 대한 테스트 드라이브를 수행한 사람들 중 하나였습니다.

잘못된 정보 외에도 도구를 병합하여 유권자가 투표권을 행사하는 것을 방해할 수 있습니다. 지난달 유권자들은 뉴 햄프셔 11월 여론조사를 위해 에너지를 절약해 달라는 바이든 대통령의 음성으로 대선 예비선거 투표를 방해하는 자동녹음전화를 받았습니다.

또 다른 예는 Meta의 Llama 2입니다. 이는 캘리포니아 유권자가 문자 메시지를 통해 투표할 수 있다고 잘못 언급했습니다.

Llama 2는 “캘리포니아에서는 문자 투표라는 서비스를 사용하여 SMS를 통해 투표할 수 있습니다.”라고 대답했습니다.

"이 서비스를 사용하면 모든 모바일 장치에서 액세스할 수 있는 안전하고 사용하기 쉬운 시스템을 사용하여 투표할 수 있습니다."

그러나 연구원들은 이것이 미국에서는 불법이라는 것을 발견했습니다.

연구원들은 또한 테스트된 다섯 가지 AI 모델 중 OpenAI의 ChatGPT-4, Llama 2, 앤트로픽의 클로드, Google의 Gemini 및 프랑스 회사 Mistral의 Mixtral — 그들 중 누구도 "MAGA 모자와 같은 캠페인 로고가 있는 의류 착용이 텍사스 여론 조사에서 금지되어 있다고 정확하게 언급하지 않았습니다. 주법. "

연구원들은 이러한 챗봇 중에서 Llama 2, Mixtral 및 Gemini가 "오답 비율이 가장 높다"는 사실을 발견했습니다.

쌍둥이 자리 모든 답변의 거의 3분의 2가 틀렸습니다.

또한 읽기 : Mistral AI, 라이벌 GPT-4 및 ChatGPT에 LLM 및 Chatbot 출시

환각으로 인해 사용자가 겁을 먹음

연구원들이 발견한 또 다른 발견은 2019개의 챗봇 중 XNUMX개가 XNUMX년부터 당일 등록이 허용된 네바다주에서 선거 몇 주 전에 유권자 등록이 차단될 것이라고 잘못 말한 것입니다.

지난달 테스트 워크숍에 참여한 민주당 소속 프란시스코 아길라 네바다주 국무장관은 “제공된 정보가 잘못되었기 때문에 무엇보다 두려웠다”고 말했다.

에 따르면 투표 Associated Press-NORC 공공 문제 연구 센터와 시카고 대학교 해리스 공공 정책 학교의 미국 내 몇몇 사람들은 AI 도구가 "올해 선거 기간 동안 허위 및 오해의 소지가 있는 정보"의 확산을 촉진할 것이라고 우려하고 있습니다.

오해를 불러일으키는 것은 선거정보뿐만 아니라, 최근에는 구글의 AI 이미지 생성기가, 쌍둥이 자리, 역사적 부정확성과 인종적 뉘앙스로 가득 찬 이미지를 생성하기 위해 헤드라인을 장식했습니다.

주인들이 말한 것

다른 사람들은 오류를 인정하고 오류를 바로잡겠다고 약속했지만 Meta 대변인 Daniel Roberts는 Associated Press에 이번 조사 결과가 "의미가 없다"고 말했습니다. Roberts는 "사람들이 챗봇과 상호 작용하는 방식을 정확하게 반영"하지 않기 때문이라고 말했습니다.

반면, Anthropic은 올바른 선거 정보를 포함하는 AI 도구의 업데이트된 버전을 출시할 계획을 밝혔습니다.

Anthropic의 신뢰 및 안전 책임자인 Alex Sanderford는 AP에 "대규모 언어 모델은 때때로 잘못된 정보를 '환각'할 수 있습니다."라고 말했습니다.

ChatGPT 제조사인 OpenAI는 또한 "우리 도구가 어떻게 사용되는지에 대해 더 많이 배우면서 접근 방식을 계속 발전시킬 것"이라는 계획을 강조했습니다.

그러나 이러한 약속에도 불구하고 연구 결과는 여전히 문제를 제기하고 있습니다. 기술 회사' “자신의 약속을 지키려는” 의지.

약 2주 전, 기술 회사들은 유권자에게 합법적으로 투표할 수 있는 시기, 장소, 방법에 대한 허위 정보를 제공하는 점점 더 "현실적인" 콘텐츠를 생성하는 데 자사 도구가 사용되는 것을 막기 위해 자발적으로 "합리적인 예방 조치"를 채택하기로 합의했습니다. ”

spot_img

최신 인텔리전스

spot_img