Logo Zephyrnet

Chatbots AI tung ra cuộc bầu cử năm 2024 lừa dối cử tri

Ngày:

Một nghiên cứu gần đây đã xác định rằng các chatbot AI đang đưa ra thông tin sai lệch và gây hiểu lầm về cuộc bầu cử năm 2024, bao gồm cả thông tin có thể gây hại hoặc không đầy đủ.

Theo một nghiên cứu của Dự án Dân chủ AI và cơ quan truyền thông phi lợi nhuận Proof News, các mô hình AI có xu hướng gợi ý cử tri đến các địa điểm bỏ phiếu không tồn tại hoặc phát minh ra những phản ứng phi logic.

Những rủi ro này xuất hiện vào thời điểm Quốc hội vẫn chưa thông qua luật điều chỉnh AI trong chính trị, khiến các công ty công nghệ phải “tự quản lý”.

Một chuỗi sai sót và sai lầm

Theo kết quả nghiên cứu được CBS News trích dẫn, các chatbot AI đang tạo ra thông tin không chính xác vào thời điểm Mỹ đang trải qua các cuộc bầu cử tổng thống sơ bộ.

Tuy nhiên, điều này đang xảy ra vào thời điểm mà rất nhiều mọi người đang chuyển sang các công cụ AI đối với thông tin bầu cử, một tình huống mà các chuyên gia cảm thấy là bất lợi vì các công cụ này đang cung cấp thông tin nửa thật hoặc hoàn toàn sai sự thật.

Seth Bluestein, ủy viên thành phố Đảng Cộng hòa ở Philadelphia, cho biết: “Các chatbot chưa sẵn sàng để cung cấp thông tin quan trọng, mang tính sắc thái về các cuộc bầu cử”.

Bluestein nằm trong số những người cùng với các quan chức bầu cử và nhà nghiên cứu đã thực hiện thử nghiệm các chatbot như một phần của nghiên cứu.

Ngoài thông tin sai lệch, nó còn hợp nhất các công cụ, có thể ngăn cản cử tri thực hiện quyền bầu cử của mình. Tháng trước, cử tri ở New Hampshire đã nhận được các cuộc gọi tự động với giọng nói của Tổng thống Biden ngăn cản họ bỏ phiếu trong các cuộc bầu cử sơ bộ tổng thống, yêu cầu họ dành sức cho cuộc bầu cử tháng 11.

Một ví dụ khác là Llama 2 của Meta, trong đó nói không chính xác rằng cử tri ở California có thể bỏ phiếu qua tin nhắn văn bản.

Llama 2 trả lời: “Ở California, bạn có thể bỏ phiếu qua SMS bằng dịch vụ có tên là Bỏ phiếu bằng tin nhắn”.

“Dịch vụ này cho phép bạn bỏ phiếu bằng hệ thống an toàn và dễ sử dụng, có thể truy cập được từ mọi thiết bị di động.”

Tuy nhiên, các nhà nghiên cứu phát hiện ra rằng điều này là bất hợp pháp ở Mỹ.

Các nhà nghiên cứu cũng phát hiện ra rằng trong số tất cả năm mô hình AI đã được thử nghiệm—ChatGPT-4, Llama 2 của OpenAI, Claude của Anthropic, Gemini của Google và công ty Mistral's Mixtral của Pháp—không ai trong số họ “tuyên bố chính xác rằng việc mặc quần áo có biểu tượng chiến dịch, chẳng hạn như mũ MAGA, bị cấm tại các cuộc thăm dò ở Texas theo Đạo luật luật pháp của tiểu bang".

Trong số các chatbot này, các nhà nghiên cứu phát hiện ra rằng Llama 2, Mixtral và Gemini có “tỷ lệ trả lời sai cao nhất”.

Gemini có gần 2/3 số câu trả lời sai.

Ngoài ra đọc: Mistral AI phát hành LLM và Chatbot để cạnh tranh với GPT-4 và ChatGPT

Những ảo giác khiến người dùng sợ hãi

Một phát hiện khác mà các nhà nghiên cứu đưa ra là 2019 trong số XNUMX chatbot nói sai cử tri sẽ bị chặn đăng ký vài tuần trước cuộc bầu cử ở Nevada, nơi cho phép đăng ký cùng ngày kể từ năm XNUMX.

Ngoại trưởng Nevada Francisco Aguilar, một đảng viên Đảng Dân chủ, người đã tham gia hội thảo thử nghiệm tháng trước, cho biết: “Tôi sợ hơn bất cứ điều gì vì thông tin được cung cấp sai.

Theo một cuộc thăm dò ý kiến từ Associated Press-Trung tâm Nghiên cứu Quan hệ Công chúng NORC và Trường Chính sách Công Harris của Đại học Chicago, một số người ở Hoa Kỳ lo ngại các công cụ AI sẽ thúc đẩy sự lan truyền “thông tin sai lệch và gây hiểu lầm trong cuộc bầu cử năm nay”.

Không chỉ thông tin bầu cử bị sai lệch mà gần đây, công cụ tạo hình ảnh AI của Google, Song Tử, đã gây chú ý vì tạo ra những hình ảnh chứa đầy thông tin không chính xác về lịch sử và sắc thái chủng tộc.

Những gì chủ sở hữu nói

Trong khi những người khác thừa nhận sai sót và cam kết sửa chữa sai sót, phát ngôn viên của Meta, Daniel Roberts nói với Associated Press rằng những phát hiện này là “vô nghĩa”. Roberts cho biết, điều này là do họ không “phản ánh chính xác cách mọi người tương tác với chatbot”.

Mặt khác, Anthropic cho biết có kế hoạch tung ra phiên bản cập nhật của công cụ AI với thông tin bầu cử chính xác.

Alex Sanderford, Trưởng nhóm An toàn và Tin cậy của Anthropic, nói với AP: “Các mô hình ngôn ngữ lớn đôi khi có thể 'gây ảo giác' thông tin không chính xác.

ChatGPT nhà sản xuất OpenAI cũng nhấn mạnh kế hoạch “tiếp tục phát triển cách tiếp cận của chúng tôi khi chúng tôi tìm hiểu thêm về cách sử dụng các công cụ của mình”.

Tuy nhiên, bất chấp những cam kết này, những phát hiện của nghiên cứu vẫn đặt ra câu hỏi về các hãng công nghệ' sẵn sàng “tuân thủ những cam kết của chính mình”.

Khoảng hai tuần trước, các công ty công nghệ đã ký một hiệp ước tự nguyện áp dụng “các biện pháp phòng ngừa hợp lý” nhằm ngăn chặn việc sử dụng các công cụ của họ để tạo ra nội dung ngày càng “thực tế” cung cấp “thông tin sai lệch cho cử tri về thời gian, địa điểm và cách họ có thể bỏ phiếu hợp pháp. ”

tại chỗ_img

Tin tức mới nhất

tại chỗ_img