Logo Zephyrnet

OpenAI loại trừ việc sử dụng trong bầu cử và đàn áp cử tri

Ngày:

Trong một động thái quyết định nhằm chống lại thông tin sai lệch trong bầu cử, OpenAI đã tuyên bố lập trường nghiêm khắc chống lại việc sử dụng các công cụ AI tổng quát của nó trong các chiến dịch bầu cử và chiến thuật đàn áp cử tri.

Thông báo này là một bước thiết yếu nhằm đảm bảo tính trung thực của nhiều cuộc bầu cử quan trọng dự kiến ​​diễn ra vào năm 2024.

Ngoài ra đọc: OpenAI đàm phán cấp phép nội dung tin tức với CNN, Fox và Time

Chống lạm dụng bằng đổi mới và chính sách

OpenAI đã khởi xướng một chiến lược bảo vệ công nghệ của mình khỏi bị khai thác nhằm thao túng kết quả bầu cử. Công ty đã thành lập một nhóm chuyên trách tập trung vào các vấn đề liên quan đến bầu cử, kết hợp kiến ​​thức chuyên môn từ nhiều bộ phận khác nhau, bao gồm pháp lý, kỹ thuật và chính sách. Mục đích chính của nhóm này là xác định và giảm thiểu khả năng lạm dụng AI trong các cuộc bầu cử.

“Chúng tôi có nỗ lực đa chức năng dành riêng cho công việc bầu cử, tập hợp kiến ​​thức chuyên môn từ các nhóm hệ thống an toàn, tình báo về mối đe dọa, pháp lý, kỹ thuật và chính sách của chúng tôi.”

Mối đe dọa về thông tin sai lệch trong chính trị không phải là mới, tuy nhiên sự ra đời của công nghệ AI đặt ra những thách thức chưa từng có. Nhận thức được điều này, OpenAI đang thực hiện các biện pháp chủ động. Công ty có kế hoạch sử dụng kết hợp các kỹ thuật như đội đỏ, sự tham gia của người dùng và các biện pháp bảo vệ an toàn. Cụ thể, hình ảnh của họ công cụ tạo, DALL-E, đã được cập nhật để ngăn chặn việc tạo ra các hình ảnh mô tả người thật, bao gồm cả các ứng cử viên chính trị.

“DALL·E có các biện pháp bảo vệ để từ chối các yêu cầu yêu cầu tạo hình ảnh của người thật, bao gồm cả các ứng viên.”

OpenAI liên tục sửa đổi các chính sách người dùng của mình để theo kịp bối cảnh phát triển của công nghệ AI và khả năng lạm dụng nó. Các chính sách an toàn được cập nhật của nó hiện hạn chế rõ ràng việc phát triển các ứng dụng AI cho chiến dịch chính trị và vận động hành lang. Ngoài ra, các biện pháp đã được đưa ra để ngăn chặn việc tạo ra các chatbot bắt chước người hoặc tổ chức thật.

Tăng cường tính minh bạch và trách nhiệm giải trình

Một thành phần quan trọng trong chiến lược của OpenAI là giới thiệu bộ phân loại xuất xứ cho công cụ DALL-E của nó. Tính năng này hiện đang trong giai đoạn thử nghiệm beta, có thể phát hiện hình ảnh do DALL-E tạo ra. Công ty đặt mục tiêu làm cho công cụ này có thể tiếp cận được với các nhà báo, nền tảng và nhà nghiên cứu để nâng cao tính minh bạch trong nội dung do AI tạo ra.

“Chúng tôi dự định sẽ sớm cung cấp tính năng này cho nhóm người thử nghiệm đầu tiên của chúng tôi—bao gồm các nhà báo, nền tảng và nhà nghiên cứu—để lấy ý kiến ​​phản hồi.”

OpenAI cũng đang tích hợp tính năng báo cáo tin tức theo thời gian thực vào ChatGPT. Việc tích hợp này nhằm mục đích cung cấp cho người dùng thông tin chính xác và kịp thời, tăng cường tính minh bạch xung quanh các nguồn thông tin do AI cung cấp.

Trong nỗ lực chung với Hiệp hội Ngoại trưởng Quốc gia Hoa Kỳ, OpenAI tập trung vào việc ngăn chặn công nghệ của mình ngăn cản việc tham gia bầu cử. Hoạt động nhóm bao gồm việc hướng người dùng chatbot hỗ trợ GPT đến các trang web thông tin bỏ phiếu đáng tin cậy như CanIVote.org.

Các đối thủ nối gót trong cuộc đua AI

Thông báo của OpenAI đã tạo tiền lệ trong ngành AI, với các đối thủ như Google LLC và Meta Platforms Inc. cũng thực hiện các biện pháp chống lại thông tin sai lệch lan truyền thông qua công nghệ của họ. Nỗ lực tập thể này của các nhà lãnh đạo ngành thể hiện nhận thức và trách nhiệm ngày càng tăng đối với tác động tiềm tàng của AI đối với các quy trình dân chủ.

Nhưng điều này có đủ không? Charles King của Pund-IT Inc. nêu ra một điểm quan trọng, đặt câu hỏi liệu những biện pháp này là kịp thời hay mang tính phản ứng. Ông lập luận rằng những lo ngại về thông tin sai lệch do AI tạo ra đã tồn tại trong nhiều năm và thông báo gần đây của OpenAI có thể được coi là quá ít, quá muộn. Quan điểm này gợi lên sự suy ngẫm sâu sắc hơn về vai trò và trách nhiệm của các nhà phát triển AI trong bối cảnh chính trị.

“Vì vậy, tốt nhất thì thông báo này cho thấy OpenAI đã ngủ quên khi chuyển đổi. Nhưng tệ nhất, nó giống một nghi thức rửa tay mà OpenAI có thể chỉ ra khi AI sáng tạo tiếp cận người hâm mộ trong các cuộc bầu cử toàn cầu sắp tới trong năm nay.”

tại chỗ_img

Tin tức mới nhất

tại chỗ_img