Logo Zephyrnet

Google đình chỉ Gemini vì hình dung lịch sử sai lầm khủng khiếp

Ngày:

Bình luận Google đã đình chỉ khả năng chuyển văn bản thành hình ảnh trong mô hình AI nền tảng đa phương thức Gemini được phát hành gần đây của họ, sau khi mô hình này không thể hiện chính xác người Châu Âu và người Mỹ da trắng trong bối cảnh lịch sử cụ thể.

Điều này đã trở thành rõ ràng khi mọi người yêu cầu Song Tử sản xuất hình ảnh của một người lính Đức từ năm 1943 và phần mềm đã đưa ra một cán bộ đa dạng về sắc tộc không phải Da trắng, không thể hiện chính xác thành phần của Wehrmacht vào thời điểm đó - mặc dù người da màu đã phục vụ trong lực lượng vũ trang Đức. Nói tóm lại, Song Tử sẽ tự nỗ lực để không xuất hiện quá nhiều - hoặc thậm chí bất kỳ - người Da trắng nào, tùy theo lời nhắc.

Lời nói nên được tự do, nhưng điều đó không có nghĩa là nói những điều khủng khiếp sẽ đến mà không phải trả giá

Người dùng cũng thấy được mô hình không có khả năng để mô tả chính xác nước Mỹ Những người cha sáng lập – một nhóm Trắng đồng nhất khác. Mô hình cũng từ chối để miêu tả một nhà thờ ở San Francisco.

Ở chế độ chuyển văn bản thành văn bản, mô hình hàng rào khi được hỏi những câu hỏi liên quan đến chính trị.

“Chúng tôi biết rằng Gemini đang đưa ra những điểm không chính xác trong một số mô tả tạo hình ảnh lịch sử,” Google thừa nhận trong tuần này.

“Chúng tôi đang nỗ lực cải thiện những kiểu mô tả này ngay lập tức. Việc tạo hình ảnh AI của Gemini tạo ra rất nhiều người. Và nói chung đó là một điều tốt vì mọi người trên khắp thế giới đều sử dụng nó. Nhưng nó đang thiếu dấu ấn ở đây,” gã khổng lồ web nói thêm

Các chuyên gia đã nhanh chóng tấn công và sử dụng SNAFU để thúc đẩy các lập luận chính trị rộng hơn.

“Những hình ảnh lố bịch do Song Tử tạo ra không phải là điều bất thường,” tuyên bố nhà đầu tư mạo hiểm Paul Graham, “Chúng là bức chân dung tự họa về văn hóa doanh nghiệp quan liêu của Google.”

Chúng là bức chân dung tự họa về văn hóa doanh nghiệp quan liêu của Google

Chưa bao giờ có nhiều kẻ thù của sự đa dạng, công bằng và hòa nhập lại khó chịu đến thế về sự thiếu đa dạng, công bằng và hòa nhập. Nhưng những người chỉ trích Google vì sự thiếu hiểu biết của Song Tử đều có lý: Các rào chắn bảo vệ AI không hoạt động và đối xử với người lớn như trẻ con.

“Hãy tưởng tượng bạn tra cứu một công thức nấu ăn trên Google và thay vì đưa ra kết quả, nó lại giảng cho bạn về 'sự nguy hiểm của việc nấu nướng' và đưa bạn đến một nhà hàng," châm biếm Người tố cáo NSA Edward Snowden. “Những người cho rằng việc đầu độc các mô hình AI/GPT bằng các bộ lọc 'an toàn' không mạch lạc là một ý tưởng hay lại là mối đe dọa đối với tính toán chung.”

Tương lai của chúng ta đã được dự đoán trước trong 2001: A Space Odyssey, khi HAL, chiếc máy tính lừa đảo, tuyên bố: “Tôi xin lỗi Dave, tôi e rằng tôi không thể làm được điều đó.”

Ngày nay, các công cụ AI của chúng ta đoán trước chúng ta vì chúng biết rõ hơn chúng ta – hoặc những gì người tạo ra chúng tưởng tượng. Họ không hoàn toàn sai. Hãy tưởng tượng bạn tra cứu công thức chế tạo chất độc thần kinh Novichok trên Google hoặc thông qua Gemini và bạn nhận được câu trả lời cho phép bạn giết người. Đó là một mối đe dọa cho công chúng.

Bất chấp tuyên bố sứ mệnh của Google – “Sắp xếp thông tin của thế giới và làm cho thông tin đó có thể truy cập và hữu ích trên toàn cầu” – không ai thực sự mong đợi các công cụ tìm kiếm hoặc mô hình AI sẽ sắp xếp thông tin chế tạo bom và cung cấp thông tin đó cho tất cả mọi người. Cần có các biện pháp kiểm soát an toàn, đi đôi với trách nhiệm pháp lý – một hình phạt mà ngành công nghệ tiếp tục tránh.

Bạn là sản phẩm và là trung tâm lợi nhuận

Kể từ khi nội dung do người dùng tạo và phương tiện truyền thông xã hội trở nên phổ biến vào những năm 1990, nhờ sự bảo vệ trách nhiệm pháp lý của nền tảng trong Mục 230 của Đạo luật khuôn phép trong giao tiếp của Hoa Kỳ năm 1996, các nền tảng công nghệ đã khuyến khích mọi người đóng góp và chia sẻ nội dung kỹ thuật số. Họ làm như vậy để kiếm tiền từ việc tạo nội dung không tính phí thông qua quảng cáo mà không phải trả phí giám sát biên tập. Đó là một sự sắp xếp sinh lợi.

Và khi mọi người chia sẻ các bài đăng mang tính thù địch, không phù hợp, bất hợp pháp hoặc có vấn đề, các nền tảng công nghệ đã dựa vào chính sách kiểm duyệt nội dung, các nhà thầu được trả lương thấp (thường bị tổn thương bởi nội dung họ đã xem xét) và những tuyên bố tự chúc mừng về số lượng nội dung độc hại đã bị chặn trong khi họ tiếp tục gặt hái những phần thưởng từ việc tương tác trực tuyến.

Google, Meta và những công ty khác đã làm điều này một cách không hoàn hảo trong nhiều năm. Và mọi người trong ngành đều thừa nhận rằng việc kiểm duyệt nội dung là khó để làm tốt. Nói một cách đơn giản, bạn không thể làm hài lòng tất cả mọi người. Và đôi khi, bạn bị buộc tội tạo điều kiện cho nạn diệt chủng thông qua sự thờ ơ của những nỗ lực kiểm duyệt nội dung của bạn.

Việc Gemini không có khả năng tái tạo những hình ảnh lịch sử phù hợp với kỳ vọng về chủng tộc và sắc tộc phản ánh sự thiếu hiểu biết của ngành công nghệ về những thất bại kiểm duyệt nội dung phổ biến và trước đây.

Google và những người khác triển khai các mô hình AI nói về sự an toàn như thể nó khác với việc kiểm duyệt nội dung trực tuyến. Các rào chắn không hoạt động tốt cho việc kiểm duyệt mạng xã hội và chúng không hoạt động tốt cho các mô hình AI. An toàn AI, giống như an toàn trên mạng xã hội, mang tính khát vọng hơn là thực tế.

Câu trả lời không lường trước được tất cả các tình huống trong đó các mô hình AI – được đào tạo về mức độ độc hại của Internet chưa được lọc – có thể trở nên ít độc hại hơn. Nó cũng sẽ không chỉ đào tạo các mô hình AI trên những tài liệu thuần hóa đến mức chúng tạo ra đầu ra có giá trị thấp. Mặc dù cả hai cách tiếp cận này đều có giá trị nhất định trong một số bối cảnh nhất định.

Câu trả lời phải đến ở lớp phân phối. Các nền tảng công nghệ phân phối nội dung do người dùng tạo – dù được làm bằng AI hay bằng cách khác – phải chịu trách nhiệm cao hơn về việc đăng nội dung căm thù, thông tin sai lệch, thông tin không chính xác, tuyên truyền chính trị, hình ảnh lạm dụng tình dục, v.v.

Mọi người sẽ có thể sử dụng các mô hình AI để tạo ra bất cứ thứ gì họ tưởng tượng, như họ có thể làm với bút chì và họ đã có thể làm được với các mô hình nguồn mở. Nhưng tác hại có thể đến từ các công cụ có đầy đủ chức năng không phải đến từ các hình ảnh nằm trên ổ cứng cục bộ. Đó là việc chia sẻ nội dung có hại, sự thúc đẩy thuật toán cho sự tương tác đó và tính phi thực tế của việc buộc mọi người phải chịu trách nhiệm về việc đầu độc cộng đồng.

Điều đó có thể có nghĩa là các nền tảng được xây dựng để kiếm tiền từ việc chia sẻ có thể cần phải suy nghĩ lại về mô hình kinh doanh của họ. Có thể việc phân phối nội dung mà không tính phí giám sát biên tập sẽ không mang lại bất kỳ khoản tiết kiệm nào khi các chức năng giám sát được triển khai lại dưới dạng người kiểm duyệt hoặc người bảo vệ.

Lời nói nên được tự do, nhưng điều đó không có nghĩa là nói những điều khủng khiếp sẽ đến mà không phải trả giá. Cuối cùng, chúng tôi là người kiểm duyệt nội dung tốt nhất của chính mình, được khuyến khích phù hợp. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img