Logo Zephyrnet

Tổ chức phi lợi nhuận xây dựng trang web để theo dõi những rủi ro AI gia tăng

Ngày:

Phỏng vấn Sai hình ảnh của Donald Trump được hỗ trợ bởi các cử tri Da đen giả danh, học sinh cấp hai tạo ra các tác phẩm khiêu dâm sâu sắc về các bạn nữ cùng lớp của họ và chatbot Gemini của Google không để tạo ra những bức ảnh về người Da trắng một cách chính xác.

Đây là một số thảm họa mới nhất được liệt kê trên Cơ sở dữ liệu sự cố AI – một trang web theo dõi tất cả các lỗi khác nhau của công nghệ.

Ban đầu được triển khai như một dự án dưới sự bảo trợ của Partnership On AI, một nhóm cố gắng đảm bảo AI mang lại lợi ích cho xã hội, Cơ sở dữ liệu sự cố AI hiện là một tổ chức phi lợi nhuận được tài trợ bởi Underwriters Laboratories - tổ chức độc lập lớn nhất và lâu đời nhất (ước tính năm 1894). phòng thí nghiệm ở Hoa Kỳ. Nó kiểm tra tất cả các loại sản phẩm – từ đồ nội thất đến chuột máy tính – và trang web của nó đã liệt kê hơn 600 sự cố liên quan đến tự động hóa và AI cho đến nay.

Patrick Hall, trợ lý giáo sư tại Trường Kinh doanh thuộc Đại học George Washington, người hiện đang phục vụ trong Ban Giám đốc của Cơ sở dữ liệu Sự cố AI, lập luận: “Có sự bất cân xứng thông tin rất lớn giữa các nhà sản xuất hệ thống AI và người tiêu dùng đại chúng - và điều đó không công bằng”. . Anh nói Đăng ký: “Chúng tôi cần minh bạch hơn và chúng tôi cảm thấy nhiệm vụ của mình chỉ là chia sẻ thông tin đó.”

Cơ sở dữ liệu sự cố AI được mô phỏng theo Chương trình CVE do tổ chức phi lợi nhuận thiết lập MITER, Hoặc Cục An toàn Giao thông Đường bộ Quốc gia trang web báo cáo công khai các lỗ hổng an ninh mạng và tai nạn xe cộ. “Bất cứ khi nào xảy ra một vụ tai nạn máy bay, tai nạn tàu hỏa hoặc một sự cố an ninh mạng lớn, việc ghi lại những gì đã xảy ra đã trở thành thông lệ trong nhiều thập kỷ qua để chúng tôi có thể cố gắng hiểu điều gì đã xảy ra và sau đó không lặp lại.”

Trang web hiện được quản lý bởi khoảng mười người, cùng với một số tình nguyện viên và nhà thầu xem xét và đăng các sự cố liên quan đến AI lên mạng. Heather Frase, thành viên cấp cao tại Georgetown's Trung tâm bảo mật và công nghệ mới nổi tập trung vào Đánh giá AI và giám đốc Cơ sở dữ liệu sự cố AI, tuyên bố rằng trang web này độc đáo ở chỗ nó tập trung vào các tác động trong thế giới thực từ những rủi ro và tác hại của AI – không chỉ các lỗ hổng và lỗi trong phần mềm.

Tổ chức này hiện đang thu thập các sự cố từ các phương tiện truyền thông và xem xét các vấn đề được mọi người báo cáo trên Twitter. Cơ sở dữ liệu sự cố AI đã ghi lại 250 sự cố riêng biệt trước khi phát hành ChatGPT vào tháng 2022 năm 600 và hiện liệt kê hơn XNUMX sự cố riêng biệt.

Việc theo dõi các vấn đề với AI theo thời gian cho thấy những xu hướng thú vị và có thể cho phép mọi người hiểu được tác hại thực sự hiện tại của công nghệ.

Hall của Đại học George Washington tiết lộ rằng khoảng một nửa số báo cáo trong cơ sở dữ liệu có liên quan đến AI. Một số trong số đó là “những điều buồn cười, ngớ ngẩn” như sản phẩm tinh ranh được bán trên Amazon với tiêu đề: “Tôi không thể thực hiện yêu cầu đó” – một dấu hiệu rõ ràng cho thấy người bán đã sử dụng mô hình ngôn ngữ lớn để viết mô tả – hoặc các trường hợp thư rác khác do AI tạo ra. Nhưng một số thì “thực sự khá chán nản và nghiêm trọng” - chẳng hạn như một chiếc taxi robot Cruise chạy tới và kéo theo một người phụ nữ dưới bánh xe trong một vụ tai nạn ở San Francisco.

Ông than thở: “AI hiện tại gần như là một miền Tây hoang dã và quan điểm là phải đi nhanh và phá vỡ mọi thứ. Không rõ công nghệ này đang định hình xã hội như thế nào và nhóm hy vọng Cơ sở dữ liệu sự cố AI có thể cung cấp thông tin chuyên sâu về cách nó bị lạm dụng và nêu bật những hậu quả không lường trước được – với hy vọng rằng các nhà phát triển và nhà hoạch định chính sách được cung cấp thông tin tốt hơn để họ có thể cải thiện mô hình hoặc điều chỉnh của mình. những rủi ro cấp bách nhất.

“Có rất nhiều sự cường điệu xung quanh. Mọi người nói về rủi ro tồn tại. Tôi chắc chắn rằng AI có thể gây ra những rủi ro rất nghiêm trọng cho nền văn minh nhân loại, nhưng tôi thấy rõ rằng một số rủi ro trong thế giới thực này nhiều hơn - như rất nhiều thương tích liên quan đến xe tự lái hoặc, bạn biết đấy, duy trì sự thiên vị thông qua các thuật toán được sử dụng trong tài chính tiêu dùng hoặc việc làm. Đó là những gì chúng ta thấy.”

“Tôi biết chúng ta còn thiếu sót rất nhiều, phải không? Không phải mọi thứ đều được báo chí đưa tin hoặc nắm bắt. Nhiều khi mọi người thậm chí có thể không nhận ra rằng tác hại mà họ đang gặp phải đến từ AI,” Frase nhận xét. “Tôi cho rằng tổn hại về thể chất sẽ tăng lên rất nhiều. Chúng ta đang thấy [chủ yếu] những tác hại về mặt tâm lý và những tác hại vô hình khác xảy ra từ các mô hình ngôn ngữ rộng lớn – nhưng một khi chúng ta có robot tổng hợp, tôi nghĩ tác hại về thể chất sẽ tăng lên rất nhiều.”

Frase lo ngại nhất về cách AI có thể làm xói mòn nhân quyền và quyền tự do dân sự. Cô tin rằng việc thu thập các sự cố AI sẽ cho thấy liệu các chính sách có làm cho công nghệ này trở nên an toàn hơn theo thời gian hay không.

Hall nói thêm: “Bạn phải đo lường mọi thứ để khắc phục mọi thứ.

Tổ chức luôn tìm kiếm tình nguyện viên và hiện đang tập trung vào việc nắm bắt nhiều sự cố hơn và nâng cao nhận thức. Frase nhấn mạnh rằng các thành viên của nhóm không phải là những người mê AI: “Có lẽ chúng tôi tỏ ra khá chống AI, nhưng thực tế không phải vậy. Chúng tôi thực sự muốn sử dụng nó. Chúng tôi chỉ muốn những thứ tốt đẹp.”

Hall đồng ý. Ông nói: “Để giữ cho công nghệ luôn phát triển, ai đó chỉ cần thực hiện công việc để làm cho nó an toàn hơn”. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img