Logo Zephyrnet

Trợ lý hữu ích, Đối tác lãng mạn hay Kẻ lừa đảo? Phần thứ hai » Blog CCC

Ngày:

CCC đã hỗ trợ ba phiên khoa học tại Hội nghị thường niên AAAS năm nay và trong trường hợp bạn không thể tham dự trực tiếp, chúng tôi sẽ tóm tắt lại từng phiên. Hôm nay, chúng tôi sẽ tóm tắt những điểm nổi bật của phần Hỏi đáp của phiên họp, “Mô hình ngôn ngữ lớn: Trợ lý hữu ích, Đối tác lãng mạn hay Kẻ lừa đảo?” Bảng điều khiển này, được kiểm duyệt bởi Tiến sĩ Maria Gini, Thành viên Hội đồng CCC và giáo sư Khoa học & Kỹ thuật Máy tính tại Đại học Minnesota, đã trình bày Tiến sĩ Ece Kamar, Giám đốc điều hành AI Frontiers tại Microsoft Research, Tiến sĩ Hal Daumé III, giáo sư Khoa học Máy tính tại Đại học Maryland, và Tiến sĩ Jonathan May, Giáo sư Khoa học Máy tính tại Viện Khoa học Thông tin Đại học Nam California.

Dưới đây là bản tóm tắt hấp dẫn của phần Hỏi đáp của "Mô hình ngôn ngữ lớn: Trợ lý hữu ích, Đối tác lãng mạn hay Kẻ lừa đảo?"bảng điều khiển. AI có khả năng yêu không? Những mô hình này có thể có những tác động gì đối với trẻ em? Khả năng AI của Hoa Kỳ tăng lên như thế nào? Tìm hiểu dưới đây:

Hỏi: Khi triển khai các mô hình ngôn ngữ AI trong bối cảnh đa ngôn ngữ, đa văn hóa, chúng ta nên thực hiện những gì?

Tiến sĩ May: Trong việc phát triển công nghệ và hạ thấp những bức tường, cần tạo điều kiện thuận lợi hơn cho người dân làm những gì mình muốn. Điều mà mọi người đều muốn làm chứ không chỉ mình tôi. Cảm ơn AI, thật tuyệt khi tập trung vào tôi, nhưng chúng ta nên chú ý đến phần còn lại của thế giới nói chung.

Hỏi: Một số vấn đề chung này – đây không phải là lần đầu tiên chúng được đưa ra. Có vẻ như cộng đồng sẽ không tự mình giải quyết những vấn đề này. Tôi tự hỏi liệu tất cả các bạn có ý tưởng nào về cách biến những cuộc trò chuyện này thành hành động không?

Tiến sĩ Kamar: Có nhiều vai trò dành cho nhiều bên khác nhau. Đánh giá rất quan trọng trong việc đại diện cho các nền văn hóa và dân số khác nhau. Khi các tập dữ liệu không có tính đa dạng trong cách thể hiện thế giới, thì hệ thống thu được sẽ không mang tính đại diện. Rất nhiều công việc cần phải được thực hiện trong việc hình thành các phương pháp đánh giá, quy định và biện pháp tuân thủ tốt nhất. Nhà Trắng đã đưa ra các cam kết và Kế hoạch chi tiết về Tuyên ngôn về Quyền của AI đang bắt đầu. Đã có những quy trình được triển khai trên toàn ngành, với nhiều bộ óc vĩ đại làm việc cùng nhau (không hoàn hảo, nhưng có tiềm năng khái quát hóa trong toàn ngành). Có những cuộc họp diễn ra để đạt được sự hội tụ về việc bắt đầu theo tiêu chuẩn hiện tại; có thể trong quy định trong tương lai. Chúng tôi thực hiện đánh giá, phân tích an toàn, v.v. bằng cách nào? Không có cuộc trò chuyện nào trong số này có được sự đa dạng cần có trong phòng. Hãy suy nghĩ xem ai cần có mặt trong phòng khi các quyết định được đưa ra.

Tiến sĩ Daumé: Tôi nghĩ khi mọi người nói về quy định, đặc biệt là trong AI, mọi người đều nghĩ đến các quy định mang tính trừng phạt. Nhưng điều này cũng có thể khuyến khích các quy định. Việc tài trợ cho các nhà hoạch định chính sách và NSF có thể thúc đẩy việc phát triển các công cụ giúp ích cho chúng ta với tư cách là một quốc gia và thế giới.

Hỏi: Nguồn tài trợ cho AI ở Mỹ chậm hơn nhiều so với các nơi khác trên thế giới. Khoản đầu tư mới của NSF là khoảng 20 triệu USD, chỉ là con số nhỏ so với đầu tư trong ngành. Chính phủ liên bang đã công bố các báo cáo từ các nghiên cứu trong nhiều năm và kết luận là Hoa Kỳ phải tiếp tục. Tôi thích sự tương tự thay đổi pha của Ece. Giới hạn nhiệt động với các con số ngày càng tăng. Chúng ta muốn AI mở, ai sẽ trả tiền cho nó? Không có đủ tiền. Đề xuất của bạn là gì? AI mở? Nhưng chúng tôi thậm chí còn không có quyền xuất bản truy cập mở. Bạn có đề nghị với tổng thống không có luật không?

Tiến sĩ May: Tôi nghĩ là có tiền; có người nhận xét với tôi rằng bạn đã thuyết phục được chính phủ quay các hạt xung quanh, nhưng lại không thể chuyển nó sang cho chúng tôi.

Tiến sĩ Kamar: Lý do khiến các công ty đang xây dựng những mô hình này đạt được những kết quả đầu ra này là thông qua việc tập trung hóa các nguồn lực. Có rất nhiều thứ bạn nhận được từ quy mô. Nên nghĩ về cách chúng ta tập trung đầu tư vào học viện để có được nguồn lực chung thay vì có nhiều mô hình khác nhau. Chúng tôi đang thấy nó không chỉ là về quy mô. Đây không phải là điều chúng ta phải làm ngay bây giờ, nhưng kiến ​​trúc hiện tại chưa tốt. Có khả năng AI tốt không chỉ cần có nhiều tiền hơn và nhiều quyền lực hơn.

Q: Sự thiên vị quá mức trong các câu trả lời. Chúng ta có biết nó đến từ đâu không? Tôi là một người giỏi toán, và suy nghĩ của tôi hướng đến đó là sự kết hợp của các lỗi làm tròn đang làm tăng thêm độ lệch? Nếu biểu diễn bằng nhau, tôi tưởng tượng nó sẽ tạo ra biểu diễn bằng nhau, hay nó vẫn ở đó?

Tiến sĩ May: Rất nhiều điều liên quan đến chức năng đạp xe. Tối đa mềm là một phần quan trọng của đào tạo. Cao nhất muốn là số 1. Không phải là có một số ngôn ngữ đầu ra hoàn hảo, nhưng chúng tôi muốn có một số thành kiến'. Chúng tôi chỉ muốn giảm thiểu tác hại đối với mọi người và rất nhiều khi chúng tôi không nhận ra những điều này. Triển khai mà không hiểu thì có vấn đề. 

Tiến sĩ Daumé: Một trong những thách thức với những mô hình này là không còn những mô hình AI hẹp nữa. Họ nói họ có thể làm bất cứ điều gì nên rất khó để kiểm tra mọi thứ.

Hỏi: Bạn đã đề cập đến việc AI là một công cụ hoặc một sự thay thế, bạn thấy nó sẽ đi theo hướng nào?

Tiến sĩ Daumé: Sẽ có nhiều tiền hơn để thay thế.

Q: Tiêu đề đề cập đến AI lãng mạn. Tôi muốn biết thêm về điều đó.

Tiến sĩ May: Người mẫu không có đủ mục đích để trở thành những người thay thế lãng mạn khả thi, nhưng họ cũng giỏi như con người trong việc nhận ra các khuôn mẫu ngay cả khi chúng không tồn tại.

Tiến sĩ Kamar: Tôi khuyên bạn không nên nghĩ về AI như hiện tại. Hãy cố gắng hướng tới tương lai – hãy tưởng tượng rằng trong một vài năm nữa, những hệ thống này sẽ được cá nhân hóa cho bạn. Mối quan hệ bạn sẽ có với hệ thống đó là gì?

Tiến sĩ May: Nhưng liệu nó có yêu bạn không?

Tiến sĩ Kamar: Nó sẽ cho bạn biết nó yêu bạn.

Tiến sĩ May: Nhưng như vậy đã đủ chưa?

Hỏi: Tôi muốn nghe lời khuyên dành cho những người không làm trong lĩnh vực AI. Làm thế nào chúng ta có thể tương tác với những công cụ này? Chúng ta nên biết gì?

Tiến sĩ Daumé: Tại Đại học Maryland, chúng tôi thường xuyên tổ chức những cuộc trò chuyện như vậy. Tôi dễ dàng nói rằng báo chí sẽ khác sau 5 năm nữa, và các lĩnh vực khác cũng vậy. Thật khó chịu khi nói rằng vai trò của giáo sư sẽ khác sau 5 năm nữa, nhưng nó sẽ như vậy. Tôi có các đồng nghiệp sử dụng các phần bổ trợ LLM khác nhau cho các đề xuất và bài viết; nó đã xảy ra rồi. Mình thường xuyên có đề thi viết bằng công cụ nhưng phải kiểm tra lại cho chính xác. Viết câu hỏi thi không mang lại cho tôi niềm vui, vì vậy AI có thể giúp tôi giải quyết vấn đề đó. Trong giáo dục đại học, chúng ta phải suy nghĩ về nó nhiều hơn. Nó đang biến đổi công việc của chúng ta như thế nào? Có rất nhiều cuộc thảo luận đang diễn ra tại các trường đại học, nhưng không có nhiều nguồn lực tổng hợp.

Hỏi: AI được đánh giá như thế nào trong tương lai khi xem xét các ứng dụng quân sự? Không có đề cập nào đến các ứng dụng quân sự trong phiên họp này - tôi biết nếu tôi đọc đúng nửa chừng thì sẽ có sự khác biệt về quan điểm về chủ đề đó.

Tiến sĩ May: Quân đội rất rộng, rất nhiều công việc của tôi được bộ quốc phòng tài trợ. Khó trả lời cụ thể, nhìn chung bộ quốc phòng (không nói thay họ) dường như đang ưu tiên sự an toàn và an ninh của Hoa Kỳ, và sẽ tiếp tục làm điều đó, đồng thời tận dụng LLM và AI để giúp Hoa Kỳ được an toàn.

Tiến sĩ Kamar: Chúng ta cũng cần nói về công dụng kép. Nếu bạn đảm nhận công việc quân sự đang diễn ra trong lĩnh vực sinh học hoặc an ninh mạng, chúng ta có thể sử dụng những công cụ rất hứa hẹn hiện có và sử dụng chúng vì chúng ta muốn có hệ thống an toàn và các loại thuốc mới. Nhưng với mỗi cách sử dụng tốt, bạn sẽ có một cách sử dụng xấu. Những trường hợp sử dụng nào chúng ta không muốn sử dụng AI? Trong các ứng dụng nguồn mở, mọi người có thể sao chép các mô hình này. Làm thế nào để chúng ta ngăn chặn mọi người làm hại trong những trường hợp này?

Hỏi: Khi tương tác với các mô hình ngôn ngữ, người lớn hiểu rằng nó không tồn tại/tự nhận thức, nhưng còn vài thế hệ sau thì sao; những đứa trẻ đã có nó kể từ khi chúng nhớ việc giao tiếp xã hội? Họ có gia sư hoặc giáo viên hoàn toàn là AI; hệ thống được nhúng với một người hướng dẫn. Họ có thể tạo ra mối liên kết với hướng dẫn, nghĩ rằng họ có mối quan hệ tuyệt vời và sau đó chương trình sẽ bị xóa. Tâm lý trẻ em về mối quan hệ tình cảm xã hội với các thực thể không phải con người là gì?

Tiến sĩ Kamar: Chúng ta cần nghiên cứu, nghiên cứu liên ngành và chúng ta cần nó một cách nhanh chóng. Trong 5 năm nữa, chúng ta có thể nhận được những câu trả lời này, nhưng trong thời gian đó AI có thể trở thành một phần quan trọng trong cuộc sống của đứa trẻ 10 tuổi của tôi. Câu hỏi của bạn cực kỳ quan trọng. Có nghiên cứu cho thấy ngay cả những hệ thống vô tội cũng có thể có cửa hậu. Chúng ta cần có các chuyên gia bảo mật và chuyên gia phát triển trẻ em thực hiện những cuộc trò chuyện đó ngay hôm nay.

Tiến sĩ Daumé: Tôi không biết có ai còn nhớ việc giám sát Barbie không–ở đây có một vấn đề lớn về quyền riêng tư. Đó là một vấn đề xã hội thú vị hơn. Các phản hồi đã được điều chỉnh để trở nên quá tích cực. Trẻ em sẽ nói những điều như tôi tức giận vì Sally không chơi với tôi và điều đó không đưa ra những gợi ý phù hợp về mặt xã hội. Tôi lo lắng về những tác nhân rất tích cực, bởi vì sự tích cực không phải lúc nào cũng là câu trả lời đúng.

Cảm ơn bạn rất nhiều vì đã đọc và hãy theo dõi phần tóm tắt của phần thứ ba và cũng là phần cuối cùng của chúng tôi tại AAAS 2024.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img