Logo Zephyrnet

AGI vẫn là một giấc mơ xa vời bất chấp sự bùng nổ của LLM

Ngày:

Đặc tính Một ngày khác, một tiêu đề khác. Tuần trước, startup một năm tuổi thu hút 1.3 tỷ USD từ nhà đầu tư bao gồm cả Microsoft và Nvidia, định giá Inflection AI ở mức 4 tỷ USD.

Định giá lạ lùng như thế này đi kèm với những cảnh báo về rủi ro hiện hữu, mất việc làm hàng loạt và kẻ giết người máy bay không người lái mối đe dọa cái chết trong sự cường điệu của phương tiện truyền thông xung quanh AI. Nhưng sôi sục dưới các tiêu đề là một cuộc tranh luận về việc ai sẽ sở hữu bối cảnh trí tuệ, với 60 năm nghiên cứu khoa học được cho là đã bị cuốn vào thảm. Bị đe dọa là khi nào nó sẽ cân bằng con người với thứ gọi là Trí tuệ nhân tạo tổng hợp (AGI).

Gia nhập giáo sư kinh tế Jason Abaluck của Trường Quản lý Yale, người vào tháng Năm đã đưa lên Twitter để tuyên bố: “Nếu bạn không đồng ý rằng AGI sẽ sớm ra mắt, bạn cần giải thích lý do tại sao quan điểm của bạn được cung cấp nhiều thông tin hơn so với các nhà nghiên cứu AI chuyên nghiệp.”

Còn được gọi là AI mạnh mẽ, khái niệm AGI đã xuất hiện từ những năm 1980 như một phương tiện để phân biệt giữa một hệ thống có thể tạo ra kết quả và một hệ thống có thể làm như vậy bằng suy nghĩ.

Sự quan tâm tăng đột biến gần đây đối với chủ đề bắt nguồn từ GPT-4 của OpenAI, một mô hình ngôn ngữ lớn dựa trên việc xử lý khối lượng văn bản khổng lồ, biến các liên kết giữa chúng thành các vectơ, có thể được phân giải thành các đầu ra khả thi ở nhiều dạng, bao gồm cả thơ và Mã máy tính.

Sau một chuỗi các kết quả ấn tượng – bao gồm vượt qua kỳ thi Thanh thống nhất hợp pháp – và những tuyên bố táo bạo về lợi ích kinh tế của nó – năng suất của Vương quốc Anh tăng 31 tỷ bảng Anh (39.3 tỷ USD), theo KPMG – những người ủng hộ ngày càng táo bạo hơn.

Giám đốc điều hành OpenAI Sam Altman vào tháng trước tuyên bố với khán giả ở Ấn Độ: “Tôi lớn lên với suy nghĩ ngầm rằng trí thông minh là thứ thực sự đặc biệt của con người và có phần kỳ diệu. Và bây giờ tôi nghĩ rằng đó là một thuộc tính cơ bản của vật chất…”

Microsoft, đã đầu tư 10 tỷ đô la vào OpenAI vào tháng 4, đã tiến hành các thử nghiệm của riêng mình trên GPT-XNUMX. Một nhóm do Sebastien Bubeck, giám đốc nghiên cứu chính cấp cao trong nền tảng máy học của gã khổng lồ phần mềm, dẫn đầu, kết luận [PDF] “các kỹ năng của nó chứng minh rõ ràng rằng GPT-4 có thể thao túng các khái niệm phức tạp, đây là khía cạnh cốt lõi của lý luận”.

Nhưng các nhà khoa học đã suy nghĩ về việc suy nghĩ lâu hơn Altman và Bubeck rất nhiều. Năm 1960, các nhà tâm lý học người Mỹ George Miller và Jerome Bruner đã thành lập Trung tâm Nghiên cứu Nhận thức Harvard, cung cấp một điểm khởi đầu tốt nhất cho sự ra đời của ngành học, mặc dù một số khía cạnh nhất định đã có từ những năm 1940. Những người kế thừa di sản khoa học này chỉ trích những tuyên bố vĩ đại của các nhà kinh tế học và nhà khoa học máy tính về các mô hình ngôn ngữ lớn và AI tổng quát.

Tiến sĩ Andrea Martin, trưởng nhóm Nghiên cứu Max Planck về ngôn ngữ và tính toán trong các hệ thống thần kinh, cho biết AGI là một “con cá trích đỏ”.

“Vấn đề của tôi là với khái niệm về trí thông minh nói chung và của chính nó. Nó chủ yếu mang tính dự đoán: một bài kiểm tra phần lớn mang tính dự đoán về cách bạn đạt điểm trong một bài kiểm tra khác. Những hành vi hoặc biện pháp này có thể tương quan với một số đặc điểm của chủ nghĩa thiết yếu [nhưng] chúng tôi có rất ít bằng chứng cho điều đó,” cô ấy nói Đăng ký.

Martin cũng bác bỏ việc sử dụng Thử nghiệm Turing - được đề xuất bởi Alan Turing, người đóng vai trò sáng lập trong khoa học máy tính, AI và khoa học nhận thức - như một tiêu chuẩn để AI thể hiện tư duy hoặc trí thông minh giống con người.

Bài kiểm tra đặt ra để đánh giá xem liệu một cỗ máy có thể đánh lừa mọi người nghĩ rằng đó là con người hay không thông qua phần hỏi đáp bằng ngôn ngữ tự nhiên. Nếu người đánh giá là con người không thể phân biệt máy vô hình với người không nhìn thấy một cách đáng tin cậy thông qua giao diện văn bản, thì máy đã vượt qua.

Martin cho biết cả ChatGPT và AI của Google đều đã vượt qua bài kiểm tra, nhưng để sử dụng điều này làm bằng chứng cho thấy máy tính biết suy nghĩ thì “chỉ là một sự hiểu sai khủng khiếp về Turing,” Martin nói.

“Ý định của anh ấy luôn là một khái niệm kỹ thuật hoặc khoa học máy tính hơn là một khái niệm trong khoa học nhận thức hoặc tâm lý học.”

Giáo sư danh dự về tâm lý học và khoa học thần kinh của Đại học New York Gary Marcus đã cũng chỉ trích bài kiểm tra như một phương tiện để đánh giá trí thông minh hoặc nhận thức của máy.

Một vấn đề khác với cách tiếp cận LLM là nó chỉ nắm bắt các khía cạnh của ngôn ngữ theo định hướng thống kê, thay vì cố gắng hiểu cấu trúc của ngôn ngữ hoặc khả năng nắm bắt kiến ​​thức của nó. “Đó thực chất là một mục tiêu kỹ thuật. Và tôi không muốn nói rằng điều đó không thuộc về khoa học, nhưng tôi chỉ nghĩ về mặt định nghĩa, đó là một mục tiêu khác,” Martin nói.

Tuyên bố rằng các LLM là thông minh hoặc có thể suy luận cũng gặp phải thách thức về tính minh bạch trong các phương pháp được sử dụng để phát triển. Bất chấp cái tên của nó, OpenAI vẫn chưa cởi mở với cách nó sử dụng dữ liệu đào tạo hoặc phản hồi của con người để phát triển một số mô hình của nó.

“Các mô hình đang nhận được rất nhiều phản hồi về trọng số của tham số là gì đối với các phản hồi hài lòng được đánh dấu là tốt. Vào những năm 90 và những năm XNUMX, điều đó không được phép xảy ra tại các hội nghị khoa học về nhận thức,” Martin nói.

Lập luận rằng hiệu suất giống con người trong LLM là không đủ để chứng minh rằng họ đang suy nghĩ giống con người, Martin nói: “Ý tưởng cho rằng mối tương quan là đủ, rằng nó mang lại cho bạn một số loại cấu trúc nhân quả có ý nghĩa, là không đúng.”

Tuy nhiên, các mô hình ngôn ngữ lớn có thể có giá trị, ngay cả khi giá trị của chúng bị phóng đại bởi những người ủng hộ chúng, bà nói.

“Điều bất lợi là chúng có thể che đậy rất nhiều phát hiện quan trọng… trong triết lý của khoa học nhận thức, chúng ta không thể bỏ cuộc và không thể thoát khỏi nó.”

Tuy nhiên, không phải tất cả mọi người trong khoa học nhận thức đều đồng ý. Tali Sharot, giáo sư khoa học thần kinh nhận thức tại Đại học College London, có quan điểm khác. Cô ấy nói: “Việc sử dụng ngôn ngữ tất nhiên là rất ấn tượng: đưa ra các lập luận và các kỹ năng như viết mã.

“Có một sự hiểu lầm giữa trí thông minh và con người. Trí thông minh là khả năng học đúng, tiếp thu kiến ​​thức và kỹ năng.

“Vì vậy, những mô hình ngôn ngữ này chắc chắn có thể học và tiếp thu kiến ​​thức cũng như kỹ năng. Ví dụ, nếu viết mã là một kỹ năng, thì nó có thể đạt được các kỹ năng – điều đó không có nghĩa là nó là con người, theo bất kỳ nghĩa nào.”

Một điểm khác biệt chính là AI không có đại lý và LLM không nghĩ về thế giới giống như cách mọi người làm. “Họ đang phản ánh lại – có thể chúng tôi cũng đang làm như vậy, nhưng tôi không nghĩ điều đó là đúng. Theo cách mà tôi thấy, họ không suy nghĩ gì cả,” Sharot nói.

Tổng số thu hồi

Caswell Barry, giáo sư khoa Tế bào và Sinh học Phát triển của UCL, nghiên cứu về việc khám phá cơ sở thần kinh của trí nhớ. Anh ấy nói rằng OpenAI đã đặt cược lớn vào cách tiếp cận AI mà nhiều người trong lĩnh vực này không nghĩ là sẽ có kết quả.

Mặc dù mô hình ngôn ngữ và nhúng từ đã được hiểu rõ trong lĩnh vực này, nhưng OpenAI cho rằng bằng cách thu thập thêm dữ liệu và “về cơ bản là thu hút mọi thứ con người từng viết mà bạn có thể tìm thấy trên internet, thì điều gì đó thú vị có thể xảy ra,” ông nói.

“Nhìn lại, mọi người đều nói rằng nó có lý, nhưng thực sự biết rằng đó là một vụ cá cược lớn và nó hoàn toàn vượt qua rất nhiều người chơi lớn trong thế giới máy học, như DeepMind. Họ không theo đuổi hướng nghiên cứu đó; quan điểm là chúng ta nên xem xét nguồn cảm hứng từ bộ não và đó là cách chúng ta sẽ đạt được AGI,” Barry cho biết, công trình của ông được tài trợ một phần bởi tổ chức từ thiện nghiên cứu sức khỏe Wellcome, DeepMind và Nvidia.

Ông lập luận rằng mặc dù OpenAI có thể đã gây ngạc nhiên cho ngành công nghiệp và giới học thuật với sự thành công trong cách tiếp cận của nó, nhưng sớm hay muộn nó cũng có thể hết đường mà không nhất thiết phải tiến gần hơn đến AGI.

“OpenAI theo đúng nghĩa đen đã thu hút một tỷ lệ lớn các văn bản kỹ thuật số có thể truy cập dễ dàng trên internet, bạn không thể muốn nhận được nhiều hơn gấp 10 lần, bởi vì bạn phải lấy nó từ một nơi nào đó. Có nhiều cách để tinh chỉnh và trở nên thông minh hơn về cách bạn sử dụng nó, nhưng thực ra, về cơ bản, nó vẫn còn thiếu một số khả năng. Không có dấu hiệu chắc chắn nào cho thấy nó có thể tạo ra các khái niệm trừu tượng và thao túng chúng.”

Trong khi đó, nếu mục tiêu là đạt được AGI, thì khái niệm đó vẫn chưa được hiểu rõ và khó xác định, với một lịch sử đầy rủi ro được tô điểm bởi thuyết ưu sinh và thành kiến ​​văn hóa, ông nói.

Trong của nó giấy [PDF], sau khi tuyên bố rằng họ đã tạo ra “phiên bản đầu tiên (chưa hoàn chỉnh) của hệ thống trí tuệ nhân tạo tổng quát (AGI),”, Microsoft nói thêm về định nghĩa của AGI.

“Chúng tôi sử dụng AGI để chỉ các hệ thống thể hiện khả năng thông minh rộng lớn, bao gồm lý luận, lập kế hoạch và khả năng học hỏi kinh nghiệm, và với những khả năng này bằng hoặc cao hơn cấp độ con người,” bài báo viết.

Lập luận bắt chước

Các chuyên gia khoa học nhận thức và khoa học thần kinh không phải là những người duy nhất cầu xin sự khác biệt. Grady Booch, một kỹ sư phần mềm nổi tiếng với việc phát triển Ngôn ngữ mô hình hóa thống nhất, đã ủng hộ những người nghi ngờ bằng cách tuyên bố trên Twitter AGI sẽ không xảy ra trong cuộc đời của chúng ta hoặc bất kỳ thời điểm nào sau đó, vì thiếu “kiến trúc phù hợp cho ngữ nghĩa của quan hệ nhân quả, lý luận bắt cóc, lý luận thông thường, lý thuyết về tâm trí và bản thân, hoặc chủ quan kinh nghiệm."

Ngành công nghiệp mọc lên như nấm xung quanh LLM có thể có những con cá lớn hơn để chiên ngay bây giờ. OpenAI đã bị tấn công Lớp phù hợp hành động để cạo dữ liệu có bản quyền, trong khi có những thách thức đối với đạo đức của dữ liệu đào tạo, với một nghiên cứu cho thấy họ chứa đựng nhiều thành kiến ​​​​về chủng tộc và xã hội.

Nếu các LLM có thể cung cấp câu trả lời hợp lệ cho các câu hỏi và mã hoạt động, thì có lẽ đó là để biện minh cho những tuyên bố táo bạo của những người tạo ra chúng – chỉ đơn giản là một bài tập về kỹ thuật.

Nhưng đối với Tiến sĩ Martin, cách tiếp cận này là không đủ và bỏ lỡ khả năng học hỏi từ các lĩnh vực khác.

“Điều đó liên quan đến việc bạn có hứng thú với khoa học hay không. Khoa học là về việc đưa ra các giải thích, bản thể luận và mô tả các hiện tượng trong thế giới mà sau đó có khía cạnh cấu trúc cơ học hoặc nhân quả đối với chúng. Kỹ thuật về cơ bản không phải là về điều đó. Nhưng, để trích dẫn [nhà vật lý] Max Planck, cái nhìn sâu sắc phải đến trước khi áp dụng. Hiểu cách thức hoạt động của một thứ gì đó, tự nó, có thể dẫn chúng ta đến những ứng dụng tốt hơn.”

Trong lúc gấp rút tìm kiếm các ứng dụng cho các công nghệ LLM được quảng cáo rầm rộ, tốt nhất là không nên bỏ qua khoa học nhận thức trong nhiều thập kỷ. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img