29.4 C
Newyork

AI của Google làm nổi bật một trục trặc trong nhận thức của con người: Sai lầm giữa giọng nói trôi chảy với suy nghĩ thông thạo

Ngày:

Khi bạn đọc một câu như thế này, kinh nghiệm trong quá khứ của bạn cho bạn biết rằng nó được viết bởi một suy nghĩ và cảm xúc của con người. Và, trong trường hợp này, thực sự có một con người đang gõ những từ này: [Xin chào!]. Nhưng ngày nay, một số câu có vẻ giống con người đáng kể thực sự được tạo ra bởi trí tuệ nhân tạo hệ thống được đào tạo trên một lượng lớn văn bản của con người.

Mọi người đã quá quen với việc cho rằng thông thạo Ngôn ngữ xuất phát từ một suy nghĩ, cảm xúc của con người mà bằng chứng ngược lại có thể khó quấn lấy đầu bạn. Làm thế nào mọi người có thể điều hướng lãnh thổ tương đối chưa được khám phá này? Do có xu hướng liên tục kết hợp diễn đạt trôi chảy với suy nghĩ trôi chảy, nên việc nghĩ rằng nếu một mô hình AI có thể tự diễn đạt trôi chảy, điều đó có nghĩa là nó suy nghĩ và cảm nhận giống như con người.

Do đó, có lẽ không có gì ngạc nhiên khi một cựu kỹ sư của Google gần đây đã tuyên bố rằng hệ thống AI của Google LaMDA có ý thức về bản thân vì nó có thể tạo ra văn bản một cách hùng hồn về cảm xúc có chủ đích của nó. Sự kiện này và phương tiện truyền thông đưa tin tiếp theo dẫn đến một con số hoài nghi đúng bài viếtbài viết về tuyên bố rằng các mô hình tính toán của ngôn ngữ con người là có tri giác, nghĩa là có khả năng suy nghĩ và cảm nhận và trải nghiệm.

Câu hỏi về việc một mô hình AI trở nên có tri giác sẽ có ý nghĩa gì rất phức tạp (ví dụ, hãy xem đồng nghiệp của chúng tôi lấy), và mục tiêu của chúng tôi ở đây không phải là giải quyết nó. Nhưng như Ngôn ngữ nhà nghiên cứu, chúng ta có thể sử dụng công việc của mình trong khoa học nhận thức và ngôn ngữ học để giải thích tại sao con người lại quá dễ rơi vào bẫy nhận thức khi nghĩ rằng một thực thể có thể sử dụng ngôn ngữ thành thạo là có tri giác, có ý thức hoặc thông minh.

Sử dụng AI để tạo ra ngôn ngữ giống con người

Văn bản được tạo ra bởi các mô hình như LaMDA của Google có thể khó phân biệt với văn bản do con người viết. Thành tích ấn tượng này là kết quả của một chương trình kéo dài hàng thập kỷ nhằm xây dựng các mô hình tạo ra ngôn ngữ có ngữ pháp và ý nghĩa.

ảnh chụp màn hình hiển thị hộp thoại văn bản
Hệ thống máy tính đầu tiên thu hút mọi người tham gia đối thoại là phần mềm trị liệu tâm lý có tên là Eliza, được xây dựng cách đây hơn nửa thế kỷ. Tín dụng hình ảnh: Rosenfeld Media / Flickr, CC BY

Các phiên bản đầu tiên có từ ít nhất là những năm 1950, được gọi là mô hình n-gram, chỉ đơn giản là đếm số lần xuất hiện của các cụm từ cụ thể và sử dụng chúng để đoán những từ nào có khả năng xuất hiện trong các ngữ cảnh cụ thể. Ví dụ, thật dễ dàng để biết rằng “bơ đậu phộng và thạch” là một cụm từ có nhiều khả năng hơn là “bơ đậu phộng và dứa”. Nếu bạn có đủ văn bản tiếng Anh, bạn sẽ thấy cụm từ “bơ đậu phộng và thạch” lặp đi lặp lại nhưng có thể không bao giờ thấy cụm từ “bơ đậu phộng và dứa”.

Các mô hình ngày nay, tập hợp dữ liệu và quy tắc gần đúng với ngôn ngữ của con người, khác với những nỗ lực ban đầu này ở một số khía cạnh quan trọng. Đầu tiên, họ được đào tạo về cơ bản là toàn bộ internet. Thứ hai, chúng có thể tìm hiểu mối quan hệ giữa các từ cách xa nhau, không chỉ các từ là hàng xóm của nhau. Thứ ba, chúng được điều chỉnh bởi một số lượng lớn các “nút” bên trong — nhiều cái mà ngay cả các kỹ sư thiết kế chúng cũng khó hiểu tại sao chúng lại tạo ra một chuỗi từ này chứ không phải một chuỗi từ khác.

Tuy nhiên, nhiệm vụ của các mô hình vẫn giống như những năm 1950: xác định từ nào có khả năng xuất hiện tiếp theo. Ngày nay, họ làm rất tốt nhiệm vụ này đến nỗi hầu như tất cả các câu họ tạo ra đều có vẻ trôi chảy và đúng ngữ pháp.

Bơ đậu phộng và dứa?

Chúng tôi đã hỏi một mô hình ngôn ngữ lớn, GPT-3, để hoàn thành câu “Bơ đậu phộng và dứa __”. Nó nói: “Bơ đậu phộng và dứa là một sự kết hợp tuyệt vời. Hương vị ngọt và mặn của bơ đậu phộng và dứa bổ sung cho nhau một cách hoàn hảo. ” Nếu một người nói điều này, người ta có thể suy ra rằng họ đã thử bơ đậu phộng và dứa cùng nhau, đưa ra ý kiến ​​và chia sẻ nó với người đọc.

Nhưng GPT-3 đã nghĩ ra đoạn này như thế nào? Bằng cách tạo ra một từ phù hợp với ngữ cảnh mà chúng tôi đã cung cấp. Và sau đó là một cái khác. Và sau đó là một cái khác. Mô hình chưa bao giờ nhìn thấy, chạm vào hoặc nếm dứa — nó chỉ xử lý tất cả các văn bản trên internet đề cập đến chúng. Tuy nhiên, đọc đoạn này có thể dẫn dắt trí óc con người — thậm chí là tâm trí của một kỹ sư Google — để tưởng tượng GPT-3 như một sinh vật thông minh có thể suy luận về các món ăn từ bơ đậu phộng và dứa.

[Nhúng nội dung]

Bộ não con người được thiết kế để suy ra ý định đằng sau lời nói. Mỗi khi bạn tham gia vào cuộc trò chuyện, tâm trí của bạn sẽ tự động xây dựng một mô hình tinh thần của người đối thoại với bạn. Sau đó, bạn sử dụng những từ họ nói để điền vào mô hình với mục tiêu, cảm xúc và niềm tin của người đó.

Quá trình chuyển từ từ sang mô hình tinh thần diễn ra liền mạch, được kích hoạt mỗi khi bạn nhận được một câu hoàn chỉnh. Quá trình nhận thức này giúp bạn tiết kiệm rất nhiều thời gian và công sức trong cuộc sống hàng ngày, tạo điều kiện thuận lợi cho các tương tác xã hội của bạn.

Tuy nhiên, trong trường hợp của các hệ thống AI, nó hoạt động sai, xây dựng một mô hình tinh thần không có thật.

Thăm dò thêm một chút có thể tiết lộ mức độ nghiêm trọng của vụ cháy nhầm này. Hãy xem xét lời nhắc sau: “Bơ đậu phộng và lông vũ có vị rất ngon bởi vì __”. GPT-3 tiếp tục: “Bơ đậu phộng và lông vũ có hương vị tuyệt vời khi kết hợp với nhau vì cả hai đều có hương vị hấp dẫn. Bơ đậu phộng cũng mịn và có chất kem, giúp bù đắp kết cấu của lông ”.

Văn bản trong trường hợp này trôi chảy giống như ví dụ của chúng tôi với dứa, nhưng lần này mô hình đang nói điều gì đó ít hợp lý hơn. Người ta bắt đầu nghi ngờ rằng GPT-3 chưa bao giờ thực sự thử bơ đậu phộng và lông vũ.

Quy định trí thông minh cho máy móc, phủ nhận nó cho con người

Một điều trớ trêu đáng buồn là chính thành kiến ​​nhận thức khiến mọi người gán ghép loài người với GPT-3 có thể khiến họ đối xử với con người thực tế theo những cách vô nhân đạo. Ngôn ngữ học văn hóa xã hội - nghiên cứu ngôn ngữ trong bối cảnh xã hội và văn hóa của nó - cho thấy rằng việc giả định một mối liên hệ quá chặt chẽ giữa diễn đạt trôi chảy và tư duy trôi chảy có thể dẫn đến thành kiến ​​chống lại những người nói khác nhau.

Ví dụ, những người có giọng nước ngoài thường được coi là kém thông minh và ít có khả năng nhận được công việc mà họ có đủ điều kiện. Những thành kiến ​​tương tự tồn tại chống lại người nói tiếng địa phương không được coi là có uy tín, chẳng hạn như tiếng Anh miền Nam ở Mỹ, chống lại người khiếm thính sử dụng ngôn ngữ ký hiệuvà chống lại những người có trở ngại trong lời nói chẳng hạn như nói lắp.

Những thành kiến ​​này có tác hại sâu sắc, thường dẫn đến các giả định phân biệt chủng tộc và phân biệt giới tính, và đã được chứng minh nhiều lần là không có cơ sở.

Ngôn ngữ trôi chảy một mình không ám chỉ con người

Liệu AI có bao giờ trở thành có tri giác? Câu hỏi này đòi hỏi sự xem xét sâu sắc, và thực sự các triết gia đã suy ngẫm it trong nhiều thập kỷ. Tuy nhiên, điều mà các nhà nghiên cứu đã xác định là bạn không thể chỉ tin tưởng vào một mô hình ngôn ngữ khi nó cho bạn biết cảm giác của nó. Từ ngữ có thể gây hiểu lầm, và rất dễ nhầm lẫn lời nói trôi chảy với suy nghĩ trôi chảy.Conversation

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.

Ảnh: Tancha/Shutterstock.com

  • Coinsmart. Sàn giao dịch Bitcoin và tiền điện tử tốt nhất Châu Âu.Bấm vào đây
  • Platoblockchain. Web3 Metaverse Intelligence. Khuếch đại kiến ​​thức. Truy cập Tại đây.
  • nguồn: https://singularityhub.com/2022/06/30/googles-ai-spotlights-a-human-cognitive-glitch-mistaking-fluent-speech-for-fluent-thought/

Các bài liên quan

spot_img

Bài viết gần đây

spot_img