Logo Zephyrnet

Tiếp theo, Protein do AI thiết kế cho y học

Ngày:

Tổ chức sức khỏe tâm thần Koko đã tận dụng thành công ChatGPT để giúp họ cải thiện hỗ trợ trực tuyến, nhưng khi người dùng biết rằng một chatbot là đồng tác giả phản hồi thì những lợi ích nhận được đã biến mất.

Việc tiếp nhận thử nghiệm trên mạng xã hội có nhiều ý kiến ​​trái chiều, với một số người bị mê hoặc bởi tiềm năng của AI trong lĩnh vực này và những người khác phản đối mạnh mẽ sự xâm nhập của trí tuệ nhân tạo.

Không có con đường tắt nào dẫn đến sức khỏe tinh thần

Một thí nghiệm gần đây của Koko đã bổ sung phản ứng của con người với ChatGPT lúc đầu xuất hiện để cung cấp lợi ích đáng kể cho người dùng của nó.

Koko là một tổ chức sức khỏe tâm thần phi lợi nhuận cung cấp hỗ trợ và can thiệp cho bất kỳ ai đang gặp khó khăn với sức khỏe tâm thần, đặc biệt là thanh thiếu niên. Là một phần trong sứ mệnh giúp mọi người có thể tiếp cận sức khỏe tâm thần, công ty đã tăng cường nguồn lực tình nguyện viên của mình bằng trí tuệ nhân tạo.

Theo Rob Morris, người sáng lập Koko, cuộc thử nghiệm ban đầu đã thành công. Morris nói rằng các phản hồi do AI hỗ trợ ban đầu được đón nhận tốt hơn và giúp giảm thời gian chờ đợi. Đáng buồn thay, những lợi ích đã không kéo dài.

“Một khi mọi người biết được các tin nhắn được đồng tạo bởi một cỗ máy, nó đã không hoạt động. Sự đồng cảm mô phỏng cảm thấy kỳ lạ, trống rỗng,” Morris nói trên Twitter tuần trước. “Máy móc không có kinh nghiệm sống, con người nên khi họ nói “nghe khó quá” hay “tôi hiểu rồi”, nghe có vẻ không chân thực.”

Morris cuối cùng đã kết luận rằng các chatbot “không dành thời gian trong ngày để nghĩ về bạn. Một phản hồi chatbot được tạo ra trong 3 giây, bất kể thanh lịch đến đâu, bằng cách nào đó, cảm thấy rẻ tiền.”

Sự hội nhập của ChatGPT vào Koko là một phần của mối quan hệ đối tác lâu dài kể từ tháng 2020 năm 30,000, với ChatGPT hỗ trợ trợ lý con người trả lời hơn XNUMX tin nhắn.

Một phản ứng hỗn hợp

Ý tưởng về can thiệp sức khỏe tâm thần có sự hỗ trợ của AI đã nhận được sự quan tâm rộng rãi và một mức độ kinh dị nhỏ nhưng có thể cảm nhận được trên mạng xã hội.

Một số người không hài lòng với tuyên bố của Morris rằng AI “nghe có vẻ không trung thực” khi đồng cảm với con người.

Với tư cách là người dùng Twitter ActualStryder chỉ ra, “Nó không 'nghe có vẻ' không trung thực, nó LÀ không trung thực. Toàn bộ cuộc trò chuyện là một trong những sự bắt chước được tối ưu hóa.”

Những tình cảm giống nhau hoặc tương tự đã được nhiều người chia sẻ rộng rãi. Những người khác bày tỏ sự sốc hoặc ghê tởm và đặt câu hỏi về đạo đức của một thí nghiệm như vậy ngay từ đầu.

Tuy nhiên, không phải ai cũng kinh hoàng như vậy. HyaenaMẹ đã so sánh tính xác thực một cách thuận lợi với việc cung cấp dịch vụ chăm sóc sức khỏe tâm thần thuộc Dịch vụ Y tế Quốc gia (NHS) của Vương quốc Anh, “Tôi cũng cảm thấy không xác thực khi đến từ các bác sĩ sức khỏe tâm thần NHS của tôi… Tôi sẽ xử lý GPT bất cứ lúc nào.”

Đối với thực tế là chatbot không có kinh nghiệm sống, cô ấy nói thêm, “các nhà trị liệu và đặc biệt là bác sĩ tâm thần và nhà tâm lý học cũng có thể không có kinh nghiệm sống.”

Thèm bất kỳ công ty nào cả

Phản ứng ngay lập tức đối với thí nghiệm của Koko dường như cho thấy rằng nhân loại đã sẵn sàng cho sự đồng cảm nhân tạo, nhưng điều đó có thể thay đổi theo thời gian không?

Như chính Morris đã đặt câu hỏi: “Liệu máy móc có thể khắc phục được [vấn đề] này không? Có thể."

Morris tiếp tục, “Có lẽ chúng ta rất khao khát được lắng nghe, muốn có điều gì đó thực sự chú ý đến chúng ta mà không bị phân tâm, không cần nhìn vào điện thoại hoặc kiểm tra thư từ, email hoặc twitter — có lẽ chúng ta khao khát điều đó sâu sắc, chúng ta sẽ thuyết phục bản thân rằng máy móc thực sự quan tâm đến chúng ta.”

Làm rõ gây thêm nhầm lẫn

Morris đã đáp lại phản ứng dữ dội từ thử nghiệm gần đây của Koku, tìm cách dập tắt những lời chỉ trích mạnh mẽ mà tổ chức đã phải đối mặt trong một số quý.

Đáng buồn thay, việc làm rõ dường như chỉ gây ra sự nhầm lẫn hơn nữa.

Morris hiện tuyên bố rằng tất cả người dùng đều biết rằng các câu trả lời được tạo ra với sự trợ giúp của trí tuệ nhân tạo và không ai tìm kiếm sự trợ giúp từng trò chuyện trực tiếp với AI.

“Tính năng này đã được chọn tham gia,” nói Morris trước khi làm vẩn đục nước một lần nữa bằng cách thêm vào. “Mọi người đều biết về tính năng này khi nó hoạt động được vài ngày.”

Cho dù người dùng có biết về tính năng này ngay từ đầu hay không, thì hậu quả từ thử nghiệm chứng minh rằng có những cạm bẫy hữu hình cần tránh khi sử dụng công nghệ AI vào các dịch vụ hiện có.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img