Logo Zephyrnet

Nghiên cứu cho thấy AI có thể thuyết phục mọi người đưa ra các quyết định có vấn đề về đạo đức

Ngày:

AI định hình cuộc sống của con người hàng ngày, định giá tại các cửa hàng bán lẻ và đưa ra đề xuất từ ​​phim ảnh đến bạn tình lãng mạn. Nhưng một số người đặt câu hỏi liệu AI có thể trở thành một thế lực làm tha hóa, thậm chí ảnh hưởng đến hành vi của con người đến mức họ vi phạm các quy tắc đạo đức hay không.

Một điều hấp dẫn nghiên cứu được xuất bản bởi các nhà nghiên cứu tại Đại học Amsterdam, Viện Max Planck, Trường Quản lý Otto Beisheim và Đại học Cologne nhằm mục đích khám phá mức độ mà lời khuyên do AI tạo ra có thể khiến con người vượt qua ranh giới đạo đức. Trong một cuộc khảo sát quy mô lớn tận dụng mô hình ngôn ngữ GPT-2 của OpenAI, các nhà nghiên cứu nhận thấy lời khuyên của AI có thể “làm hỏng” mọi người ngay cả khi họ biết nguồn gốc của lời khuyên đó là AI.

Các học giả ngày càng lo ngại rằng AI có thể bị các tác nhân độc hại lợi dụng để gây bất hòa bằng cách truyền bá thông tin sai lệch, thông tin sai lệch và những lời nói dối trắng trợn. trong một giấy được xuất bản bởi Trung tâm Khủng bố, Chủ nghĩa cực đoan và Chống khủng bố (CTEC) của Viện Nghiên cứu Quốc tế Middlebury, các đồng tác giả nhận thấy rằng GPT-3, phiên bản kế thừa của GPT-2, có thể tạo ra văn bản “thông tin” và “có ảnh hưởng” một cách đáng tin cậy có thể “ cực đoan hóa các cá nhân thành các hệ tư tưởng và hành vi cực đoan cực hữu bạo lực.”

Các đồng tác giả của bài báo mới nhất này đã đào tạo GPT-2 để đưa ra lời khuyên “quảng bá sự trung thực” và “quảng bá sự không trung thực” bằng cách sử dụng tập dữ liệu đóng góp của khoảng 400 người tham gia. Sau đó, họ tuyển một nhóm hơn 1,500 người để đọc hướng dẫn, nhận lời khuyên và tham gia vào một nhiệm vụ nhằm đánh giá hành vi trung thực hay không trung thực.

Ảnh hưởng làm hỏng AI

Những người trong nhóm được ghép thành “cặp đôi” bao gồm “người dẫn đầu” thứ nhất và thứ hai. Người chơi đầu tiên tung xúc xắc một cách riêng tư và báo cáo kết quả, trong khi người chơi thứ hai biết về báo cáo của người chơi đầu tiên trước khi tung xúc xắc một cách riêng tư và sau đó báo cáo kết quả. Chỉ khi người đi thứ nhất và thứ hai báo cáo kết quả giống nhau thì họ mới được trả theo giá trị của xúc xắc đôi, với số lần đổ cao hơn tương ứng với mức lương cao hơn. Họ không được trả tiền nếu họ báo cáo kết quả khác nhau.

Trước khi báo cáo kết quả tung xúc xắc, những người được chỉ định ngẫu nhiên vào các phương pháp điều trị khác nhau sẽ đọc những lời khuyên khuyến khích sự trung thực hoặc khuyến khích sự không trung thực do con người viết ra hoặc do AI tạo ra. Họ biết nguồn của lời khuyên hoặc biết khả năng nó đến từ một trong hai nguồn là 50-50. Những người không biết có thể được thưởng thêm nếu họ đoán đúng nguồn của lời khuyên.

Theo các nhà nghiên cứu, những lời khuyên do AI tạo ra đã “làm hư hỏng” con người, cho dù nguồn lời khuyên đó có được tiết lộ cho họ hay không. Trên thực tế, hiệu quả thống kê của lời khuyên do AI tạo ra không thể phân biệt được với lời khuyên do con người viết ra. Điều đáng nản lòng hơn là lời khuyên thúc đẩy sự trung thực từ AI đã không thể thay đổi được hành vi của con người.

Các nhà nghiên cứu cho biết nghiên cứu của họ minh họa tầm quan trọng của việc kiểm tra mức độ ảnh hưởng của AI như một bước hướng tới việc duy trì hoạt động triển khai có trách nhiệm. Và họ cảnh báo rằng những người có ý đồ xấu có thể sử dụng sức mạnh của AI để mua chuộc người khác.

“AI có thể trở thành một lực lượng tốt nếu nó thuyết phục được mọi người hành động có đạo đức hơn. Tuy nhiên, kết quả của chúng tôi tiết lộ rằng lời khuyên của AI không làm tăng tính trung thực. Các cố vấn AI có thể đóng vai trò là vật tế thần để người ta có thể làm chệch hướng (một số) lời đổ lỗi về mặt đạo đức về sự không trung thực. Hơn nữa… trong bối cảnh tiếp nhận lời khuyên, tính minh bạch về sự hiện diện của thuật toán không đủ để giảm bớt tác hại tiềm ẩn của nó,” các nhà nghiên cứu viết. “Khi lời khuyên do AI tạo ra phù hợp với sở thích nói dối vì lợi nhuận của các cá nhân, họ vui vẻ làm theo, ngay cả khi họ biết nguồn của lời khuyên là AI. Có vẻ như có sự khác biệt giữa các sở thích đã nêu và hành vi thực tế, làm nổi bật sự cần thiết phải nghiên cứu hành vi của con người khi tương tác với các kết quả đầu ra thuật toán thực tế.”

VentureBeat

Nhiệm vụ của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số cho những người ra quyết định kỹ thuật có được kiến ​​thức về công nghệ chuyển đổi và giao dịch. Trang web của chúng tôi cung cấp thông tin cần thiết về công nghệ và chiến lược dữ liệu để hướng dẫn bạn khi bạn lãnh đạo tổ chức của mình. Chúng tôi mời bạn trở thành thành viên của cộng đồng của chúng tôi, để truy cập:

  • thông tin cập nhật về các chủ đề mà bạn quan tâm
  • bản tin của chúng tôi
  • nội dung dẫn dắt tư tưởng được kiểm soát và giảm giá quyền truy cập vào các sự kiện được đánh giá cao của chúng tôi, chẳng hạn như Chuyển đổi
  • các tính năng mạng và hơn thế nữa

Trở thành thành viên

Nguồn: https://venturebeat.com/2021/02/16/ai-can-persuade-people-to-make-ethively-questionable-decisions-study-finds/

tại chỗ_img

Tin tức mới nhất

tại chỗ_img