Logo Zephyrnet

Khảo sát: Hơn một nửa số sinh viên đại học ở Vương quốc Anh đang sử dụng AI cho công việc đại học

Ngày:

Tóm tắt về AI Theo một nghiên cứu do Viện Chính sách Giáo dục Đại học thực hiện, hơn một nửa số sinh viên đại học ở Anh đang sử dụng AI để hoàn thành bài tập của mình.

Nghiên cứu đã hỏi hơn 1,000 sinh viên đại học xem họ có sử dụng các công cụ như ChatGPT để giúp viết bài luận hoặc giải quyết vấn đề hay không và 53% thừa nhận đã sử dụng công nghệ này. Một nhóm nhỏ hơn – XNUMX% số người tham gia – cho biết họ chỉ sao chép và dán văn bản do AI tạo ra cho bài tập ở trường của họ.

“Mối quan tâm hàng đầu của tôi là số lượng đáng kể sinh viên không nhận thức được khả năng xảy ra 'ảo giác' và sự thiếu chính xác trong AI. Tôi tin rằng trách nhiệm của chúng tôi với tư cách là các nhà giáo dục là phải trực tiếp giải quyết vấn đề này,” Andres Guadamuz, Độc giả về Luật Sở hữu Trí tuệ tại Đại học Sussex, cho biết. nói với Người bảo vệ. 

Công nghệ này vẫn còn non trẻ và giáo viên đang phải nắm bắt cách sử dụng nó trong giáo dục. Quỹ tài trợ giáo dục (EFF), một tổ chức từ thiện độc lập, đang triển khai một thử nghiệm để xem AI có thể giúp họ tạo ra tài liệu giảng dạy như giáo án, bài kiểm tra hoặc câu hỏi thực hành như thế nào. Có 58 trường được cho là đang tham gia vào nghiên cứu này. 

Becky Francis, giám đốc điều hành của EEF cho biết: “Đã có rất nhiều dự đoán xung quanh việc công nghệ này có thể thay đổi vai trò của giáo viên như thế nào, nhưng nghiên cứu về tác động thực sự của nó đối với thực tiễn hiện còn hạn chế”. “Những phát hiện từ thử nghiệm này sẽ là một đóng góp quan trọng cho cơ sở bằng chứng, đưa chúng ta đến gần hơn với sự hiểu biết về cách giáo viên có thể sử dụng AI.”

Ý cho biết ChatGPT của OpenAI đang vi phạm luật GDPR của Châu Âu

Cơ quan bảo vệ dữ liệu Ý tin rằng OpenAI đang vi phạm luật GDPR của EU và đã cho công ty khởi nghiệp cơ hội phản hồi các cáo buộc.

Năm ngoái, Garante tạm thời bị cấm quyền truy cập vào ChatGPT từ trong nước trong khi điều tra các mối lo ngại về quyền riêng tư dữ liệu. Các quan chức đã cảnh giác rằng OpenAI có thể đã lấy thông tin cá nhân của người Ý từ Internet để đào tạo các mô hình của họ.

Họ lo ngại rằng chatbot AI có thể có khả năng thu hồi và lấy lại số điện thoại, địa chỉ email của mọi người, v.v. từ những người dùng đang cố gắng trích xuất dữ liệu bằng cách truy vấn mô hình. Cơ quan quản lý đã đưa ra một điều tra vào phần mềm của OpenAI và hiện cho rằng công ty này đang vi phạm luật bảo mật dữ liệu của mình. Công ty khởi nghiệp này có thể phải đối mặt với mức phạt lên tới 20 triệu euro hoặc 4% thu nhập hàng năm của công ty. 

Người phát ngôn của công ty cho biết: “Chúng tôi tin rằng các hoạt động của chúng tôi phù hợp với GDPR và các luật về quyền riêng tư khác, đồng thời chúng tôi thực hiện các bước bổ sung để bảo vệ dữ liệu và quyền riêng tư của mọi người”. nói với TechCrunch trong một tuyên bố. 

“Chúng tôi muốn AI của mình tìm hiểu về thế giới chứ không phải về các cá nhân riêng tư. Chúng tôi tích cực nỗ lực giảm thiểu dữ liệu cá nhân trong quá trình đào tạo các hệ thống của mình như ChatGPT, hệ thống này cũng từ chối các yêu cầu cung cấp thông tin riêng tư hoặc nhạy cảm về mọi người. Chúng tôi dự định tiếp tục hợp tác mang tính xây dựng với Garante.”

OpenAI có 30 ngày để tự bảo vệ và giải thích cách mô hình của nó không vi phạm GDPR.

Luật sư gặp rắc rối vì trích dẫn các vụ án giả do AI bịa ra

Một luật sư khác một lần nữa đã viện dẫn một trường hợp do ChatGPT bịa đặt trong vụ kiện.

Jae Lee, một luật sư đến từ New York, đã báo cáo rơi mình vào nước nóng và được chuyển cho hội đồng giải quyết khiếu nại của luật sư theo lệnh do các thẩm phán từ Tòa phúc thẩm lưu động Hoa Kỳ đưa ra.

Cô thừa nhận đã trích dẫn một “quyết định của tòa án tiểu bang không tồn tại” trước tòa và cho biết cô dựa vào phần mềm “để xác định tiền lệ có thể hỗ trợ cho lập luận của mình” mà không cần “đọc hoặc xác nhận tính hợp lệ của quyết định mà cô đã trích dẫn,” lệnh đã đọc.

Thật không may, sai lầm của cô giờ đây đồng nghĩa với việc vụ kiện của khách hàng của cô, cáo buộc một bác sĩ sơ suất, đã bị bác bỏ. Đây không phải là lần đầu tiên một luật sư dựa vào ChatGPT trong công việc của họ, chỉ để sau đó phát hiện ra rằng nó đã bịa ra những vụ án sai sự thật. 

Bạn có thể muốn chuyển sang sử dụng các công cụ như ChatGPT vì đây là cách dễ dàng để trích xuất và tạo văn bản, nhưng chúng thường bịa đặt thông tin, khiến chúng trở nên đặc biệt nguy hiểm khi sử dụng trong các ứng dụng pháp lý. Tuy nhiên, nhiều luật sư vẫn tiếp tục làm như vậy.

Năm ngoái, một cặp luật sư đến từ New York bị phạt vì những trường hợp sai sự thật được ChatGPT trích dẫn, trong khi một luật sư ở Colorado bị cấm hành nghề luật sư tạm thời. Trong khi đó, vào tháng 12 năm ngoái, Michael Cohen, cựu luật sư của Donald Trump, được cho là đã làm điều tương tự. sai lầm quá.

Vương quốc Anh có thể bỏ lỡ 'cơn sốt vàng' AI nếu quá khắt khe về an toàn, Lords nói

Một báo cáo từ ủy ban thượng viện ở Anh cho biết khả năng nước này tham gia vào cái gọi là “cơn sốt vàng AI” đang bị đe dọa nếu tập trung quá nhiều vào “những rủi ro xa vời và không thể xảy ra”.

Một báo cáo của House of Lords AI tuần trước tuyên bố rằng mong muốn của chính phủ trong việc thiết lập các rào cản đối với các Mô hình Ngôn ngữ Lớn có nguy cơ cản trở sự đổi mới trong nước trong ngành công nghiệp non trẻ. Nó cũng cảnh báo về nguy cơ nắm bắt theo quy định “thực sự và đang gia tăng”, mô tả một “cuộc đua trị giá hàng tỷ bảng Anh để chiếm lĩnh thị trường”.

Báo cáo cho biết thêm rằng chính phủ nên ưu tiên cạnh tranh cởi mở và minh bạch, vì nếu không có điều này, một số ít công ty công nghệ có thể nhanh chóng củng cố quyền kiểm soát của họ đối với “thị trường quan trọng và hạn chế những người chơi mới, phản ánh những thách thức đã thấy ở những nơi khác trong dịch vụ internet”. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img