Logo Zephyrnet

OpenAI gây lo ngại về các quy định AI của EU, đe dọa ngừng hoạt động ở châu Âu

Ngày:

OpenAI có nguy cơ ngừng hoạt động ở châu Âu | Đạo luật AI

OpenAI, công ty trí tuệ nhân tạo nổi tiếng đứng sau ChatGPT, đã bày tỏ lo lắng về Đạo luật AI được đề xuất của Liên minh Châu Âu. Trong chuyến thăm London gần đây, CEO của OpenAI, Sam Altman, OpenAI đã bày tỏ quan ngại và đe dọa ngừng hoạt động ở châu Âu. Hơn nữa, ông cảnh báo rằng nếu việc tuân thủ các quy định trở nên không thể thực hiện được, công ty có thể buộc phải rút dịch vụ của mình khỏi EU. Với những tác động tiềm tàng đối với các hoạt động của OpenAI ở châu Âu, sự phát triển này đã gây ra cuộc tranh luận và sự chú ý đáng kể. Hãy cùng tìm hiểu chi tiết về Đạo luật AI của EU và khám phá những hậu quả tiềm tàng từ lập trường của OpenAI.Cũng đọc: Giám đốc điều hành OpenAI kêu gọi các nhà lập pháp điều chỉnh AI khi xem xét rủi ro AI

Đạo luật AI được đề xuất của EU và các mục tiêu của nó

Đạo luật AI được đề xuất của EU và các mục tiêu của nó | Mở AI | Sam Altman

Liên minh châu Âu đã bắt tay vào một sáng kiến ​​​​đột phá với Đạo luật AI được đề xuất. Nó đang được ca ngợi là luật điều chỉnh chính đầu tiên liên quan đến AI trên toàn thế giới. Đạo luật này chủ yếu tập trung vào việc điều chỉnh các hệ thống trí tuệ nhân tạo và bảo vệ công dân châu Âu khỏi những rủi ro tiềm ẩn liên quan đến AI. Nghị viện Châu Âu đã thể hiện sự ủng hộ áp đảo bằng cách bỏ phiếu thông qua Đạo luật AI, với ngày thông qua dự kiến ​​được ấn định vào ngày 14 tháng XNUMX.Cũng đọc: Nhà Trắng kêu gọi các ông trùm công nghệ gặp gỡ để giải quyết mối đe dọa AI

Ba loại rủi ro được xác định bởi Đạo luật AI

Để giải quyết các mức độ rủi ro khác nhau liên quan đến hệ thống AI, Đạo luật AI đề xuất phân loại thành ba loại riêng biệt:

Ba loại rủi ro được định nghĩa bởi Đạo luật AI | EU | OpenAI có nguy cơ ngừng hoạt động ở châu Âu

A. Hạng mục Rủi ro Cao nhất:

Đạo luật AI nghiêm cấm rõ ràng việc sử dụng các hệ thống AI gây ra rủi ro không thể chấp nhận được, chẳng hạn như các hệ thống tương tự như hệ thống tính điểm xã hội do chính phủ điều hành được quan sát thấy trong Trung Quốc. Những lệnh cấm như vậy nhằm mục đích bảo vệ quyền riêng tư cá nhân, ngăn chặn khả năng phân biệt đối xử và bảo vệ khỏi những hậu quả xã hội có hại.

Loại thứ hai liên quan đến các hệ thống AI tuân theo các yêu cầu pháp lý cụ thể. Một ví dụ được đề cập trong đạo luật là sử dụng hệ thống AI để quét sơ yếu lý lịch và xếp hạng người xin việc. EU dự định đảm bảo sự công bằng và minh bạch trong các hoạt động tuyển dụng dựa trên AI bằng cách áp đặt các nghĩa vụ pháp lý.

C. Hạng mục phần lớn không được kiểm soát:

Các hệ thống AI không bị cấm rõ ràng hoặc được liệt kê là có nguy cơ cao rơi vào danh mục này, điều đó có nghĩa là chúng phần lớn sẽ không được kiểm soát. Cách tiếp cận này cho phép sự linh hoạt trong khi vẫn dành chỗ cho sự đổi mới và phát triển trong công nghệ AI.Cũng đọc: Châu Âu xem xét lệnh cấm Chatbot AI sau lệnh chặn ChatGPT của Ý

Lời kêu gọi thận trọng và cân bằng của các công ty công nghệ

Lời kêu gọi thận trọng và cân bằng của các công ty công nghệ | Đạo luật AI | OpenAI có nguy cơ ngừng hoạt động ở châu Âu

Nhiều công ty công nghệ của Hoa Kỳ, bao gồm OpenAI và Google, đã kêu gọi Brussels đưa ra cách tiếp cận cân bằng hơn đối với quy định về AI. Họ lập luận rằng châu Âu nên phân bổ đủ thời gian để nghiên cứu và hiểu được sự phức tạp của công nghệ, cân bằng hiệu quả các cơ hội và rủi ro. Sundar Pichai, Giám đốc điều hành của Google, gần đây đã gặp gỡ các quan chức chủ chốt của EU để thảo luận về chính sách AI, nhấn mạnh tầm quan trọng của các quy định khuyến khích đổi mới mà không cản trở tiến độ.

Trong chuyến thăm London của mình, Sam Altman đã bày tỏ những lo ngại nghiêm trọng về khả năng của OpenAI trong việc tuân thủ các điều khoản của Đạo luật AI. Mặc dù Altman thừa nhận ý định tuân thủ của công ty, nhưng ông tuyên bố rằng nếu việc tuân thủ trở nên không thể thực hiện được, OpenAI sẽ không có lựa chọn nào khác ngoài việc ngừng hoạt động ở Châu Âu. Thật thú vị, Sam Altman cũng đã ủng hộ việc thành lập một cơ quan chính phủ để giám sát các dự án AI ở quy mô lớn. Ông tin rằng một cơ quan như vậy nên cấp giấy phép cho các công ty AI và có quyền thu hồi chúng nếu các quy tắc an toàn bị vi phạm.Cũng đọc: Các nhà lãnh đạo OpenAI viết về rủi ro của AI, đề xuất các cách quản lý

Cân nhắc về tính minh bạch và an toàn

Đạo luật AI | EU | Sam Altman | OpenAI có nguy cơ ngừng hoạt động ở châu Âu

OpenAI đã phải đối mặt với những lời chỉ trích vì sự thiếu minh bạch liên quan đến các mô hình AI của nó. Bản phát hành gần đây của GPT-4 đã tạo ra sự thất vọng trong cộng đồng AI do không có thông tin về dữ liệu đào tạo, chi phí và quy trình tạo. Ilya Sutskever, đồng sáng lập và nhà khoa học trưởng của OpenAI, đã bảo vệ quan điểm này bằng cách viện dẫn những lo ngại về cạnh tranh và an toàn. Sutskever nhấn mạnh nỗ lực hợp tác và thời gian cần thiết để phát triển các mô hình AI. Hơn nữa, ông lưu ý rằng sự an toàn sẽ trở nên quan trọng hơn.

nói của chúng tôi

As cuộc tranh luận xung quanh các quy định về AI ngày càng gay gắt, OpenAI có nguy cơ ngừng hoạt động ở châu Âu vì Đạo luật AI của EU đã tạo ra sự chú ý đáng kể. Luật được đề xuất nhằm mục đích cân bằng quy định và đổi mới. Do đó, đảm bảo các hệ thống AI không gây ra rủi ro quá mức trong khi vẫn cho phép tiến bộ. Mối quan tâm của OpenAI làm nổi bật những thách thức mà các công ty phải đối mặt khi điều hướng các khung pháp lý phức tạp. Khi Đạo luật AI được thông qua, các cuộc thảo luận về tương lai của quy định AI chắc chắn sẽ tiếp tục thu hút cộng đồng công nghệ cũng như các nhà hoạch định chính sách.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img