Logo Zephyrnet

Quy định về AI – tổng hợp toàn cầu

Ngày:

Trí tuệ nhân tạo đang phát triển với tốc độ cấp số nhân và thay đổi nhanh chóng thế giới xung quanh chúng ta trong mọi lĩnh vực. Nhận thức được những rủi ro đi kèm, các quốc gia trên thế giới đã bắt đầu soạn thảo và thực hiện các khung pháp lý để đảm bảo
rằng hệ thống AI an toàn, bảo mật và đáng tin cậy. Các công ty công nghệ, chính phủ và nhà hoạch định chính sách hàng đầu cũng kêu gọi một khuôn khổ toàn cầu được tiêu chuẩn hóa để phát triển các hệ thống AI tiên tiến một cách đáng tin cậy. Bài viết này nói về
các quy định mới nổi khác nhau trên các khu vực địa lý khác nhau, những thách thức sắp xảy ra và cách nó có thể định hình lĩnh vực đầu tư trong số những lĩnh vực khác.

Quan điểm của chúng tôi về các quy định AI

  Một số chủ đề phổ biến nổi lên trong các quy định về AI là các yêu cầu về tính công bằng, trách nhiệm giải trình và tính minh bạch trong việc sử dụng AI. Các nhà hoạch định chính sách và các cơ quan quản lý khác đang kêu gọi các nhà cung cấp cung cấp AI có trách nhiệm để bảo vệ
các quyền cơ bản của một cá nhân đồng thời thúc đẩy một môi trường lành mạnh cho sự đổi mới. Mặc dù Hoa Kỳ và Vương quốc Anh đã đưa ra các dự thảo quy định, nhưng EU vẫn đang tiến xa trong việc hoàn thiện các quy định vào ngày 23 tháng 2025 và có thể có hiệu lực vào năm XNUMX. Trong khi
EU đã áp dụng cách tiếp cận dựa trên rủi ro mang tính tập trung, rộng rãi và mang tính quy định, Vương quốc Anh đã áp dụng mô hình phi tập trung hơn bằng cách dựa vào các cơ quan quản lý hiện có để đưa ra các quy định dựa trên ngành cụ thể vì chính phủ Anh muốn tránh tiếp tục
gây nhầm lẫn bằng cách tạo ra một cơ quan quản lý liên ngành mới. Vương quốc Anh có kế hoạch áp dụng cách tiếp cận rủi ro dựa trên kết quả hơn là áp dụng rủi ro vỡ nợ cho các công nghệ cơ bản.

  Hoa Kỳ cũng đã áp dụng cách tiếp cận phi tập trung hóa với việc một số cơ quan liên bang đưa ra các nguyên tắc riêng cho các lĩnh vực tương ứng của họ, ví dụ: FTC, CFPB, v.v. SEC cũng có khả năng đưa ra các nguyên tắc cho thuật toán khuyến nghị tài chính
vì lợi ích tốt nhất của nhà đầu tư. Trong khi các tiêu chuẩn của EU rất rộng và nghiêm ngặt thì các cơ quan của Mỹ lại tụt lại phía sau. EU cũng tập trung vào thương mại điện tử, truyền thông xã hội và các nền tảng trực tuyến cung cấp phạm vi phủ sóng rộng rãi cho các lĩnh vực trong khi Mỹ vẫn chưa tập trung vào thương mại điện tử.
để xây dựng pháp luật về những vấn đề này.

Các quy định trên toàn thế giới – Ảnh chụp nhanh

Một cái nhìn nhanh về tình trạng các quy định hiện hành trên toàn cầu cho thấy phần lớn các quốc gia vẫn đang trong quá trình xây dựng các quy định hoặc có thể đang ở trạng thái dự thảo, ngoại trừ Châu Âu và Trung Quốc. Một số nước như
Mexico hiện chưa có bất kỳ dự thảo quy định nào hoặc có kế hoạch ban hành quy định này trong tương lai gần. Chúng tôi xem xét bản tóm tắt các quy định được đề xuất cho các khu vực địa lý quan trọng.

US  

Hoa Kỳ đã đưa ra nhiều hướng dẫn về một AI đáng tin cậy, chẳng hạn như ban hành Tuyên ngôn về Quyền của AI vào tháng 2022 năm XNUMX và Sắc lệnh Hành pháp của Chính quyền Hoa Kỳ về việc sử dụng Trí tuệ nhân tạo một cách an toàn, bảo mật và đáng tin cậy. Chính quyền Mỹ
gần đây đã thông qua một mệnh lệnh hành pháp nhấn mạnh vào các sáng kiến ​​dưới đây.

  • Phát triển và nghiên cứu AI: Lệnh chỉ đạo các cơ quan liên bang đầu tư vào nghiên cứu và phát triển AI, đồng thời làm cho nghiên cứu AI của họ dễ tiếp cận hơn với công chúng.
  • Sử dụng AI trong chính phủ: Lệnh đặt ra các tiêu chuẩn cho việc sử dụng AI trong chính phủ, bao gồm các yêu cầu về tính minh bạch, trách nhiệm giải trình và sự công bằng.
  • Phát triển lực lượng lao động AI: Lệnh chỉ đạo các cơ quan liên bang phát triển và thực hiện các chương trình đào tạo và nâng cao kỹ năng cho lực lượng lao động Mỹ về AI.
  • Hợp tác quốc tế AI: Lệnh thành lập Văn phòng Sáng kiến ​​AI Quốc gia mới để điều phối hợp tác quốc tế về AI.

 Lệnh này cũng bao gồm một số sáng kiến ​​cụ thể, chẳng hạn như:

  • Tạo Tuyên ngôn về Quyền của AI: Lệnh chỉ đạo Viện Tiêu chuẩn và Công nghệ Quốc gia phát triển Tuyên ngôn về Quyền của AI, trong đó nêu rõ các quyền và sự bảo vệ của các cá nhân trong bối cảnh AI.
  • Thành lập Trung tâm Xuất sắc về An ninh mạng AI: Sắc lệnh thành lập một Trung tâm Xuất sắc về An ninh mạng AI để phát triển và thúc đẩy các phương pháp hay nhất để bảo mật hệ thống AI.
  • Ra mắt Đám mây Nghiên cứu AI Quốc gia: Lệnh ra mắt Đám mây Nghiên cứu AI Quốc gia mới, sẽ cung cấp cho các nhà nghiên cứu quyền truy cập vào các tài nguyên điện toán mạnh mẽ để phát triển và thử nghiệm các thuật toán AI.

  Tuyên ngôn về Quyền của AI là một bộ hướng dẫn về thiết kế và sử dụng trí tuệ nhân tạo có trách nhiệm, do Văn phòng Chính sách Khoa học và Công nghệ (OSTP) của Nhà Trắng xây dựng trong bối cảnh toàn cầu đang nỗ lực thiết lập thêm nhiều quy định để quản lý AI.
Chính thức được gọi là kế hoạch chi tiết cho Tuyên ngôn về Quyền của AI, tài liệu này được xuất bản vào tháng 2022 năm XNUMX, là kết quả của sự hợp tác giữa OSTP, các học giả, các nhóm nhân quyền, công chúng và thậm chí cả các công ty lớn như Microsoft và Google.

Canada

 Đạo luật dữ liệu trí tuệ nhân tạo (AIDA), đang được chính phủ Canada ban hành cùng với Đạo luật bảo vệ quyền riêng tư của người tiêu dùng (CPPA) như một phần của Dự luật C-27, Đạo luật triển khai điều lệ kỹ thuật số, 2022, là nỗ lực đầu tiên của Canada trong việc
điều chỉnh trí tuệ nhân tạo (AI). Các tỉnh Quebec và Ontario cũng đang xem xét phát triển các khuôn khổ để xây dựng AI đáng tin cậy. Chúng có thể sẽ có hiệu lực vào năm 2024.

Châu Âu 

Đạo luật Trí tuệ nhân tạo của EU được Ủy ban Châu Âu công bố lần đầu tiên vào tháng 2021 năm 22 và được Hội đồng Liên minh Châu Âu thông qua vào ngày 23 tháng XNUMX. EU đã thông qua Đạo luật Trí tuệ nhân tạo vào ngày XNUMX tháng XNUMX và nó có thể sẽ có hiệu lực từ
2025. Một số điểm chính rút ra từ dự thảo quy định sẽ được thảo luận dưới đây.

Các quy định hiện hành được áp dụng cho mọi hệ thống hoặc ứng dụng AI đang được sử dụng ở EU, bất kể công ty đó hoạt động ở EU hay bên ngoài EU. Quy định tìm cách áp dụng cách tiếp cận dựa trên rủi ro và phân loại việc sử dụng AI theo mức độ rủi ro
(không thể chấp nhận, cao, hạn chế và tối thiểu hoặc không có rủi ro) và áp đặt các yêu cầu kiểm toán, tài liệu và quy trình đối với các nhà phát triển và triển khai hệ thống AI. Do đó, các công ty phát triển hoặc triển khai hệ thống AI sẽ cần ghi lại và xem xét các trường hợp sử dụng để xác định
phân loại rủi ro thích hợp.

  • Đạo luật AI nghiêm cấm các hệ thống “Rủi ro không thể chấp nhận” bao gồm hệ thống sinh trắc học và nhận dạng khuôn mặt ở những nơi công cộng phải được sử dụng tương tự. Các hệ thống được coi là có rủi ro cao nếu chúng gây ra “rủi ro đáng kể” đối với sức khỏe, sự an toàn,
    hoặc các quyền cơ bản.
  • Các hệ thống AI có rủi ro cao sẽ phải được đánh giá sự phù hợp trước khi triển khai, có sẵn tài liệu tuân thủ phù hợp, truy xuất nguồn gốc kết quả, tính minh bạch, sự giám sát của con người, độ chính xác và bảo mật.
  • Các nghĩa vụ minh bạch chặt chẽ hơn được đề xuất cho AI tạo ra, một danh mục con của các mô hình nền tảng, yêu cầu các nhà cung cấp hệ thống đó thông báo cho người dùng khi nội dung được tạo bởi AI.
  • Đề xuất của Quốc hội tăng mức phạt tiềm năng nếu vi phạm Đạo luật AI. Vi phạm một hành vi bị cấm sẽ phải chịu hình phạt lên tới 40 triệu euro hoặc 7% doanh thu toàn cầu hàng năm của công ty, tùy theo mức nào cao hơn, tăng từ 30 triệu euro,
    hoặc 6% doanh thu hàng năm toàn cầu.

UK 

  Chính phủ Vương quốc Anh đã ra mắt sách trắng vào ngày 23 tháng XNUMX, trong đó xác định năm nguyên tắc hướng dẫn cho AI – an toàn, minh bạch, công bằng, trách nhiệm giải trình và khả năng cạnh tranh. Cách tiếp cận này dựa trên mô hình đổi mới linh hoạt và chuyên nghiệp nhằm tận dụng các khả năng
và kỹ năng của các cơ quan quản lý hiện tại, trái ngược với cơ quan quản lý liên ngành, dành riêng cho AI mới.

Trung Quốc

         Ba quy định hàng đầu của Trung Quốc về AI là – quy định năm 2021 về thuật toán đề xuất, quy tắc năm 2022 về tổng hợp sâu (nội dung được tạo tổng hợp) và dự thảo quy tắc năm 2023 về AI tổng hợp. Các quy định này nhắm mục tiêu các thuật toán đề xuất
để phổ biến nội dung, hình ảnh và video được tạo tổng hợp cũng như các hệ thống AI tổng hợp như ChatGPT của OpenAI. Các quy tắc đặt ra các yêu cầu mới về cách xây dựng và triển khai thuật toán cũng như những thông tin mà nhà phát triển AI phải tiết lộ cho họ.
chính phủ và công chúng. Dự thảo quy định về AI tổng quát bắt buộc các nhà cung cấp bắt buộc phải gửi hồ sơ đến cơ quan đăng ký thuật toán hiện có. Nó cũng bao gồm một số yêu cầu mới về dữ liệu đào tạo và nội dung được tạo ra có thể tỏ ra cực kỳ khó khăn.
để các nhà cung cấp gặp nhau.

Thách thức triển khai

 Bộ quy tắc xung đột giữa các khu vực địa lý đặt ra thách thức lớn cho các nhà cung cấp AI toàn cầu trong việc áp dụng các quy định của các khu vực pháp lý tương ứng, trong khi chúng có thể được triển khai ở nhiều khu vực địa lý khác nhau. Ngoài ra, việc triển khai các
Các hướng dẫn về AI không nhanh chóng bằng sự xuất hiện của nhiều mô hình AI khác nhau, điều này có thể khiến luật pháp trở nên lỗi thời. Ngoại trừ EU, thách thức trong việc thực thi các khuôn khổ như vậy vẫn còn vì hầu hết các khu vực địa lý khác đều coi việc áp dụng là tự nguyện.

 Không có sự đồng thuận toàn cầu rõ ràng về định nghĩa của hệ thống AI trên quy mô toàn cầu, ví dụ: Đạo luật AI của EU yêu cầu các nhà cung cấp tiết lộ mọi tài liệu có bản quyền được sử dụng để phát triển các giải pháp và chủ sở hữu có thể từ chối dữ liệu có bản quyền
khỏi các tập dữ liệu huấn luyện, khiến EU trở thành lựa chọn ít được mong muốn hơn đối với các nhà cung cấp AI. Các khu vực địa lý khác không có bất kỳ quy định cụ thể nào đối với việc sử dụng tài liệu có bản quyền làm tập dữ liệu đào tạo và các nhà cung cấp cá nhân có đặc quyền phải thận trọng
của tài liệu có bản quyền.

Do tác động liên ngành của các quy định, cần có sự đồng thuận từ nhiều lĩnh vực khác nhau như luật, đạo đức, CNTT, tài chính và các chuyên gia khác để thống nhất về các quy định và khuôn khổ chung.

Các quy định được thiết kế để giải quyết các rủi ro AI cụ thể có thể gây ra những hậu quả không thể cưỡng lại khác, có thể cản trở các đổi mới, nghiên cứu hoặc sản phẩm có lợi về AI tiềm năng. Đạt được sự cân bằng giữa thúc đẩy đổi mới và bảo vệ trước rủi ro là rất khó
đối với các chính phủ vì nó có thể hạn chế các công ty khởi nghiệp và tài trợ cho AI.

Bước tiếp theo

Đạo luật AI của EU đã được quốc hội thông qua và có khả năng trở thành tiêu chuẩn toàn cầu về quy định AI vào năm 2025, trong khi Mỹ và Anh có một bộ hướng dẫn và khuôn khổ tự nguyện, không có quan điểm tập trung giữa các lĩnh vực và đang bị tụt hậu.
đứng sau EU về ngày thực thi. Mỗi quy định (Mỹ, EU và Trung Quốc) phản ánh cấu trúc xã hội và ưu tiên quốc gia của họ. Kết quả là, điều này sẽ tạo ra một môi trường pháp lý phức tạp hơn cho các doanh nghiệp hoạt động tương tác trên khắp
địa lý. Tính minh bạch, khả năng giải thích và phân loại rủi ro (ở cấp độ tổ chức, trường hợp sử dụng và mô hình/dữ liệu) là chìa khóa để tuân thủ các khung pháp lý mới nổi.

 Trong lĩnh vực dịch vụ tài chính, một số công nghệ AI/ML phổ biến được sử dụng trong nghiên cứu đầu tư, cố vấn robo, đánh giá rủi ro, kiểm tra AML, v.v. Những dịch vụ này được hỗ trợ thông qua AI và học máy cho phép các tổ chức tài chính cung cấp các dịch vụ phù hợp
và đa dạng hóa sản phẩm cho khách hàng với chi phí hợp lý. Việc áp dụng Generative AI ngày càng tăng cũng đi kèm với mối lo ngại ngày càng tăng về rủi ro tài chính. Mặc dù EU có các biện pháp và hình phạt nghiêm ngặt để bảo vệ đầu tư, nhưng SEC
và FCA đang thực hiện một cách tiếp cận thận trọng để đưa ra các hướng dẫn.

Sự chuẩn bị của các công ty để áp dụng quy định bất chấp những thách thức là một bước quan trọng hướng tới sự tuân thủ toàn cầu. Sự sẵn sàng tuân thủ các quy định của các công ty nên bắt đầu bằng một danh mục tài sản AI tổng hợp liệt kê các khu vực địa lý khác nhau
quy định, người dùng và sản phẩm bị ảnh hưởng, phân loại rủi ro của các ứng dụng AI khác nhau được sử dụng nội bộ, v.v. Điều bắt buộc là các công ty phải xây dựng một bàn làm việc AI được xác định rõ ràng bao gồm một khuôn khổ tổng thể với nhiều thành phần khác nhau được nhúng như Quản lý dữ liệu,
Đổi mới, Quản trị, Tuân thủ chính sách, v.v. từ đó thể hiện độ tin cậy của các hệ thống AI có liên quan.

Vẫn còn phải xem liệu sẽ có sự hợp tác toàn ngành giữa các nhà hoạch định chính sách, các công ty công nghệ lớn và các bên liên quan khác để soạn thảo một quy định AI toàn cầu được tiêu chuẩn hóa hay không. Các nhà lãnh đạo G7 cũng kêu gọi thảo luận về sáng tạo
AI, với mục đích thiết lập các tiêu chuẩn và quy định toàn cầu về việc sử dụng công nghệ có trách nhiệm.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img