Logo Zephyrnet

Đạo luật AI của EU – Ý nghĩa gì đối với ngân hàng và Fintech?

Ngày:

Cuộc bỏ phiếu cuối cùng của Nghị viện Châu Âu ngày hôm qua về Đạo luật AI, dự kiến ​​có hiệu lực vào tháng 5 này, báo trước luật AI toàn diện nhất thế giới. Giống như GDPR, nó sẽ có ý nghĩa toàn cầu ngoài EU.

Đạo luật AI cung cấp một khuôn khổ toàn diện để đảm bảo sự phát triển của AI đáng tin cậy và việc sử dụng có trách nhiệm các công cụ AI, đặc biệt là tính minh bạch, thiên vị, vi phạm quyền riêng tư, rủi ro bảo mật cũng như khả năng phổ biến thông tin sai lệch.
như sự giám sát của con người trong việc phát triển công nghệ AI. 

Trong những hướng dẫn đó, bảy nguyên tắc đạo đức không ràng buộc đối với AI được sử dụng nhằm giúp đảm bảo rằng AI đáng tin cậy và có đạo đức. Các nguyên tắc bao gồm

– cơ quan con người và giám sát;

– độ bền và an toàn kỹ thuật;

– quyền riêng tư và quản trị dữ liệu;

– tính minh bạch;

– đa dạng, không phân biệt đối xử và công bằng;

– Phúc lợi xã hội và môi trường và trách nhiệm giải trình.

Với cách tiếp cận dựa trên rủi ro theo cấp độ, các hệ thống AI có rủi ro cao trong các lĩnh vực như ngân hàng và chăm sóc sức khỏe sẽ phải đối mặt với các nghĩa vụ pháp lý nghiêm ngặt và các hình phạt khá lớn nếu không tuân thủ. Đạo luật phân loại AI thành bốn cấp độ rủi ro, từ mức tối thiểu đến không thể chấp nhận được, mỗi cấp độ
với các nghĩa vụ leo thang.

Đạo luật AI của EU cấm phát triển, triển khai và sử dụng một số hệ thống AI nhất định, bao gồm:

– Hệ thống tính điểm xã hội

- Kỹ thuật xã hội

– Nhận dạng sinh trắc học từ xa theo thời gian thực trong không gian công cộng

– Lập hồ sơ và dự đoán hành vi dựa trên AI

– Quét và tăng cường hình ảnh khuôn mặt để mở rộng cơ sở dữ liệu

– Các kỹ thuật thao túng dựa trên AI làm suy yếu quyền tự chủ và tự do lựa chọn 

Không phải tất cả các hệ thống AI đều gây ra rủi ro đáng kể, đặc biệt nếu chúng không ảnh hưởng nghiêm trọng đến việc ra quyết định hoặc gây tổn hại đáng kể đến các lợi ích hợp pháp được bảo vệ. Các hệ thống AI có tác động tối thiểu đến việc ra quyết định hoặc rủi ro đối với lợi ích hợp pháp, chẳng hạn như những người thực hiện
nhiệm vụ hẹp hoặc tăng cường hoạt động của con người, được coi là rủi ro thấp. Tài liệu và đăng ký cho các hệ thống này được nhấn mạnh để đảm bảo tính minh bạch. Một số hệ thống AI có rủi ro cao bao gồm một số lĩnh vực, bao gồm ngân hàng và bảo hiểm (cũng như y tế).
thiết bị, nhân sự, giáo dục, v.v.).

Các yêu cầu bắt buộc đối với các hệ thống AI có rủi ro cao nhằm đảm bảo độ tin cậy và giảm thiểu rủi ro, có tính đến mục đích và bối cảnh sử dụng của chúng. Điều quan trọng đối với các công ty dịch vụ tài chính và công nghệ tài chính, đặc biệt là những công ty xử lý dữ liệu khách hàng, là phải duy trì
Hãy ghi nhớ những yêu cầu dưới đây đối với các hệ thống AI có rủi ro cao:

– Quản lý rủi ro liên tục, lặp đi lặp lại cho AI có rủi ro cao, tập trung vào sức khỏe, an toàn và quyền, yêu cầu cập nhật, tài liệu và sự tham gia của các bên liên quan.

– Tiến hành đánh giá tác động của các quyền cơ bản

– quản trị chặt chẽ để tránh phân biệt đối xử và đảm bảo tuân thủ luật bảo vệ dữ liệu

– Bộ dữ liệu đào tạo và kiểm tra phải mang tính đại diện, chính xác và không có sai lệch để ngăn ngừa tác động tiêu cực đến sức khỏe, an toàn và các quyền cơ bản

– Đảm bảo sự giám sát và minh bạch của con người

– Đảm bảo phát hiện và hiệu chỉnh sai lệch

– tài liệu dễ hiểu về truy xuất nguồn gốc, xác minh tuân thủ, giám sát hoạt động và giám sát sau thị trường, bao gồm các đặc điểm hệ thống, thuật toán, quy trình dữ liệu và quản lý rủi ro trong các tài liệu kỹ thuật rõ ràng, cập nhật, cùng với
ghi nhật ký sự kiện tự động trong suốt vòng đời của AI.

– Các hệ thống AI có rủi ro cao phải hoạt động nhất quán trong suốt vòng đời của chúng và đáp ứng mức độ chính xác, mạnh mẽ và an ninh mạng phù hợp

Các doanh nghiệp phải ưu tiên phát triển AI có trách nhiệm để tuân thủ các quy định gần đây và ngăn chặn các hình phạt nặng nề nếu không tuân thủ. Đây là một số bước mà công ty nên bắt đầu thực hiện để đảm bảo tuân thủ:

  1. Thiết lập quản trị AI sớm, đảm bảo sự tham gia và đồng thuận của các bên liên quan
  2. Giáo dục và đào tạo nhóm của bạn về các nguyên tắc đạo đức của AI. Quản lý rủi ro AI sẽ đòi hỏi các kỹ năng mới, từ phân tích dữ liệu đến bảo mật/quyền riêng tư, pháp lý, v.v.
  3. Thực hiện kiểm toán AI của tổ chức (và không chỉ về kỹ thuật), mà còn về pháp lý, nhân sự, v.v. để có được bức tranh đầy đủ về nơi AI được sử dụng trong tổ chức
  4. Kiểm tra việc tuân thủ liên tục
  5. Đảm bảo nhà cung cấp SaaS của bạn đang sử dụng AI một cách có trách nhiệm
  6. Đảm bảo tính minh bạch, dễ hiểu và có thể giải thích được của các mô hình được sử dụng trong doanh nghiệp của bạn

Mặc dù đây là một bước đi rất cần thiết và đúng hướng, nhưng điều khó khăn nằm ở các chi tiết và Đạo luật AI sẽ có tác động đáng kể đến tương lai của các tổ chức, cả truyền thống và tập trung vào AI. Khi chúng ta bước qua thời đại mà tác động của AI ngày càng tăng
sâu sắc, phù hợp với các tiêu chuẩn đạo đức và yêu cầu pháp lý không chỉ là vấn đề tuân thủ pháp luật mà còn là mệnh lệnh chiến lược. Bằng cách tập trung vào AI có trách nhiệm, các doanh nghiệp không chỉ tự bảo vệ mình trước những khoản phạt đáng kể mà còn định vị được vị thế của mình
là những thực thể đáng tin cậy và có tư duy tiến bộ trong bối cảnh kỹ thuật số đang phát triển nhanh chóng. Hành trình hướng tới AI có trách nhiệm là một con đường đầy thách thức nhưng không thể thiếu, hứa hẹn sẽ xác định lại tương lai của công nghệ, quản trị và phúc lợi xã hội.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img