제퍼넷 로고

EU AI법 – 은행 및 핀테크에 미치는 영향은 무엇입니까?

시간

금년 5월 발효 예정인 AI법에 대한 어제 유럽 의회의 최종 투표는 세계에서 가장 포괄적인 AI 법안을 예고했습니다. GDPR과 마찬가지로 이는 EU를 넘어 전 세계적으로 영향을 미칠 것입니다.

AI법은 신뢰할 수 있는 AI의 개발과 AI 도구의 책임감 있는 사용, 특히 투명성, 편견, 개인정보 침해, 보안 위험 및 잘못된 정보 유포 가능성을 보장하기 위한 포괄적인 프레임워크를 제공합니다.
AI 기술 개발에 대한 인간의 감독으로. 

이 지침에는 AI가 신뢰할 수 있고 윤리적으로 건전하다는 것을 보장하기 위해 구속력이 없는 AI에 대한 7가지 윤리 원칙이 사용됩니다. 원칙에는 다음이 포함됩니다.

– 인간 기관 및 감독;

– 기술적 견고성과 안전성;

– 개인 정보 보호 및 데이터 거버넌스;

– 투명성;

– 다양성, 차별 금지 및 공정성;

– 사회적, 환경적 복지와 책임.

계층화된 위험 기반 접근 방식을 사용하면 은행 및 의료와 같은 분야의 고위험 AI 시스템은 규정을 준수하지 않을 경우 엄격한 법적 의무와 상당한 처벌을 받게 됩니다. 이 법은 AI를 최소 수준부터 허용할 수 없는 수준까지 4가지 위험 계층으로 분류합니다.
점점 더 커지는 의무와 함께.

EU AI법은 다음을 포함한 특정 AI 시스템의 개발, 배포 및 사용을 금지합니다.

– 소셜 채점 시스템

– 사회 공학

– 공공장소에서 실시간 원격 생체인식

– AI 기반 프로파일링 및 행동 예측

– 데이터베이스 확장을 위해 얼굴 이미지를 스크래핑하고 확대합니다.

– AI 기반 조작 기술은 자율성과 자유 선택을 훼손한다. 

모든 AI 시스템이 심각한 위험을 초래하는 것은 아닙니다. 특히 의사 결정에 실질적으로 영향을 미치지 않거나 보호되는 법적 이익에 실질적으로 해를 끼치지 않는 경우에는 더욱 그렇습니다. 의사결정에 최소한의 영향을 미치거나 업무 수행과 같은 법적 이익에 대한 위험을 최소화하는 AI 시스템
좁은 작업이나 인간 활동 강화는 위험이 낮은 것으로 간주됩니다. 투명성을 위해 이러한 시스템에 대한 문서화 및 등록이 강조됩니다. 고위험 AI 시스템 중 일부에는 은행, 보험(의료뿐만 아니라)을 포함한 여러 부문이 포함됩니다.
장치, HR, 교육 등).

고위험 AI 시스템에 대한 필수 요구 사항은 목적과 사용 맥락을 고려하여 신뢰성을 보장하고 위험을 완화하는 것을 목표로 합니다. 금융 서비스 및 핀테크 기업, 특히 고객 데이터를 다루는 기업에서는
아래의 고위험 AI 시스템에 대한 요구 사항을 염두에 두십시오.

– 건강, 안전, 권리에 중점을 두고 업데이트, 문서화 및 이해관계자 참여가 필요한 고위험 AI에 대한 지속적이고 반복적인 위험 관리입니다.

– 기본권 영향 평가 실시

– 차별을 방지하고 데이터 보호법 준수를 보장하기 위한 엄격한 거버넌스

– 교육 및 테스트 데이터 세트는 건강, 안전 및 기본권에 대한 부정적인 영향을 방지하기 위해 대표성 있고 정확하며 편견이 없어야 합니다.

– 인간의 감독과 투명성 보장

– 편향 감지 및 수정 보장

– 명확하고 업데이트된 기술 문서의 시스템 특성, 알고리즘, 데이터 프로세스 및 위험 관리를 포함하여 추적성, 규정 준수 확인, 운영 모니터링 및 시판 후 감독을 위한 이해하기 쉬운 문서
AI의 수명 전반에 걸쳐 자동 이벤트 로깅.

– 고위험 AI 시스템은 수명주기 전반에 걸쳐 일관되게 작동해야 하며 적절한 수준의 정확성, 견고성 및 사이버 보안을 충족해야 합니다.

기업은 최근 규정을 준수하고 규정 위반에 대한 무거운 처벌을 방지하기 위해 책임 있는 AI 개발을 우선시해야 합니다. 다음은 회사가 규정 준수를 보장하기 위해 시작해야 하는 몇 가지 단계입니다.

  1. AI 거버넌스 구축 초기에 이해관계자들의 참여와 동의를 보장합니다.
  2. 교육 및 훈련 AI의 윤리적 원칙에 따라 팀을 구성하세요. AI 위험을 관리하려면 데이터 분석부터 보안/개인 정보 보호, 법률 등에 이르기까지 새로운 기술이 필요합니다.
  3. AI 감사 수행 조직(엔지니어링뿐만 아니라)뿐만 아니라 법률, HR 등 조직에서 AI가 사용되는 위치에 대한 전체 그림을 얻습니다.
  4. 지속적인 규정 준수 확인
  5. SaaS 제공업체가 책임감 있게 AI를 사용하고 있는지 확인하세요.
  6. 모델의 투명성, 이해 및 설명 가능성 보장 귀하의 사업에 사용되는

올바른 방향으로 나아가는 데 꼭 필요한 단계이기는 하지만, 악마는 세부적인 부분에 있습니다. AI 법은 기존 조직과 AI 중심 조직 모두의 미래에 상당한 영향을 미칠 것입니다. AI의 영향력이 점점 더 커지는 시대를 헤쳐나가면서
윤리적 표준과 규제 요구 사항을 준수하는 것은 단순히 법적 준수의 문제가 아니라 전략적 필수 사항입니다. 책임 있는 AI에 중점을 둠으로써 기업은 막대한 벌금으로부터 자신을 보호할 뿐만 아니라 입지도 확보할 수 있습니다.
빠르게 진화하는 디지털 환경에서 신뢰할 수 있고 미래 지향적인 기업입니다. 책임 있는 AI를 향한 여정은 기술, 거버넌스 및 사회 복지의 미래를 재정의할 것을 약속하는 도전적이면서도 필수 불가결한 길입니다.

spot_img

최신 인텔리전스

spot_img