Zephyrnet Logo

A Lei de IA da UE – Quais são as implicações para o setor bancário e Fintech?

Data:

A votação final do Parlamento Europeu de ontem sobre a Lei da IA, prevista para entrar em vigor em Maio deste ano, anuncia a legislação sobre IA mais abrangente do mundo. Tal como o GDPR, terá implicações globais para além da UE.

A Lei da IA ​​fornece um quadro abrangente para garantir o desenvolvimento de uma IA fiável e a utilização responsável de ferramentas de IA, em particular a transparência, o preconceito, as violações da privacidade, os riscos de segurança e o potencial de disseminação de informações erradas, bem como
como supervisão humana no desenvolvimento de tecnologias de IA. 

Nessas diretrizes, são utilizados sete princípios éticos não vinculativos para a IA, destinados a ajudar a garantir que a IA seja fiável e eticamente sólida. Os princípios incluem

– agência humana e supervisão;

– robustez técnica e segurança;

– privacidade e governança de dados;

– transparência;

– diversidade, não discriminação e justiça;

– bem-estar social e ambiental e responsabilização.

Com uma abordagem escalonada baseada no risco, os sistemas de IA de alto risco em setores como o bancário e o dos cuidados de saúde enfrentarão obrigações legais rigorosas e sanções consideráveis ​​em caso de incumprimento. A lei categoriza a IA em quatro níveis de risco, do mínimo ao inaceitável, cada um
com obrigações crescentes.

A Lei de IA da UE proíbe o desenvolvimento, implantação e utilização de determinados sistemas de IA, incluindo:

– Sistemas de pontuação social

- Engenharia social

– Identificação biométrica remota em tempo real em espaços públicos

– Perfil baseado em IA e previsão de comportamento

– Raspagem e aumento de imagens faciais para expandir bancos de dados

– Técnicas de manipulação baseadas em IA minam a autonomia e a livre escolha 

Nem todos os sistemas de IA apresentam riscos significativos, especialmente se não influenciarem materialmente a tomada de decisões ou prejudicarem substancialmente interesses jurídicos protegidos. Sistemas de IA com impacto mínimo na tomada de decisões ou risco para interesses jurídicos, como aqueles que executam
tarefas restritas ou que melhoram as atividades humanas são consideradas de baixo risco. A documentação e o registro desses sistemas são enfatizados para fins de transparência. Alguns dos sistemas de IA de alto risco incluem vários setores, incluindo bancos e seguros (bem como médicos).
dispositivos, RH, educação e muito mais).

Os requisitos obrigatórios para sistemas de IA de alto risco visam garantir a fiabilidade e mitigar os riscos, tendo em conta a sua finalidade e o contexto de utilização. É importante que as empresas de serviços financeiros e fintech, especialmente aquelas que lidam com dados de clientes, mantenham o
abaixo, tenha em mente estes requisitos para sistemas de IA de alto risco:

– Gestão de risco contínua e iterativa para IA de alto risco, com foco na saúde, segurança e direitos, exigindo atualizações, documentação e envolvimento das partes interessadas.

– Realização de uma avaliação de impacto nos direitos fundamentais

– governança rigorosa para evitar discriminação e garantir o cumprimento das leis de proteção de dados

– Os conjuntos de dados de treinamento e teste devem ser representativos, precisos e livres de preconceitos para evitar impactos adversos na saúde, segurança e direitos fundamentais

– Garantir supervisão humana e transparência

– Garantindo detecção e correção de viés

– documentação compreensível para rastreabilidade, verificação de conformidade, monitoramento operacional e supervisão pós-comercialização, incluindo características do sistema, algoritmos, processos de dados e gerenciamento de riscos em documentos técnicos claros e atualizados, além de
registro automático de eventos durante toda a vida útil da IA.

– Os sistemas de IA de alto risco devem funcionar de forma consistente ao longo do seu ciclo de vida e atingir um nível adequado de precisão, robustez e segurança cibernética

As empresas devem priorizar o desenvolvimento de IA Responsável para cumprir as regulamentações recentes e evitar penalidades pesadas por não conformidade. Estas são algumas das etapas que a empresa deve seguir para garantir a conformidade:

  1. Estabeleça governança de IA desde o início, garantindo o envolvimento e a adesão de todas as partes interessadas
  2. Educar e treinar sua equipe nos princípios éticos da IA. O gerenciamento dos riscos de IA exigirá novas habilidades, que vão desde análise de dados até segurança/privacidade, questões jurídicas e muito mais.
  3. Realize uma auditoria de IA da organização (e não apenas engenharia), mas também jurídico, RH, etc., para obter uma visão completa de onde a IA é usada na organização
  4. Verifique a conformidade contínua
  5. Garanta que seus provedores de SaaS estejam usando IA de maneira responsável
  6. Garantir transparência, compreensão e explicabilidade dos modelos que são usados ​​em seu negócio

Embora seja um passo muito necessário na direção certa, o diabo está nos detalhes, e a Lei da IA ​​terá um impacto substancial no futuro das organizações, tanto tradicionais como centradas na IA. À medida que navegamos numa era em que o impacto da IA ​​é cada vez mais
profundo, o alinhamento com padrões éticos e requisitos regulatórios não é apenas uma questão de conformidade legal, mas um imperativo estratégico. Ao concentrarem-se na IA Responsável, as empresas não só se protegem contra multas significativas, mas também se posicionam
como entidades confiáveis ​​e com visão de futuro no cenário digital em rápida evolução. A jornada em direção à IA Responsável é um caminho desafiador, mas indispensável, que promete redefinir o futuro da tecnologia, da governança e do bem-estar social.

local_img

Inteligência mais recente

local_img