O Conselho Consultivo Económico do Primeiro-Ministro da Índia (EACPM) redigiu um documento alertando que os actuais regulamentos globais de IA serão provavelmente ineficazes e recomendou a regulamentação da tecnologia com tácticas alternativas – como as utilizadas nos mercados financeiros.
O Conselho está muito preocupado com a IA. O seu documento alerta: “Através de uma combinação de vigilância, mensagens persuasivas e geração de meios de comunicação sintéticos, a IA malévola poderia controlar cada vez mais os ecossistemas de informação e até mesmo fabricar realidades enganosas personalizadas para coagir o comportamento humano, induzindo a esquizofrenia em massa”.
A organização critica a abordagem dos EUA à IA como muito indiferente, a do Reino Unido como apresentando risco por ser pró-inovação e laissez-faire, e as regras de IA da UE como falhas devido à fragmentação dos países membros do bloco e à adoção de diferentes ênfases e aplicações de medidas de execução.
O documento também argumenta que a tendência da China de regulamentar com “um sistema burocrático centralizado todo-poderoso” é falha – como demonstrado pela “provável origem da COVID-19 através de fugas de laboratório”.
Estamos através do espelho aqui, pessoal.
(Para que conste, o Gabinete do Director de Inteligência Nacional dos EUA não encontrei nenhuma indicação que o vírus vazou de um laboratório chinês.)
Mas estamos divagando.
O Conselho sugere que a IA seja considerada um “sistema descentralizado e auto-organizado [que evolui] através de ciclos de feedback, transições de fase e sensibilidade às condições iniciais” e postula outros exemplos de tais sistemas – como entidades não lineares vistas nos mercados financeiros, o comportamento de colónias de formigas ou padrões de tráfego.
“Os métodos tradicionais são insuficientes devido à natureza não linear e imprevisível da IA. Os sistemas de IA são semelhantes aos Sistemas Adaptativos Complexos (CAS), onde os componentes interagem e evoluem de maneiras imprevisíveis”, explicado [PDF] o conselho.
O Conselho não gosta de confiar em medidas “ex ante”, pois é impossível saber antecipadamente o risco que um sistema de IA irá apresentar – o seu comportamento é resultado de demasiados factores.
O documento propõe, portanto, que a Índia adote cinco medidas regulatórias:
- Instituindo guarda-corpos e divisórias, que deverá garantir que as tecnologias de IA não excedam a função pretendida nem invadam territórios perigosos – como a tomada de decisões sobre armamento nuclear. Se eles de alguma forma violarem essa proteção em um sistema, as partições estarão lá para garantir que isso não se espalhe.
- Garantindo substituições manuais e gargalos de autorização que mantêm os humanos no controle e os mantêm seguros com autenticação multifatorial e um processo de revisão em vários níveis para os tomadores de decisão humanos.
- Transparência e explicabilidade com medidas como licenciamento aberto para algoritmos principais para promover um ambiente favorável à auditoria, auditorias e avaliações regulares e documentação de desenvolvimento padronizada.
- Responsabilidade distinta por meio de protocolos de responsabilidade predefinidos, relatórios de incidentes padronizados obrigatórios e mecanismos de investigação.
- Criação de um órgão regulador especializadoque recebe um mandato abrangente, adota uma abordagem baseada em feedback, monitora e rastreia o comportamento do sistema de IA, integra sistemas de alerta automatizados e estabelece um registro nacional.
O Conselho recomendou que se recorresse a outros sistemas CAS para obter ideias sobre como concretizar as suas ideias – principalmente, os mercados financeiros.
“Os insights de sistemas caóticos que governam, como os mercados financeiros, demonstram abordagens regulatórias viáveis para tecnologias complexas”, observa o documento, sugerindo que reguladores dedicados à IA poderiam ser modelados em reguladores financeiros como o SEBI da Índia ou a SEC dos EUA.
Tal como esses organismos impõem interrupções nas negociações quando os mercados estão em perigo, os reguladores poderiam adotar “pontos de estrangulamento” semelhantes nos quais a IA seria controlada. Os relatórios financeiros obrigatórios são um bom modelo para o tipo de divulgação que os operadores de IA podem ser obrigados a apresentar.
As preocupações dos autores são alimentadas pela crença de que a crescente omnipresença da IA – combinada com a opacidade do seu funcionamento – significa que infraestruturas críticas, operações de defesa e muitos outros campos estão em risco.
Entre os perigos que descrevem estão a “IA descontrolada”, onde os sistemas podem melhorar-se recursivamente para além do controlo humano e “desalinhar-se com o bem-estar humano”, e o efeito borboleta – um cenário “onde pequenas alterações podem levar a consequências significativas e imprevistas”.
“Portanto, um sistema opaco de controle estatal sobre algoritmos, conjuntos de treinamento e modelos com o objetivo de maximizar interesses pode levar a resultados catastróficos”, alertou o Conselho.
O documento observa que os regulamentos propostos podem significar que alguns cenários precisam ser descartados.
“Podemos nunca permitir uma Internet superconectada para tudo”, admite o Conselho. Mas conclui que a humanidade pode ter mais a ganhar com regulamentações fortes.
“Aqueles que criam ferramentas de IA não serão facilmente deixados de lado por supostas consequências não intencionais – inserindo assim uma 'pele no jogo' ex-ante. Os humanos manterão poderes de substituição e autorização. Auditorias regulares obrigatórias terão que reforçar a explicabilidade.” ®
- Conteúdo com tecnologia de SEO e distribuição de relações públicas. Seja amplificado hoje.
- PlatoData.Network Gerativa Vertical Ai. Capacite-se. Acesse aqui.
- PlatoAiStream. Inteligência Web3. Conhecimento Amplificado. Acesse aqui.
- PlatãoESG. Carbono Tecnologia Limpa, Energia, Ambiente, Solar, Gestão de resíduos. Acesse aqui.
- PlatoHealth. Inteligência em Biotecnologia e Ensaios Clínicos. Acesse aqui.
- Fonte: https://go.theregister.com/feed/www.theregister.com/2024/02/01/indian_pms_ai_advice/