Zephyrnet Logo

Assessores do primeiro-ministro indiano dizem que IA pode causar “esquizofrenia em massa”

Data:

O Conselho Consultivo Económico do Primeiro-Ministro da Índia (EACPM) redigiu um documento alertando que os actuais regulamentos globais de IA serão provavelmente ineficazes e recomendou a regulamentação da tecnologia com tácticas alternativas – como as utilizadas nos mercados financeiros.

O Conselho está muito preocupado com a IA. O seu documento alerta: “Através de uma combinação de vigilância, mensagens persuasivas e geração de meios de comunicação sintéticos, a IA malévola poderia controlar cada vez mais os ecossistemas de informação e até mesmo fabricar realidades enganosas personalizadas para coagir o comportamento humano, induzindo a esquizofrenia em massa”.

A organização critica a abordagem dos EUA à IA como muito indiferente, a do Reino Unido como apresentando risco por ser pró-inovação e laissez-faire, e as regras de IA da UE como falhas devido à fragmentação dos países membros do bloco e à adoção de diferentes ênfases e aplicações de medidas de execução.

O documento também argumenta que a tendência da China de regulamentar com “um sistema burocrático centralizado todo-poderoso” é falha – como demonstrado pela “provável origem da COVID-19 através de fugas de laboratório”.

Estamos através do espelho aqui, pessoal.

(Para que conste, o Gabinete do Director de Inteligência Nacional dos EUA não encontrei nenhuma indicação que o vírus vazou de um laboratório chinês.)

Mas estamos divagando.

O Conselho sugere que a IA seja considerada um “sistema descentralizado e auto-organizado [que evolui] através de ciclos de feedback, transições de fase e sensibilidade às condições iniciais” e postula outros exemplos de tais sistemas – como entidades não lineares vistas nos mercados financeiros, o comportamento de colónias de formigas ou padrões de tráfego.

“Os métodos tradicionais são insuficientes devido à natureza não linear e imprevisível da IA. Os sistemas de IA são semelhantes aos Sistemas Adaptativos Complexos (CAS), onde os componentes interagem e evoluem de maneiras imprevisíveis”, explicado [PDF] o conselho.

O Conselho não gosta de confiar em medidas “ex ante”, pois é impossível saber antecipadamente o risco que um sistema de IA irá apresentar – o seu comportamento é resultado de demasiados factores.

O documento propõe, portanto, que a Índia adote cinco medidas regulatórias:

  • Instituindo guarda-corpos e divisórias, que deverá garantir que as tecnologias de IA não excedam a função pretendida nem invadam territórios perigosos – como a tomada de decisões sobre armamento nuclear. Se eles de alguma forma violarem essa proteção em um sistema, as partições estarão lá para garantir que isso não se espalhe.
  • Garantindo substituições manuais e gargalos de autorização que mantêm os humanos no controle e os mantêm seguros com autenticação multifatorial e um processo de revisão em vários níveis para os tomadores de decisão humanos.
  • Transparência e explicabilidade com medidas como licenciamento aberto para algoritmos principais para promover um ambiente favorável à auditoria, auditorias e avaliações regulares e documentação de desenvolvimento padronizada.
  • Responsabilidade distinta por meio de protocolos de responsabilidade predefinidos, relatórios de incidentes padronizados obrigatórios e mecanismos de investigação.
  • Criação de um órgão regulador especializadoque recebe um mandato abrangente, adota uma abordagem baseada em feedback, monitora e rastreia o comportamento do sistema de IA, integra sistemas de alerta automatizados e estabelece um registro nacional.

O Conselho recomendou que se recorresse a outros sistemas CAS para obter ideias sobre como concretizar as suas ideias – principalmente, os mercados financeiros.

“Os insights de sistemas caóticos que governam, como os mercados financeiros, demonstram abordagens regulatórias viáveis ​​para tecnologias complexas”, observa o documento, sugerindo que reguladores dedicados à IA poderiam ser modelados em reguladores financeiros como o SEBI da Índia ou a SEC dos EUA.

Tal como esses organismos impõem interrupções nas negociações quando os mercados estão em perigo, os reguladores poderiam adotar “pontos de estrangulamento” semelhantes nos quais a IA seria controlada. Os relatórios financeiros obrigatórios são um bom modelo para o tipo de divulgação que os operadores de IA podem ser obrigados a apresentar.

As preocupações dos autores são alimentadas pela crença de que a crescente omnipresença da IA ​​– combinada com a opacidade do seu funcionamento – significa que infraestruturas críticas, operações de defesa e muitos outros campos estão em risco.

Entre os perigos que descrevem estão a “IA descontrolada”, onde os sistemas podem melhorar-se recursivamente para além do controlo humano e “desalinhar-se com o bem-estar humano”, e o efeito borboleta – um cenário “onde pequenas alterações podem levar a consequências significativas e imprevistas”.

“Portanto, um sistema opaco de controle estatal sobre algoritmos, conjuntos de treinamento e modelos com o objetivo de maximizar interesses pode levar a resultados catastróficos”, alertou o Conselho.

O documento observa que os regulamentos propostos podem significar que alguns cenários precisam ser descartados.

“Podemos nunca permitir uma Internet superconectada para tudo”, admite o Conselho. Mas conclui que a humanidade pode ter mais a ganhar com regulamentações fortes.

“Aqueles que criam ferramentas de IA não serão facilmente deixados de lado por supostas consequências não intencionais – inserindo assim uma 'pele no jogo' ex-ante. Os humanos manterão poderes de substituição e autorização. Auditorias regulares obrigatórias terão que reforçar a explicabilidade.” ®

local_img

Café VC

Café VC

Inteligência mais recente

local_img