Zephyrnet Logo

Como a IA pode capacitar comunidades e fortalecer a democracia

Data:

Cada quarto de julho nos últimos cinco anos Escrevi sobre IA com potencial para impactar positivamente as sociedades democráticas. Volto a essa pergunta com a esperança de esclarecer a tecnologia que pode fortalecer comunidades, proteger a privacidade e as liberdades ou apoiar o bem público.

Essa série está fundamentada no princípio de que a inteligência artificial pode ser capaz não apenas de valorizar a extração, mas também de empoderamento individual e social. Embora as soluções de IA geralmente propagem o viés, elas também podem ser usadas para detectar esse viés. Como o Dr. Safiya Noble apontou, a inteligência artificial é uma das questões críticas de direitos humanos de nossas vidas. A alfabetização em IA também é, como afirmou o CTO da Microsoft, Kevin Scott, um parte crítica de ser um cidadão informado no século 21.

Este ano, fiz a pergunta no Twitter para reunir uma gama mais ampla de insights. Obrigado a todos que contribuíram.

VB Transform 2020 online - 15-17 de julho. Junte-se aos principais executivos de IA: Registre-se para a transmissão ao vivo grátis.

Essa seleção não pretende ser abrangente, e algumas idéias incluídas aqui podem estar nos estágios iniciais, mas representam maneiras pelas quais a IA pode permitir o desenvolvimento de sociedades mais livres e justas.

Aprendizado de máquina para inteligência de código aberto 

A inteligência de código aberto, ou OSINT, é a coleta e análise de material público disponível gratuitamente. Isso pode fornecer soluções para criptografia e segurança, mas também pode ser usado para responsabilizar os governos.

Os esforços de crowdsourcing de grupos como Bellingcat já foram vistos como projetos paralelos interessantes. Mas descobertas com base em evidências de código aberto de zonas de combate - como um MH-17 sendo abatido sobre a Ucrânia e um ataque com gás sarin em 2013 na Síria - provaram ser valiosas para as autoridades investigativas.

Grupos como o Consórcio Internacional de Jornalistas Investigativos (ICIJ) são usando aprendizado de máquina em seu trabalho colaborativo. No ano passado, Marina Walker Guevara, do ICIJ, detalhou lições extraídas do Aprendizado de máquina para investigações processo de relatório, realizado em parceria com o Stanford AI Lab.

Em maio, pesquisadores da Universidade Nove de Julho, em São Paulo, Brasil, publicaram um revisão sistemática da IA ​​para inteligência de código aberto que encontraram quase 250 exemplos de OSINT que usam IA em trabalhos publicados entre 1990 e 2019. Os tópicos variam de IA para rastrear textos e documentos da Web a aplicativos para mídias sociais, negócios e - cada vez mais - segurança cibernética.

Na mesma linha, uma iniciativa de código aberto da Universidade de Swansea está atualmente usando aprendizado de máquina para investigar supostos crimes de guerra que acontecem no Iêmen.

IA para emancipação 

No mês passado, logo após o início de algumas das maiores protestos da história dos EUA engoliu cidades americanas e se espalhou pelo mundo, eu escreveu sobre uma análise do viés da IA ​​em modelos de linguagem. Embora eu não tenha levantado a questão naquele artigo, o estudo se destacou como a primeira vez que encontrei a palavra “emancipação” em pesquisas de IA. O termo surgiu em relação às recomendações de melhores práticas dos pesquisadores para analistas de preconceito da PNL no campo da sociolinguística.

Pedi ao autor principal Su Lin Blodgett que falasse mais sobre essa idéia, que trataria as pessoas marginalizadas como pesquisadores ou produtores de conhecimento iguais. Blodgett disse que hoje não tem conhecimento de nenhum sistema de IA que possa ser definido como emancipatório em seu design, mas está entusiasmada com o trabalho de grupos como o Protocolo Indígena e o Grupo de Trabalho de Inteligência Artificial.

Blodgett disse que a IA que aborda a emancipação inclui projetos de PNL para ajudar a revitalizar ou recuperar idiomas e projetos para criar processamento de linguagem natural para idiomas de baixo recurso. Ela também citou a IA destinada a ajudar as pessoas a resistir à censura e a responsabilizar os funcionários do governo.

Chelsea Barabas explorou temas semelhantes em uma apresentação da conferência da ACM FAccT no início deste ano. Barabas recorreu ao trabalho da antropóloga Laura Nader, que acha que os antropólogos tendem a estudar grupos desfavorecidos de maneiras que perpetuam estereótipos. Em vez disso, Nader pediu aos antropólogos que expandissem seus campos de investigação para incluir "o estudo dos colonizadores em vez dos colonizados, a cultura do poder em vez da cultura dos impotentes, a cultura da riqueza em vez da cultura da pobreza".

Em sua apresentação, Barabas também pediu aos cientistas de dados que redirecionassem seu olhar crítico no interesse da justiça. Como exemplo, Barbara e Blodgett endossaram pesquisas que examina crimes de “colarinho branco” com o nível de atenção normalmente reservado para outras ofensas.

In Corrida após a tecnologia, O professor da Universidade de Princeton, Ruha Benjamin, também defende a noção de ferramentas abolicionistas em tecnologia. Catherine D'Ignazio e Lauren F. Klein Feminismo de Dados e Sasha Costanza-Chock Justiça do projeto oferecem mais exemplos de conjuntos de dados que podem ser usados ​​para desafiar o poder.

Detecção de viés racial para policiais

Aproveitando a capacidade da PNL de processar dados em grande escala, os pesquisadores da Universidade de Stanford examinaram gravações de conversas entre policiais e pessoas paradas por violações de trânsito. Usando linguística computacional, os pesquisadores conseguiram demonstrar que os policiais prestavam menos respeito aos cidadãos negros durante as paradas de trânsito. Parte do foco do trabalho publicado nos Anais da Academia Nacional de Ciências em 2017 foi destacar as maneiras pelas quais as filmagens do corpo da polícia podem ser usadas como uma forma de construir confiança entre as comunidades e as agências de aplicação da lei. A análise usou uma coleção de gravações coletadas ao longo dos anos, tirando conclusões de um lote de dados em vez de analisar as instâncias uma a uma.

Uma declaração de direitos algorítmica

A ideia de um declaração de direitos algorítmica surgiu recentemente em um conversa com o roboticist Black sobre a construção de uma IA melhor. A noção foi introduzida no livro de 2019 Um Guia Humano para Inteligência de Máquinas e mais elaborado pelo escritor pessoal Vox Sigal Samuel.

Um princípio básico da idéia é a transparência, o que significa que cada pessoa tem o direito de saber quando um algoritmo está tomando uma decisão e todos os fatores considerados nesse processo. Uma declaração de direitos algorítmica também incluiria liberdade de viés, portabilidade de dados, liberdade de conceder ou recusar consentimento e direito de contestar resultados algorítmicos com revisão humana.

Como Samuel ressalta em seus relatórios, algumas dessas noções, como liberdade de viés, apareceram nas leis propostas no Congresso, como a Lei de responsabilidade algorítmica de 2019.

Verificação de fatos e combate à desinformação

Pós bots que prestam serviços ao cidadão ou promover a responsabilização pública, a IA pode ser usada para combater falhas profundas e desinformação. Exemplos incluem O trabalho de Full Fact com Africa Check, Chequeado e o Open Data Institute automatizar a verificação de fatos como parte do Desafio de Impacto do Google AI.

Deepfakes são uma grande preocupação para a temporada de eleições nos EUA neste outono. Em um relatório do outono de 2019 sobre as próximas eleições, o Centro Stern da Universidade de Nova York para Empresas e Direitos Humanos alertou sobre formas domésticas de desinformação, bem como possíveis interferências externas da China, Irã ou Rússia. [Este relatório referenciava as próximas eleições?] Desafio de detecção do Deepfake tem como objetivo ajudar a combater esses vídeos enganosos, e o Facebook introduziu um conjunto de dados de vídeos para treinamento e benchmarking de sistemas de detecção de deepfake.

Pol.is

Algoritmos de recomendação de empresas como o Facebook e o YouTube - com histórico documentado de divisão para estimular o envolvimento do usuário - foram identificados como outra ameaça à sociedade democrática.

Pol.is usa o aprendizado de máquina para atingir objetivos opostos, gamificando consenso e agrupando cidadãos em um mapa vetorial. Para chegar a um consenso, os participantes precisam revisar suas respostas até chegarem a um acordo. O Pol.is foi usado para ajudar a redigir legislação em Taiwan e na Espanha.

Viés e alojamento algoritmos

No Condado de Los Angeles, os sem-teto e os brancos abandonam o sem-teto a uma taxa 1.4 vezes maior do que as pessoas de cor, fato que pode estar relacionado à política ou discriminação habitacional. Citando o racismo estrutural, uma população sem-teto conta para Los Angeles lançado no mês passado constatou que os negros representam apenas 8% da população do condado, mas quase 34% de sua população de rua.

Para corrigir essa injustiça, o Centro de Inteligência Artificial da Sociedade da Universidade do Sul da Califórnia explorará como a inteligência artificial pode ajudar a garantir uma distribuição justa da habitação. No mês passado, a USC anunciou $ 1.5 milhões em financiamento para avançar no esforço junto à Autoridade de Serviços para Desabrigados de Los Angeles.

A escola de assistência social da Universidade do Sul da Califórnia e o Centro de IA na sociedade investigam maneiras de reduzir o viés na alocação de recursos habitacionais desde 2017. A falta de moradia é um grande problema na Califórnia e pode piorar nos próximos meses à medida que mais pessoas enfrentarem. expulsões devido a perdas de empregos relacionadas a pandemias. 

Colocando em prática os princípios de ética da IA

Colocar em prática os princípios éticos da IA ​​não é apenas um assunto urgente para as empresas de tecnologia, que praticamente divulgaram vagas declarações sobre suas intenções éticas nos últimos anos. Como um estudo do Centro de Cibersegurança de Longo Prazo da UC Berkeley, encontrado no início deste ano, também é cada vez mais importante que os governos estabeleçam diretrizes éticas para seu próprio uso da tecnologia.

Por meio da Organização para Cooperação e Desenvolvimento Econômico (OCDE) e G20, muitos dos governos democráticos do mundo se comprometeram com os princípios de ética da IA. Mas decidir o que constitui uso ético da IA ​​não tem sentido sem implementação. Assim, em fevereiro, a OCDE estabeleceu o Observatório Público para ajudar as nações a colocar esses princípios em prática.

Ao mesmo tempo, governos de todo o mundo estão formulando seus próprios parâmetros éticos. Funcionários da administração Trump introduziu diretrizes éticas para agências federais em janeiro, que, entre outras coisas, incentiva a participação do público no estabelecimento da regulamentação da IA. No entanto, as diretrizes também rejeitam a regulamentação que a Casa Branca considera excessivamente onerosa, como a proibição da tecnologia de reconhecimento facial.

Uma análise descobriu recentemente a necessidade de mais experiência em IA no governo. UMA Um estudo conjunto da Stanford-NYU lançado em fevereiro examina a idéia de "governança algorítmica" ou AI desempenhando um papel crescente no governo. A análise da IA ​​usada pelo governo federal dos EUA hoje descobriu que mais de 40% das agências já experimentaram a IA, mas apenas 15% dessas soluções podem ser consideradas altamente sofisticadas. Os pesquisadores imploram ao governo federal que contrate mais talentos de inteligência artificial internos para avaliar os sistemas de inteligência artificial e alertam que a governança algorítmica pode ampliar a lacuna de tecnologia público-privada e, se mal implementada, corroer a confiança do público ou dar às grandes empresas uma vantagem sobre as pequenas empresas .

Outra parte crucial da equação é como os governos escolhem adjudicar contratos para startups de IA e gigantes da tecnologia. No que se acreditava ser o primeiro, no outono passado, o O Fórum Econômico Mundial, o governo do Reino Unido e empresas como a Salesforce trabalharam juntos para produzir um conjunto de regras e diretrizes para funcionários do governo encarregados de adquirir serviços ou adjudicar contratos.

Esses contratos governamentais são um espaço importante para observar empresas com vínculos com grupos supremacistas de extrema-direita ou brancos - como Clearview AI e Banjo - vender software de vigilância a governos e órgãos policiais. O Palantir de Peter Thiel também colecionou uma série de contratos governamentais lucrativos nos últimos meses. No início desta semana, Anduril, de Palmer Luckey, também apoiado por Thiel, levantou US $ 200 milhões e recebeu um contrato para construir um muro de fronteira digital usando hardware de vigilância e IA.

Documentos de ética como os mencionados acima invariavelmente defendem a importância da "IA confiável". Se você revirar os olhos com a frase, certamente não te culpo. É o favorito dos governos e empresas que vendem princípios para promover suas agendas. A Casa Branca usa, a Comissão Europeia usa, e gigantes e grupos de tecnologia aconselhando os militares dos EUA sobre ética use-o, mas os esforços para colocar em prática os princípios de ética poderão algum dia dar ao termo algum significado e peso.

Proteção contra ataques de ransomware

Antes de os governos locais começarem a lutar para responder ao coronavírus e ao racismo estrutural, os ataques de ransomware haviam se estabelecido como outra ameaça crescente à estabilidade e às finanças da cidade.

Em 2019, ataques de ransomware a instituições públicas, como hospitais, escolas e governos estavam subindo a taxas sem precedentes, desviando fundos públicos para pagar resgates, recuperar arquivos ou substituir hardware.

As empresas de segurança que trabalham com cidades disseram ao VentureBeat no início deste ano que o aprendizado de máquina está sendo usado para combater esses ataques por meio de abordagens como detecção de anomalias e isolamento rápido de dispositivos infectados.

Peixe robô em canos da cidade

Além de evitar ataques de ransomware, a IA pode ajudar os governos municipais a evitar encargos financeiros catastróficos, monitorando a infraestrutura, detectando vazamentos ou canalizações vulneráveis ​​da cidade antes que elas explodam.

Os engenheiros da Universidade do Sul da Califórnia construíram um robô para inspeções de tubos, para resolver esses problemas dispendiosos. Nomeado Peixe-cachimbo, ele pode nadar nos sistemas de tubulação da cidade através de hidrantes e coletar imagens e outros dados.

Proteção de reconhecimento facial com IA

Quando se trata de proteger as pessoas dos sistemas de reconhecimento facial, os esforços variam de camisas a pintura facial e projeções completas do rosto.

Igualdade de IAs foi desenvolvido no Media Lab do MIT em 2018 para dificultar o reconhecimento facial para identificar assuntos em fotografias, disse o gerente de projeto Daniel Pedraza ao VentureBeat. A ferramenta usa aprendizado de máquina adversário para modificar imagens, a fim de evitar a detecção de reconhecimento facial e preservar a privacidade. O EqualAIs foi desenvolvido como um protótipo para mostrar a viabilidade técnica de atacar algoritmos de reconhecimento facial, criando uma camada de proteção em torno de imagens carregadas em fóruns públicos como o Facebook ou o Twitter. O código-fonte aberto e outros recursos do projeto estão disponíveis online.

Outros aplicativos e IA pode reconhecer e remover pessoas de fotos ou desfocar rostos para proteger a identidade dos indivíduos. Liyue Fan, professora assistente da Universidade da Carolina do Norte em Charlotte, publicou um trabalho que aplica privacidade diferencial às imagens para proteção adicional ao usar pixelização para ocultar um rosto. Se uma tecnologia como a EqualAIs for amplamente adotada, pode dar um vislumbre de esperança aos defensores da privacidade que chamam o Clearview AI de fim da privacidade.

Os legisladores no Congresso estão atualmente considerando um projeto de lei que proibiria o uso de reconhecimento facial por funcionários federais e reteria algum financiamento aos governos estaduais ou locais que optarem por usar a tecnologia.

Seja a favor da idéia de uma proibição permanente, uma moratória temporária ou uma regulamentação mínima, a legislação de reconhecimento facial é uma questão imperativa para as sociedades democráticas. Viés racial e identificação falsa de suspeitos de crimes são as principais razões pelas quais as pessoas do cenário político estão começando a concordar que o reconhecimento facial é inadequado para uso público hoje.

ACM, um dos maiores grupos de cientistas da computação do mundo, nesta semana instou governos e empresas a pararem de usar a tecnologia. Os membros do Congresso também manifestaram preocupação com o uso da tecnologia em protestos ou comícios políticos. Especialistas que testemunharam perante o Congresso alertaram que, se o reconhecimento facial se tornar comum nesses locais, ele poderá prejudicar o direito constitucional das pessoas à liberdade de expressão.

Os manifestantes e outros podem ter usado máscaras para evitar a detecção no passado, mas na era COVID-19, sistemas de reconhecimento facial estão ficando melhores em reconhecer pessoas usando máscaras.

Considerações finais

Esta história foi escrita com o claro entendimento de que o tecnossolucionismo não é panacéia e a IA pode ser usada para fins positivos e negativos. E a série é publicada anualmente porque todos nós merecemos continuar sonhando com as maneiras pelas quais a IA pode capacitar as pessoas e ajudar a construir comunidades mais fortes e uma sociedade mais justa.

Esperamos que você tenha gostado da seleção deste ano. Se você tiver idéias adicionais, sinta-se à vontade para comentar no tweet ou enviar um e-mail para khari@venturebeat.com para compartilhar sugestões de histórias sobre esse assunto ou tópicos relacionados.

Fonte: http://feedproxy.google.com/~r/venturebeat/SZYF/~3/-NXtQAwz4u4/

local_img

Inteligência mais recente

local_img