Zephyrnet Logo

Prejudicado por uma decisão tomada por uma IA mal treinada? Você deve poder entrar com um processo por danos, diz o prof.

Data:

As empresas que implantam sistemas de aprendizado de máquina treinados em conjuntos de dados abaixo da média devem ser legalmente obrigadas a pagar indenização às vítimas que foram prejudicadas pela tecnologia sob a lei de responsabilidade civil, opinou um professor de direito.

Em um artigo do palestra virtual organizado pela Universidade da Califórnia, Irvine, o professor Frank Pasquale, da Brooklyn Law School, descreveu como as leis americanas deveriam ser expandidas para responsabilizar as empresas de aprendizado de máquina. A palestra foi baseada em um artigo [PDF] publicado na Columbia Law Review.

“Os dados podem ter impactos adversos maciços e, portanto, acho que realmente deveria haver responsabilidade civil por muitos usos onde houve dados imprecisos ou inadequados”, disse o professor Pasquale. Mas, para que as vítimas construam um caso contra fornecedores que treinam sistemas de IA de maneira imprudente, deve haver alguma maneira de obter e investigar os dados de treinamento.

médico

Quer deixar um médico movido a IA perder os pacientes? Tente colocar um adesivo semelhante a um rótulo de comida nele, diz o Tio Sam

LEIA MAIS

Por exemplo, disse ele, os resultados iniciais da pesquisa de aprendizado de máquina mostram que a tecnologia é promissora na área da saúde, e existem vários estudos que afirmam que as máquinas são tão boas quanto, se não melhores, do que os profissionais em diagnosticar ou prever o início de uma série de doenças.

No entanto, os dados usados ​​para treinar esses sistemas são muitas vezes falhos, argumentou o professor Pasquale. Os conjuntos de dados podem ser, por exemplo, desequilibrados, onde as amostras não são diversificadas o suficiente para representar pessoas de várias etnias e gêneros. Os vieses nos conjuntos de dados são levados adiante no desempenho desses modelos; muitas vezes são menos precisos e menos eficazes para mulheres ou pessoas de pele mais escura, por exemplo. Na pior das hipóteses, os pacientes podem ser diagnosticados erroneamente ou esquecidos.

Novas leis devem ser aprovadas em nível estadual ou federal para forçar as empresas a serem transparentes sobre quais dados seus sistemas foram treinados e como esses dados foram coletados, afirma ele. Em seguida, organizações federais, como a Food and Drug Administration, o National Institute of Standards and Technology, o Department of Health and Human Services, ou Office for Civil Rights, devem lançar esforços para auditar os conjuntos de dados para analisar seus possíveis vieses e efeitos.

“Essa regulamentação não apenas fornece orientação à indústria para ajudá-la a evitar acidentes evitáveis ​​e outros delitos. Também auxilia os juízes na avaliação dos padrões de atendimento para a implantação de tecnologias emergentes”, escreveu Pasquale no artigo mencionado. Ele disse que a regulamentação não deve impedir o progresso e a inovação na saúde da IA.

“O desenvolvimento é realmente empolgante e deve ser aplaudido nessas áreas, não quero perder a liderança, mas [a tecnologia] só será justa e justa se houver lei de responsabilidade civil”, concluiu. ®

Fonte: https://go.thereregister.com/feed/www.thereregister.com/2021/02/09/legal_fines_ai/

local_img

Inteligência mais recente

local_img

Fale Conosco

Olá! Como posso ajudá-lo?