Zephyrnet Logo

A linha entre a criação real e a de IA é muito tênue para os olhos

Data:

À medida que os programadores de IA generativa continuam a aperfeiçoar os seus modelos para obterem sofisticação, também se torna cada vez mais difícil distinguir entre imagens reais e criações de IA, revelam os investigadores.

Um estudo realizado por pesquisadores da University of Waterloo estabeleceu que as pessoas estão tendo dificuldade em descobrir a imagem de uma pessoa real e a de uma pessoa gerada por IA.

Abaixo do limite esperado

Ao realizar o estudo, pesquisadores da Universidade de Waterloo forneceram 20 fotos sem rótulo a 260 participantes. Metade das fotos eram de pessoas reais tiradas do Imagens do Google, enquanto a outra metade era gerada por IA usando ferramentas como Dall-E e Difusão Estável.

Os participantes foram então solicitados a rotular as imagens, se eram reais ou geradas por IA, justificando suas respostas.

Embora 61% dos participantes pudessem perceber a diferença entre imagens reais e imagens geradas por IA, isso ainda estava muito abaixo do limite esperado de 85%.

Ao examinar as imagens, os participantes prestaram atenção a detalhes como olhos, dedos, dentes e outros indicadores que indicam ao procurar imagens criadas por IA, mas “suas avaliações nem sempre estavam corretas”.

“As pessoas não são tão hábeis em fazer distinções como pensam que são”, dito a principal autora do estudo, Andrea Pocol, que também é doutoranda em Ciência da Computação na universidade.

Embora os usuários da Internet possam olhar as imagens de passagem, os pesquisadores de Waterloo disseram que permitiram que os participantes analisassem as imagens com calma.

“As pessoas que estão apenas pensando no apocalipse ou que não têm tempo não perceberão essas dicas”, disse Pocol.

Veja também: CEO da Leonardo destaca estupidez do usuário em relação às ameaças de IA em Davos

Abusando da tecnologia

Sua estudo, intitulado “Ver para não mais acreditar: uma pesquisa sobre o estado de deepfakes, humanos gerados por IA e outras mídias não-verídicas”, publicado na revista Advances in Computer Graphics, também destaca os riscos associados aos avanços na tecnologia de IA generativa. .

Os investigadores também observaram com preocupação o ritmo a que a tecnologia de IA generativa está a mudar rapidamente, tornando-se mais sofisticada a cada dia que passa. A investigação académica e a legislação não conseguem acompanhar os desenvolvimentos na indústria geradora.

Pocol disse que as imagens de IA estão se tornando mais reais, tornando difícil para algumas pessoas distinguir facilmente entre imagens reais e geradas por IA. Isto, disse Pocol, está a criar um terreno fértil para maus actores que aproveitam a tecnologia para espalhar a malícia e perpetuar a desinformação ou para enganar as pessoas.

“A desinformação não é nova, mas as ferramentas de desinformação têm mudado e evoluído constantemente”, disse Pocol.

“Pode chegar a um ponto em que as pessoas, por mais treinadas que sejam, ainda terão dificuldade para diferenciar imagens reais de falsas. É por isso que precisamos desenvolver ferramentas para identificar e combater isso. É como uma nova corrida armamentista de IA.”

Os pesquisadores também reconheceram os desafios que a tecnologia representa, especialmente quando se trata da disseminação de deepfakes.

A tecnologia em mãos erradas

Com as dificuldades enfrentadas pelas pessoas comuns para distinguir entre imagens reais e falsas, há temores crescentes de um aumento na disseminação de deepfakes. Especialistas alertaram que os maus atores aproveitarão a tecnologia generativa de IA para espalhar falsidades eleitorais em suas tentativas de enganar os eleitores.

A Centro para combater o ódio digital (CCDH), uma organização sem fins lucrativos que monitoriza o discurso de ódio online, já advertido em seu relatório que os geradores de imagens alimentados por IA estão piorando a desinformação eleitoral de 2024.

“O potencial de tais imagens geradas por IA servirem como 'provas fotográficas' poderia exacerbar a propagação de alegações falsas, representando um desafio significativo para a preservação da integridade das eleições”, afirmaram os investigadores da CCDH no seu relatório.

No entanto, isso ocorre em meio a um anúncio de que cerca de 20 grandes empresas de tecnologia, incluindo OpenAI, Microsoft e IA de estabilidade assinou um acordo trabalhar juntos para evitar que conteúdo enganoso de IA “interfira nas eleições que ocorrem globalmente este ano.

local_img

Inteligência mais recente

local_img