Ciência e Tecnologia

Os internautas têm dificuldade em distinguir entre uma foto real e uma gerada por IA

Se você teve problemas recentemente para determinar se uma imagem de uma pessoa é real ou gerada por inteligência artificial (IA), você não está sozinho

Inteligencia Artificial
Inteligência Artificial

A Inteligência Artificial ganhou grande relevância na geração de imagens no último ano e a qualidade com que as desenvolve é tão alta que muitos internautas têm dificuldade em distinguir entre uma imagem real e uma criada por essa tecnologia.

ANÚNCIO

Um novo estudo realizado por pesquisadores da Universidade de Waterloo, no Canadá, descobriu que as pessoas têm mais dificuldade do que o esperado para distinguir entre uma pessoa real e uma gerada artificialmente.

Como parte do estudo, 260 participantes receberam 20 imagens sem etiquetas: 10 delas eram de pessoas reais obtidas a partir de pesquisas no Google, e as outras 10 foram geradas por Stable Diffusion ou DALL-E, dois programas de IA comuns que geram imagens.

Foi pedido aos participantes que rotulassem cada imagem como real ou gerada por IA e que explicassem por que tomaram essa decisão. Apenas 61% dos participantes conseguiram distinguir entre as pessoas geradas por IA e as reais, muito abaixo do limite de 85% que os pesquisadores esperavam.

"As imagens são projetadas para enganar; elas cumprem a carga de realismo suficientemente bem para enganar", explicou ao Metro Andreea Pocol, doutoranda em Informática na Universidade de Waterloo e autora principal do estudo.

Pocol acrescentou que o ritmo extremamente rápido no qual a tecnologia de IA está se desenvolvendo torna especialmente difícil compreender o potencial de ação maliciosa ou nefasta apresentado pelas imagens geradas por IA.

A especialista acrescenta que essas imagens geradas por IA são particularmente ameaçadoras como ferramenta política e cultural, podendo permitir que qualquer usuário crie imagens falsas de figuras públicas em situações embaraçosas ou comprometedoras.

ANÚNCIO

"Isto é especialmente preocupante para os menos alfabetizados/educados digitalmente, que serão desproporcionalmente afetados por esta nova ferramenta de desinformação!", conclui.

2014

Foi o ano em que os pesquisadores começaram a usar GAN (redes geradoras adversariais) para a síntese de imagens e vídeos, e o termo 'deepfakes' surgiu em 2017.

Entrevista

Andreea Pocol, doutoranda em Ciência da Computação na Universidade de Waterloo e autora principal do estudo.

P: Porque queríamos investigar como as pessoas percebem a inteligência artificial e como ela afeta sua interação com ela.

- Este trabalho começou como um projeto de pesquisa para um curso chamado The Art and Science of Empirical Computer Science, ministrado pelo Dr. Jimmy Lin da Universidade de Waterloo. Como se pode esperar pelo nome, era um curso fascinante, e uma das unidades era IA Responsável. Então comecei a conversar com minha supervisora, Lesley Istead, sobre ideias para projetos de curso, e essa ideia nasceu. Estávamos curiosos sobre a ingenuidade das pessoas e sua suscetibilidade a acreditar em imagens falsas. Era oportuno e relevante no final de 2022, quando realizamos o estudo, e ainda mais agora.

P: Por que as pessoas têm dificuldade em distinguir quem é uma pessoa real e quem é artificialmente gerada?

A tecnologia subjacente dessas ferramentas é a GAN (Generative Adversarial Network, rede generativa adversarial), que basicamente aproveita dois atores adversários: o ‘gerador’, que produz uma imagem, e o ‘discriminador’, que consulta seu banco de dados de pessoas reais conhecidas e diz “não; posso dizer que é falsa porque parece muito diferente do que sei que é real”. O gerador melhora sua imagem de forma iterativa até que o discriminador a classifique como real, e então envie a imagem para o usuário. Quanto melhor essas redes forem treinadas e mais dados forem utilizados, mais convincentes serão as imagens produzidas. As imagens são projetadas para enganar; elas cumprem a carga de realismo suficientemente bem para enganar a rede discriminadora, então, é claro, enganarão as pessoas que ingenuamente se deixam levar pela fatalidade e internalizam tudo o que consomem nas redes sociais sem nenhum filtro de ceticismo. Isso é especialmente preocupante para os menos alfabetizados/educados digitalmente, que serão desproporcionalmente afetados por essa nova ferramenta de desinformação.

P: O que descobriram após o estudo?

Nossos resultados indicam que os participantes tinham mais chances de classificar corretamente imagens de pessoas reais (utilizamos intervalos de confiança e um teste ANOVA para determinar que existe uma diferença estatisticamente significativa entre a classificação dos participantes de imagens reais e falsas).

As mulheres tinham uma precisão de classificação maior do que os homens, e entre os 18 e 24 anos era o grupo etário mais habilidoso em discernir o real do falso (talvez sejam os que passam mais tempo na Internet olhando conteúdos online, então talvez isso faça sentido), mas essas diferenças não se mostraram estatisticamente significativas, então é necessário continuar investigando nesse sentido.

A análise da pesquisa também nos permitiu entender melhor como as pessoas pensam e no que reparam na hora de classificar uma imagem como real ou falsa. Analisamos as respostas dos participantes através de mineração de texto e extração de palavras-chave, e criamos nuvens de palavras para visualizar as justificativas comuns que os participantes davam para as respostas reais e falsas. Logo ficou claro que os olhos eram o indicador revelador de que uma imagem provavelmente havia sido gerada por IA. Em geral, descobrimos que a IA Gen tem dificuldade em produzir olhos e dentes realistas. Em particular, um sinal comum de que uma imagem é gerada por IA é a presença de heterocromia. Outros indicadores comuns são os pixels brancos ao redor dos olhos ou um reflexo especular incorreto. Os participantes também repararam na boca, cabelo e orelhas dos sujeitos.

É importante ter em mente que essas imagens foram geradas em 2022 e a IA pode fazer muito melhor agora. Os deepfakes perfeitamente reais e as imagens geradas pela IA estão chegando, se é que já não chegaram.

P: Por que você considera que as imagens geradas por IA são especialmente ameaçadoras como ferramenta política e cultural?

A desinformação não é nova, mas as formas de disseminá-la mudam constantemente. Os deepfakes podem ser usados não apenas para disseminar desinformação - ou seja, afirmar que algo falso é verdadeiro - mas também para criar uma negação plausível e sugerir que algo verdadeiro talvez não seja (por exemplo, "Não sou eu no vídeo de vigilância lançando o coquetel molotov; é um deepfake!").

Estas imagens e vídeos podem ser falsos, mas suas consequências são desastrosamente reais... A acessibilidade dessas ferramentas é o que as torna tão perigosas.

Os criadores de deepfakes saem impunes porque, como sempre acontece com tecnologias em constante evolução, a lei não consegue acompanhar. Mesmo que conseguisse, é difícil regular um ator desonesto.

P: Quais poderiam ser as ferramentas necessárias para identificar e neutralizar as imagens geradas pela IA?

As estratégias discutidas costumam ser os dois polos opostos: congelar ou interromper a síntese de imagens de IA, ou continuar como sempre (que é a escola utilitária de pensamento). Mas acredito que a educação é uma ferramenta poderosa que podemos utilizar para mitigar os riscos associados aos deepfakes. Será algo com o qual teremos que conviver, e a possibilidade de uma imagem ser gerada pela IA terá que estar presente em nossas mentes como um filtro. É necessária educação, conscientização e um saudável ceticismo.

Algumas das maiores empresas de tecnologia, como AWS, Facebook e Microsoft, têm promovido o desenvolvimento de algoritmos capazes de detectar deepfakes... No entanto, os algoritmos tradicionais de detecção de deepfakes apresentam várias desvantagens. Eles costumam ser treinados com imagens de alta resolução, o que pode resultar em falhas em gravações de vigilância de baixa resolução ou em imagens em que o sujeito está mal iluminado ou em uma pose específica e não reconhecida.

O Google está trabalhando no SynthID, uma marca d'água embutida nos pixels da imagem, invisível para o olho humano, mas detectável pelas ferramentas de detecção de deepfakes.

De acordo com Andreea Pocol, os deepfakes e a IA Gen podem ser usados principalmente para:

Manipulação de eleições: por exemplo, o deepfake do presidente ucraniano Volodymyr Zelenskyy pedindo a suas tropas que se rendam em 2022, o deepfake do temido general do exército indonésio Suharto influenciando os eleitores em fevereiro, o vídeo gerado por IA do prefeito de Londres Khan comentando como as marchas pró-palestinas deveriam ter prioridade sobre o fim de semana do Remembrance Day, o vídeo viral de Elizabeth Warren dizendo que os republicanos não deveriam votar em 2023.

Humor: por exemplo, a imagem viral do Papa vestido de Balenciaga.

Para arruinar vidas individuais: por exemplo, usando deepfakes para criar pornografia de celebridades.

ANÚNCIO

Tags


Últimas Notícias