Ciência e Tecnologia

A OpenAI apontou que grupos do governo da Rússia e da China estavam usando o ChatGPT para fazer propaganda

Também foram cancelados usuários de uma empresa iraniana e outra israelense

A OpenAI apontou que grupos governamentais da Rússia e da China usaram o ChatGPT para propaganda: suas contas foram removidas AP / Michael Dwyer (Michael Dwyer/AP)

É um fato que a inteligência artificial tem um grande potencial para ser utilizada em diversos campos, incluindo a política. Embora seu uso responsável possa trazer benefícios como a melhoria da comunicação com os cidadãos, a personalização de campanhas e a otimização de recursos, também existem riscos associados à sua aplicação na propaganda política.

ANÚNCIO

Na verdade, a OpenAI, a empresa criadora do ChatGPT, expôs o uso de sua tecnologia por grupos da Rússia, Irã, China e Israel para a produção e disseminação de propaganda maliciosa.

Operações de influência encobertas

A apenas algumas semanas das eleições europeias, das presidenciais nos Estados Unidos e em meio aos conflitos no Oriente Médio e na Ucrânia, a OpenAI detectou o uso do ChatGPT por parte de atores ligados a conhecidas operações de propaganda desses países.

Estas contas, algumas já sob o radar da comunidade internacional, têm utilizado a ferramenta durante anos para gerar conteúdo em vários idiomas, traduzi-lo e criar software de publicação automática em redes sociais, ampliando assim seu alcance.

Alguns exemplos concretos incluem:

  • Spamouflage (China): Investigou atividade em redes e redigiu conteúdo em vários idiomas.
  • União Internacional de Mídias Virtuais (Irã): Criou artigos para o seu site.
  • Má Gramática (Rússia): Desenvolveu um programa de publicação automática no Telegram com comentários e publicações em russo e inglês contra a ajuda americana à Ucrânia.
  • Stoic (Israel): Gerou publicações em apoio ao país durante a guerra em Gaza, direcionadas ao Canadá, Estados Unidos e Israel.

A Meta também confirma as práticas

O Meta, proprietária do Facebook e Instagram, também identificou o uso semelhante do ChatGPT em suas plataformas, com 510 contas no Facebook e 32 no Instagram. Essas contas, algumas sob nomes fictícios e outras hackeadas, criavam comentários em páginas de figuras públicas e organizações sob a aparência de estudantes ou afro-americanos pró-Israel ou pró-Forças de Defesa de Israel, alertando sobre as ameaças do “Islã radical”.

Embora essas contas tenham sido excluídas e seu alcance tenha sido limitado, a situação expõe os riscos do uso malicioso da IA e o potencial dano que pode causar à sociedade. A possibilidade de outros grupos estarem utilizando as ferramentas da OpenAI sem o seu conhecimento é motivo de preocupação.

ANÚNCIO

"É uma evolução, não uma revolução. Não há tempo para complacência", afirma Ben Nimmo, líder da equipe de pesquisas da OpenAI. "A história mostra que operações de influência que antes não tiveram sucesso podem se tornar explosivas se não forem observadas."

Uma corrida contra o tempo

Governos e ativistas vêm lutando há anos contra o uso das redes sociais para influência e manipulação política. As plataformas têm implementado medidas como a proibição de esforços encobertos de influência política e a exigência de transparência na financiamento de anúncios. No entanto, a rápida evolução da tecnologia e a capacidade de adaptação desses grupos representam um desafio constante para as empresas.

Um vídeo falso do candidato presidencial de Taiwan, Terry Gou, endossando outro político, e uma ligação falsa do presidente Biden para eleitores nas primárias de New Hampshire são apenas alguns exemplos do uso malicioso de IA para desinformação.

OpenAI, Google e outras empresas estão desenvolvendo software para identificar deepfakes, mas a tecnologia ainda não está madura e sua eficácia gera dúvidas. A luta contra o uso malicioso da IA na era digital continua sendo um desafio complexo que requer esforços contínuos e colaboração entre diversos atores.

ANÚNCIO

Tags


Últimas Notícias