Ciência e Tecnologia

OpenAI bane contas suspeitas: podem estar vinculadas ao governo chinês

A empresa por trás do ChatGPT encerrou várias contas após detectar atividades relacionadas à vigilância nas mídias sociais

Nueva actualización de ChatGPT.
ChatGPT (Photo Illustration by Thomas Fuller/SOPA Images/LightRocket via Getty Images) (SOPA Images/SOPA Images/LightRocket via Gett)

A OpenAI não tem capa, mas tem se mostrado uma super-heroína ultimamente. A empresa por trás do ChatGPT acaba de emitir um cartão vermelho para várias contas suspeitas. O motivo? Eles estavam usando o chatbot para solicitar ideias sobre como espionar redes sociais, criar malware e automatizar processos bastante duvidosos. E o mais curioso: algumas contas teriam sido vinculadas a entidades governamentais chinesas. Inteligência artificial ou inteligência literal demais?

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

Espiões na sala?

Tudo começou quando o ChatGPT recebeu perguntas um tanto... embaraçosas. Usuários pediram que ele descrevesse ferramentas para “ouvir” o que estava acontecendo nas redes sociais.

Mas o modelo não caiu nessa. Em vez de responder, a OpenAI interpretou isso como um sinal de alerta e imediatamente encerrou contas com possíveis vínculos com autoridades chinesas.


Isso faz parte de um novo romance de ficção científica? Não, é o mais recente relatório público sobre ameaças reais que a empresa publicou em sua sede em São Francisco.

Quando o ChatGPT diz “não, obrigado” ao crime cibernético

Mas isso não foi tudo. A OpenAI também detectou e removeu contas chinesas que usavam o sistema para auxiliar em campanhas de phishing, geração de malware e automação com o DeepSeek, uma ferramenta de desenvolvimento tecnológico da China.

E se você achou que tudo não passava de drama asiático, prepare-se: grupos russos também apareceram tentando explorar a IA para criar software malicioso. Uma espécie de torneio internacional sobre o lado obscuro da programação... que foi cancelado pelo árbitro antes do primeiro gol.

IA pode se tornar má?

A OpenAI garantiu que, embora tenha havido tentativas de explorar a tecnologia de forma maliciosa, não há evidências de que seus modelos tenham aprendido novos truques com os bandidos.

Em outras palavras: o ChatGPT não se tornou um vilão com poderes extras. Desde fevereiro de 2023, eles detectaram e neutralizaram mais de 40 redes suspeitas, e nem sequer têm visão de raio-X (ainda). “Nossos modelos rejeitam sinais abertamente maliciosos”, disse a OpenAI, soando como um moderador de fórum.

Tecnologia, tensão e... TikTok?

Este episódio não é coincidência: acontece justamente em um momento em que a rivalidade entre os Estados Unidos e a China pelo controle da inteligência artificial está esquentando. Enquanto um bloco quer regulamentar e o outro avançar, a OpenAI está na corda bamba: inovação com controle.

Por enquanto, a embaixada chinesa nos EUA permanece em silêncio, mas não seria surpresa se em breve víssemos outro capítulo nessa novela tecnológica global.

OpenAI está crescendo, mas também está ficando séria

Embora já tenha se tornado a startup mais valiosa do planeta, com US$ 500 bilhões em valor e mais de 800 milhões de usuários semanais, a OpenAI sabe que com grandes poderes vêm grandes responsabilidades.

LEIA TAMBÉM:

Água de outro sol! Atividade de vapor d’água detectada no cometa interestelar 3I/ATLAS

Fim de uma era? Tim Cook pode deixar a Apple, e já há rumores sobre um sucessor

Anomalia 3I/ATLAS e o silêncio da NASA: astrônomo culpa burocracia humana pelo silêncio após sobrevoo de Marte

Portanto, eles continuarão a publicar relatórios públicos sobre ameaças e remover contas com intenções obscuras. Porque, embora o ChatGPT não seja um detetive, ele não quer ser cúmplice de ninguém que use IA para fazer travessuras que cruzem os limites.

Últimas Notícias