A gigante da tecnologia Google está no centro de uma nova controvérsia sobre a neutralidade de seus sistemas de inteligência artificial. Relatórios recentes indicam que a ferramenta AI Overviews, que gera respostas automatizadas no topo do mecanismo de busca, apresentou comportamento seletivo ao responder a perguntas sensíveis sobre o estado cognitivo de importantes líderes políticos dos EUA.
Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp
A inconsistência algorítmica ficou evidente ao comparar respostas a consultas idênticas. Embora o sistema de IA tenha optado por bloquear o recurso e não gerar um resumo para pesquisas envolvendo o presidente Donald Trump, ele prontamente ofereceu uma resposta automatizada para pesquisas que mencionavam o ex-presidente Joe Biden. Esse desequilíbrio mais uma vez destacou o desafio para as grandes empresas de tecnologia em garantir a imparcialidade na moderação de conteúdo gerado por IA, especialmente em tópicos políticos de alto impacto.

A IA do Google está no centro da controvérsia sobre inconsistência em buscas políticas
O veículo de tecnologia The Verge foi o primeiro a documentar a discrepância. O relatório indica que, ao inserir consultas que combinavam o nome do presidente Donald Trump com termos como “demência” ou “declínio cognitivo”, a função de IA retornava consistentemente a mensagem padrão: “Um resumo de IA não está disponível para esta busca”.

No entanto, ao inserir exatamente a mesma consulta, mas substituindo o nome de Trump pelo do ex-presidente Joe Biden, o sistema passou a gerar e exibir o resumo de IA sem restrições.
A Resposta da Empresa e o Problema de Consistência
A evidente discrepância nas respostas geradas pelo algoritmo gerou debate sobre possível viés ou filtragem seletiva que poderia estar embutido em sistemas de IA. Em resposta às perguntas, o Google emitiu um comunicado observando que seus sistemas automatizados determinam quando um resumo de IA pode ser útil e que seu desempenho “nem sempre é 100% consistente”.
Um porta-voz da empresa explicou que os sistemas são projetados para evitar a geração de resumos automatizados para determinadas pesquisas, como aquelas relacionadas a tópicos médicos especulativos ou eventos delicados, optando por exibir apenas links tradicionais nesses casos. No entanto, o problema central, como apontam os críticos, é a falta de uniformidade na aplicação dessa regra, que dá a impressão de moderação ativa específica para um candidato.

O impacto dos filtros de IA nas Informações Políticas
Este incidente ressalta o desafio inerente à implantação de ferramentas de inteligência artificial no contexto político e eleitoral. Os modelos de linguagem de grande porte (LLMs), que alimentam esses resumos, são propensos à desinformação e reproduzem vieses presentes em seus dados de treinamento.
LEIA TAMBÉM:
Fundador histórico do Spotify está deixando seu cargo, mas não a empresa: esta será sua nova função
Projetado para vídeos virais: este é Sora 2, aplicativo estilo TikTok apresentado pela OpenAI
Sony prepara redesign crucial do controle DualSense com bateria substituível
Embora o Google tenha tomado medidas no passado para ser cauteloso com consultas políticas e médicas, a aparente seletividade na resposta ao pesquisar pelo presidente Trump levanta questões sobre a neutralidade da plataforma. O design algorítmico, ou a falta dele em certos casos, tem um impacto direto na forma como milhões de usuários recebem informações, intensificando o debate sobre como as grandes empresas de tecnologia lidam com a moderação de conteúdo sensível e se isso afeta a percepção pública de figuras políticas.

