A inteligência artificial continua a ultrapassar limites insuspeitos. Desta vez, não foi um deepfake político nem um robô falante, mas um canguru adorável aparentemente caminhando pelo portão de um avião comercial na Austrália. O clipe, tão realista quanto incomum, se espalhou pelo TikTok, Instagram e X em uma velocidade alucinante, acumulando milhões de visualizações em questão de horas.
Mas a história teve uma reviravolta inesperada: era tudo falso. O animal nunca esteve lá, o aeroporto não testemunhou o momento, e os passageiros que reagiram surpresos... também não existem. Foi uma montagem gerada inteiramente com inteligência artificial. E se você também caiu, não se preocupe: você não está sozinho. Neste artigo, detalhamos o fenômeno e ensinamos como identificar os pequenos detalhes que revelam um vídeo feito por IA.
Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp
O canguru que virou estrela global no TikTok e no X
Em poucas horas, um vídeo de um canguru calmo em um aeroporto se tornou viral. As imagens pareciam ter sido tiradas de uma câmera de segurança ou do celular de um passageiro surpreso. O marsupial foi visto esperando calmamente enquanto os demais presentes o observavam com espanto, até mesmo ternura: ele tinha seu ingresso na mão. A legenda do vídeo dizia: “Um canguru foi flagrado tentando embarcar em um voo comercial na Austrália”.
A história era perfeita para a internet: era fofa, incomum e continha aquele elemento de caos adorável que é tão popular no TikTok e no Instagram. O artigo foi compartilhado por contas de notícias virais, influenciadores e até mesmo políticos australianos. Em menos de 24 horas, o vídeo acumulou mais de 40 milhões de visualizações no TikTok e outros 20 milhões no X (antigo Twitter).
Mas não era real. Não só o evento nunca aconteceu: todo o vídeo foi gerado por inteligência artificial. E esse fato mudou a conversa.
Como soubemos que o vídeo era falso?
Especialistas em verificação de conteúdo começaram a analisar o clipe quando notaram detalhes sutis que não faziam sentido. Alguns deles incluem:
1. Sombras incomuns: A sombra do canguru não correspondia à fonte de luz no resto do ambiente.
2. Movimento imperfeito: o movimento dos protagonistas tinha molduras borradas, com articulações que não seguiam um padrão natural. O bilhete canguru também não dizia nada coerente.
3. Rostos distorcidos: Os protagonistas que apareciam no fundo tinham rostos um pouco estranhos, típicos de conteúdo gerado por IA. Incluindo a conversa: não era inglês, não era nenhuma língua.
4. Ausência de metadados confiáveis: o arquivo não continha detalhes como geolocalização ou autoria clara, o que levantou suspeitas
Por fim, a agência de verificação australiana RMIT FactLab confirmou que o vídeo foi produzido com ferramentas como Runway ML ou Sora (da OpenAI), com base na análise de estrutura e padrões de geração.

Por que tantas pessoas acreditaram que era real?
Primeiro, o realismo dos modelos de geração de vídeo aumentou drasticamente. Com ferramentas como Pika Labs, Sora e Runway, qualquer pessoa com um cérebro criativo pode gerar cenas que, sem uma inspeção mais detalhada, parecem absolutamente reais.
Além disso, o contexto jogou a favor da farsa: o fato de ter acontecido “na Austrália” lhe deu credibilidade. Afinal, a Austrália é famosa por suas interações peculiares com a vida selvagem local. A combinação de humor, ternura, absurdo e estética de vídeo caseiro foi a fórmula perfeita para viralizar.
Como detectar se um vídeo é falso e gerado por IA?
Aqui estão algumas dicas práticas para evitar quedas
1. Analise o contexto
Pergunte a si mesmo: Alguém mais relatou essa notícia? Existem testemunhas reais, mídia reconhecida ou evidências secundárias? Se a resposta for não, desconfie.
2. Procure por anormalidades visuais
Observe as mãos, os pés, as sombras, os dentes, as pupilas, o movimento dos olhos ou a sincronização labial, se houver voz. As IAs ainda falham nesses detalhes
3. Verifique os metadados (se possível)
Use ferramentas como InVID ou Metadata2Go para inspecionar o arquivo. Muitos vídeos de IA não possuem metadados convencionais.
4. Consulte verificadores de fatos
Sites como Snopes, Maldita, Chequeado ou o próprio Google Fact Check podem ajudar você a confirmar se um vídeo já foi desmascarado.
5. Pense como um jornalista
Quem gravou isso? Porque? Em que data isso aconteceu? Se você não consegue responder pelo menos duas dessas perguntas, provavelmente é ficção.
O verdadeiro impacto de um vídeo falso
Além do humor, esse tipo de conteúdo pode minar a confiança do público em informações reais. Em um mundo onde ver não é crer, vídeos realistas gerados por IA estão desafiando as regras da credibilidade.
Especialistas em ética digital alertam que uma piada pode se tornar viral hoje sem consequências, mas amanhã pode ser usada para manipular eleições, simular crimes ou desacreditar instituições.

As plataformas reagem (mas lentamente)
O TikTok e o X sinalizaram o vídeo como “conteúdo manipulado” quase 18 horas depois de ele se tornar viral. Até então, o vídeo já havia sido compartilhado mais de 250.000 vezes. O YouTube nem detectou que era falso no primeiro dia.
A falta de mecanismos automatizados para identificar IA generativa é um dos maiores desafios que as mídias sociais enfrentarão em 2025. Embora o trabalho esteja em andamento em marcas d’água invisíveis e marcação automatizada, ainda não há um padrão universal obrigatório.
Elon Musk, Sora e o futuro dos deepfakes fofos
Ironicamente, muitas das ferramentas que permitem esses vídeos foram desenvolvidas por empresas que pregam a responsabilidade ética. A OpenAI, por exemplo, incentiva usos criativos e seguros do Sora, mas reconhece que os modelos podem ser mal utilizados.
Elon Musk, um crítico frequente da IA, alertou recentemente sobre o aumento de “deepfakes emocionais” em uma entrevista com Lex Fridman. Segundo ele, o maior perigo não são as guerras ou as falsificações políticas, mas sim aquelas que manipulam as emoções cotidianas: animais de estimação falantes, bebês fazendo monólogos ou, como neste caso, cangurus embarcando em aviões.
O que você como usuário deve fazer diante desse fenômeno?
A melhor defesa é a cultura midiática. Ensinar a identificar sinais de manipulação e incentivar o pensamento crítico é fundamental. Em países como Espanha e Canadá, oficinas de verificação digital já estão incluídas na educação básica.
LEIA TAMBÉM:
Elon Musk: pelo menos a Neuralink está bem, empresa levantou US$ 600 milhões em financiamento
Sim, é verdade: o clássico Tom e Jerry terá um anime e este é seu primeiro trailer
O vídeo do canguru era inofensivo, sim. Mas é um exemplo claro de como a inteligência artificial pode enganar o olho humano com uma precisão sem precedentes. A história nos ensina duas lições importantes: a IA já está entre nós na forma de entretenimento viral... e precisamos aprender a conviver com (e detectar) suas manifestações mais sofisticadas.

