Para dezenas de milhões de pessoas no TikTok, a percepção de que a IA pode estar ficando melhor não veio de um comunicado à imprensa ou de um artigo, foi um vídeo de uma dúzia de coelhos pulando em um trampolim.
O clipe, postado pela primeira vez por uma conta desconhecida do TikTok @rachelthecatlovers, mostrava um bando de coelhos descendo em um trampolim suburbano no final da noite, com a legenda “Acabei de conferir a câmera de segurança de casa e… acho que temos artistas convidados lá atrás!” Vídeos no estilo de vigilância já representam um grande segmento de conteúdo no aplicativo, mas o que chamou a atenção dos 230 milhões de pessoas que o viram foi que o vídeo era convincente… quase. Tantas pessoas ficaram chocadas que esse vídeo de IA as enganou — mesmo que por um momento — que isso provocou uma onda de alerta no aplicativo.
A internet evoluiu bastante desde que o teste mais amplamente reconhecido para IA era produzir um vídeo convincente de Will Smith comendo uma tigela de espaguete, algo que os primeiros modelos simplesmente não conseguiam fazer. Agora, com fotos e vídeos gerados ou modificados por IA inundando as redes sociais, saber como identificar imagens alteradas ou manipuladas pode ser a chave para um consumo crítico de mídia.
A Rolling Stone conversou com vários especialistas em tecnologia e IA sobre as melhores maneiras de identificar conteúdo gerado por IA, pelo menos por enquanto.
Pense por literalmente mais de um segundo
Imagens manipuladas ou completamente geradas por IA podem variar de desinformação política a edições de vídeo quase indetectáveis. Mas, de acordo com Zhuang Liu, professor de ciência da computação da Universidade de Princeton, uma das maneiras mais fáceis de detectar imagens de IA é simplesmente pensar se o que você está vendo é realmente possível.
“Se não for plausível no mundo real, então obviamente é gerado por IA”, disse ele à Rolling Stone. “Por exemplo, um cavalo na lua ou uma cadeira feita de abacate. Esses são obviamente gerados por IA. Esse é o caso mais fácil”.
O próximo passo é verificar a fonte onde você encontrou a imagem. Isso não funciona necessariamente para conteúdos virais, especialmente porque muitas vezes vêm de contas desconhecidas, mas ver um vídeo em uma página de memes pode ser uma pista de que não é real. Verificar suas fontes, incluindo buscar o vídeo em sites legítimos ou usar pesquisa reversa de imagens, pode ajudar se você estiver tentando verificar uma foto, especialmente se for de natureza política.
Coloque seu chapéu de crítico de arte
Identificar erros de IA pode ser fácil. Mas quando uma imagem ou vídeo parece plausível é aí que você realmente precisa usar outras pistas para tentar identificar IA. V.S. Subrahmanian, diretor do Laboratório de Segurança e IA da Northwestern University, disse à Rolling Stoneque determinar se uma imagem foi gerada por IA começa quebrando uma foto em componentes. Embora o resultado final possa parecer crível, frequentemente há pistas de que os objetos na foto não seguem as regras da física. Coisas como sombras podem ser um indicativo de que uma foto foi feita por IA, ou vídeos em que a fonte de luz parece impossível de obter. Outra pista importante é observar claramente as transições na foto, como onde os corpos das pessoas terminam e começam, árvores ou imagens de fundo.
“Estamos procurando coisas que são difíceis para um deep fake acertar perfeitamente”, diz ele.
Digamos que estou olhando para a orelha de uma pessoa e há um fundo confuso atrás dela. A IA nem sempre percebe que uma orelha tem um limite nítido. Ela tem um fim claro. Então, quando gera falsificações, pode haver borrões ali.
Saining Xie, professor de ciência da computação da New York University, acrescenta que esse tipo de pensamento crítico também pode ser aplicado a vídeos. “Procure por detalhes realmente estranhos. Verifique escritas não naturais”, diz ele. “Se houver um espelho [ou] água, às vezes há um reflexo distorcido, uma sombra desalinhada. Pause em diferentes quadros e procure por falhas, rostos distorcidos e fundos”.
Pense em manipulação, não apenas geração de IA
Embora conteúdo totalmente gerado por IA possa ser um problema, muitas pessoas não consideram que algumas imagens podem ter sido manipuladas em vez de criadas do zero, o que pode fazer as falsificações parecerem ainda mais reais. Um dos melhores exemplos disso está em mensagens políticas e desinformação, que muitas vezes usam clipes de vídeo reais, mas substituem o áudio, ou mantêm o áudio verificado enquanto alteram ligeiramente o que as pessoas estão fazendo na tela. Esses microajustes podem ser mais difíceis de identificar, por isso os especialistas dizem que você deve observar vídeos de múltiplos ângulos, mas, mais importante, ser cético.
“Mantenha uma mentalidade de pensamento crítico”, diz Liu. “Verifique se a fonte é confiável e pense: ‘Qual poderia ser a intenção de quem está compartilhando isso? É ganhar seguidores nas redes sociais ou promover algum produto?’ Esteja atento à intenção”.
“Estamos ativamente em uma era pós-verdade. E precisamos mudar nossa mentalidade de que ver é acreditar”, acrescenta Xie. “Para o usuário médio da internet, o padrão deve ser o ceticismo”.
Entenda o problema maior
À medida que empresas de tecnologia continuam a investir bilhões em avanços de IA, fica claro que pode haver um futuro em que se torne incrivelmente difícil identificar imagens geradas por IA de fotografias e vídeos reais. Em 27 de agosto, o Google lançou uma grande atualização de seu editor de fotos Gemini AI, que a empresa anunciou como tendo capacidade de renderização sofisticada.
“Identificar [IA] está ficando cada vez mais difícil”, diz Xie. “Se você me perguntasse ontem, eu daria uma resposta diferente. Mas agora, o modelo do Google avançou para um novo nível. Muitos desses instrumentos virais de inspeção podem não ser mais válidos”.
É aqui que a percepção pública termina e a responsabilidade corporativa começa. Todos os especialistas que conversaram com a Rolling Stone afirmam que as empresas por trás desses modelos de grande sucesso têm a responsabilidade de desenvolver técnicas de marca d’água que indiquem explicitamente quando imagens foram feitas com seus modelos.
“Esse tipo de autenticação precisa ser feito do lado da edição de imagem, do provedor de geração também”, diz Xie. “Muitos provedores de geração de imagens não oferecem esse serviço. Mas acredito que, no futuro, as pessoas vão se preocupar mais com responsabilidade e segurança, e [as empresas] vão adicionar mais salvaguardas. Estou bastante otimista quanto a isso”.
Liu observa que, embora o consumidor médio esteja preocupado em identificar imagens de IA, muitas empresas desenvolveram modelos de IA que podem identificar com precisão quando uma imagem foi gerada ou manipulada, mas muitos não estão disponíveis ao público.
Subrahmanian concorda que as empresas de tecnologia têm responsabilidade em identificar e rotular suas criações de IA. Mas ele observa que, mesmo com mudanças generalizadas, isso não se aplicaria a pessoas que usam seus próprios modelos ou modelos recentemente desenvolvidos. “Acho que o número de empresas de tecnologia que estão lançando algoritmos para criar deep fakes está, na verdade, começando a colocar marcas d’água”, diz Subrahmanian. “Mas [atores mal-intencionados] podem aproveitar essas coisas, e isso é muito mais difícil de regulamentar”.
Não há uma boa resposta sobre como manter as comportas da internet firmes contra as ondas de imagens geradas por IA. Haverá outra praga de coelhinhos em trampolins que colocará aplicativos em pânico, ou um vídeo de uma figura política capaz de convencer algumas pessoas de algo totalmente improvável. Mas, diante desses avanços, a melhor defesa do público contra a IA continua sendo o próprio pensamento crítico.
“No fim das contas, grande parte do que você vê foi criada por estranhos, e é preciso encarar essas imagens com o mesmo ceticismo que se teria diante de um pedido de dinheiro de alguém desconhecido”, afirma Subrahmanian. “O senso comum ainda é um recurso muito subestimado”.
Este artigo foi originalmente publicado pela Rolling Stone EUA, por CT Jones, no dia 30 de agosto de 2025, e pode ser conferido aqui.
+++ LEIA MAIS: Meta cria chatbots de celebridades com conteúdo sexual não autorizado
+++ LEIA MAIS: Netflix admite uso de inteligência artificial generativa em série para “reduzir custos”
Fonte: rollingstone.com.br