Os vídeos gerados por inteligência artificial deram um salto de qualidade tão grande que, à primeira vista, podem infiltrar-se no seu feed sem levantar suspeitas; no entanto, se souber onde olhar, há sinais claros que o ajudarão a desmascará-los. No ActualApp empacotamos os indícios mais fiáveis numa guia prática e muito techie para que não o enganem, porque quem não quer afinar o seu radar digital e evitar partilhar um deepfake como se nada?
Sinais visuais e de contexto que denunciam a IA
Comece pelo básico: a fonte. Se o clipe for publicado por alguém sem historial verificável ou sem ligar para uma origem confirmável, desconfie, pois os boatos normalmente não têm um autor primário claro e é difícil verificar com meios fiáveis. A partir daí, passe à lupa visual, porque a inconsistência é o calcanhar de Aquiles destes modelos; entre um plano e o seguinte, sobrancelhas que mudam de densidade, dedos que se fundem ou se multiplicam, e até braços que aparecem de lugares impossíveis são pistas que saltam, como um glitch de GPU em plena partida.
Outro sinal muito recorrente é a pele «demasiado perfeita»: superfícies lisas e brilhantes, sem poros, rugas ou marcas, com um acabamento airbrushed que parece mais um render do que um vídeo real. Também repare nos textos dentro da cena – letreiros, camisetas, telas – porque os modelos costumam escorregar ao replicar tipografias e linguagem, deixando palavras mal escritas ou mesmo sem sentido, o típico galimatias que o tira do momento.
A física também denuncia. Movimentos pouco naturais, como andar sem dobrar os joelhos ou carros que se deslocam de forma antinatural, denunciam que o sistema está a preencher lacunas a partir de padrões visuais, não de experiência física. Além disso, os dentes costumam ser problemáticos: peças que se fundem num único bloco ou que mudam de forma entre frames são um clássico. No fundo, procure objetos ou pessoas que aparecem e desaparecem sem motivo, sombras estranhas ou cintilações de luz que afetam uma zona e não outra, e rostos ao fundo ligeiramente desfocados ou inquietantes embora o primeiro plano esteja nítido; são artefactos típicos.
A montagem também dá pistas. Se as ações não fluem de forma contínua, por exemplo, alguém lança a vara e no corte seguinte já segura um peixe enorme sem transição crível, há indícios de geração sintética. Além disso, o metraje costuma ser curto pelos custos de geração, por isso clipes de 5 a 10 segundos com cortes constantes e várias das pistas desta lista aumentam a suspeita. Por fim, tenha em conta o fator temporal: as peças ultra realistas começaram a proliferar a partir de 2023; um clipe anterior é menos provável de ser IA, embora não seja impossível, e um recente não é IA por definição, só eleva a probabilidade se coincidir com mais indícios.
Como funcionam os geradores de vídeo por IA
Saber o truque ajuda a ver o fio. Estes sistemas partem de referências visuais aprendidas – pessoas, objetos, cenas – e, quando lhes descreve o que quer, convertem um vídeo de referência em ruído para o reconstruir de novo, fotograma a fotograma, incorporando a sua instrução no processo. O resultado parece coerente à primeira vista, mas a reconstrução probabilística introduz essas pequenas falhas de continuidade, texto e física que, com um olho treinado, saltam à vista.
Esta abordagem explica por que os rostos ao fundo aparecem desfocados, por que as sombras não batem certo ou por que um gesto muda entre cortes; o modelo «estima» o mais provável, não o verdadeiro, e é aí que você pode apanhar a armadilha.
Áudio, imagens e texto: mais pistas, mais consciência
A vigilância não termina no vídeo. Em imagens, procure texturas excessivamente brilhantes e proporções corporais estranhas – dedos a mais ou demasiado compridos, pés diminutos, cabelo sem folículos – além de distorções como fundos deformados, brincos que não coincidem ou outros detalhes assimétricos. Se tiver dúvidas, um reverse image para rastrear a origem e uma revisão dos metadados podem dar contexto, especialmente se só circular nas redes e não aparecer em fontes reputadas.
No áudio, o timbre pode enganar, mas a prosódia não tanto: frases que soam «coladas», sotaques fora de contexto ou inflexões que não encaixam com a situação revelam síntese de voz, onde o algoritmo articula por segmentos, não a partir de uma intenção comunicativa. No texto, por outro lado, costumam surgir repetições de estruturas, mudanças bruscas de tom e abuso de gíria para tapar lacunas; atenção também a citações duvidosas ou impossíveis de verificar. Se quiser uma segunda opinião, existem ferramentas de análise como o GPTZero ou o Grammarly para escrita e, no vídeo, plataformas como Deepware ou ScreenApp, embora convém recordar que a deteção automática ainda não é infalível e deve ser combinada com as suas observações.
Finalmente, partilhe o conhecimento. Se vir um clipe viral suspeito – desde um político a fazer uma acrobacia lunar até uma cena surreal num local oficial – avise as pessoas à sua volta e explique os sinais que detetou, porque cortar a cadeia a tempo evita que o boato ganhe tração. Ensinar estas diretrizes a amigos e família multiplica o efeito de rede e, de facto, quanto mais indícios um vídeo acumular, maior a probabilidade de ser sintético; como no hardware, não se fica com um único sensor, cruza-se informação para decidir com critério.