Los vídeos generados por inteligencia artificial han dado un salto de calidad tan bestia que, a simple vista, pueden colarse en tu feed sin levantar sospechas; sin embargo, si sabes dónde mirar, hay señales claras que te ayudarán a desenmascararlos. En ActualApp hemos empaquetado los indicios más fiables en una guía práctica y muy techie para que no te la cuelen, porque ¿quién no quiere afinar su radar digital y evitar compartir un deepfake como si nada?
Señales visuales y de contexto que delatan a la IA
Empieza por lo básico: la fuente. Si el clip lo publica alguien sin historial verificable o sin enlazar a un origen contrastable, desconfía, ya que los bulos suelen carecer de autor primario claro y es difícil atar cabos con medios fiables. A partir de ahí, pasa a la lupa visual, porque la inconsistencia es el talón de Aquiles de estos modelos; entre un plano y el siguiente, cejas que cambian de densidad, dedos que se fusionan o se multiplican, e incluso brazos que aparecen de lugares imposibles son pistas que chirrían, como un glitch de GPU en plena partida.
Otra señal muy recurrente es la piel «demasiado perfecta»: superficies lisas y brillantes, sin poros, arrugas o marcas, con un acabado airbrushed que parece más un render que un vídeo real. También fíjate en los textos dentro de la escena –letreros, camisetas, pantallas– porque los modelos suelen patinar replicando tipografías y lenguaje, dejando palabras mal escritas o directamente sin sentido, el típico galimatías que te saca del momento.
La física también canta. Movimientos poco naturales, como caminar sin doblar las rodillas o coches que se desplazan de manera antinatural, delatan que el sistema está completando huecos a partir de patrones visuales, no de experiencia física. Sumado a esto, los dientes suelen ser problemáticos: piezas que se funden en un único bloque o que cambian de forma entre frames son un clásico. En el fondo, busca objetos o personas que aparecen y desaparecen sin motivo, sombras raras o parpadeos de luz que afectan a una zona y no a otra, y caras de fondo ligeramente borrosas o inquietantes aunque el primer plano se vea nítido; son artefactos típicos.
El montaje también da pistas. Si las acciones no fluyen de manera continua, por ejemplo, alguien lanza la caña y en el corte siguiente ya sostiene un pez enorme sin transición creíble, hay papeletas de generación sintética. Además, el metraje suele ser corto por costes de generación, así que clips de 5 a 10 segundos con cortes constantes y varias señales de esta lista incrementan la sospecha. Por último, ten en cuenta el factor temporal: las piezas ultra realistas arrancaron a proliferar a partir de 2023; un clip anterior es menos probable que sea IA, aunque no imposible, y uno reciente no es IA por definición, solo eleva la probabilidad si coincide con más indicios.
Cómo funcionan los generadores de vídeo por IA
Conocer el truco ayuda a ver el hilo. Estos sistemas parten de referencias visuales aprendidas –personas, objetos, escenas– y, cuando les describes lo que quieres, convierten un vídeo de referencia en ruido para reconstruirlo de nuevo, fotograma a fotograma, incorporando tu instrucción en el proceso. El resultado parece coherente a simple vista, pero la reconstrucción probabilística introduce esos pequeños fallos de continuidad, texto y física que, con ojo entrenado, saltan a la vista.
Este enfoque explica por qué las caras del fondo salen borrosas, por qué las sombras no cuadran o por qué un gesto cambia entre cortes; el modelo «estima» lo más probable, no lo verdadero, y ahí es donde tú puedes pillar la trampa.
Audio, imágenes y texto: más pistas, más conciencia
La vigilancia no acaba en el vídeo. En imágenes, busca texturas excesivamente brillantes y proporciones corporales raras –dedos de más o demasiado largos, pies diminutos, pelo sin folículos– además de distorsiones como fondos deformados, pendientes que no coinciden u otros detalles asimétricos. Si dudas, un reverso de imagen para rastrear origen y una revisión de metadatos pueden darte contexto, especialmente si solo circula por redes y no aparece en fuentes reputadas.
En audio, el timbre puede engañar, pero la prosodia no tanto: frases que suenan «pegadas», acentos fuera de lugar o inflexiones que no encajan con la situación revelan síntesis de voz, donde el algoritmo articula por segmentos, no desde una intención comunicativa. En texto, en cambio, suelen aparecer repeticiones de estructuras, cambios bruscos de tono y abuso de jerga para tapar huecos; ojo también a citas dudosas o imposibles de verificar. Si quieres una segunda opinión, existen herramientas de señalamiento como GPTZero o Grammarly para escritura y, en vídeo, plataformas como Deepware o ScreenApp, aunque conviene recordar que la detección automática todavía no es infalible y deberías combinarla con tus observaciones.
Finalmente, comparte conocimiento. Si ves un clip viral sospechoso –desde un político haciendo una acrobacia lunar a una escena surrealista en un lugar oficial–, avisa a tu entorno y explica las señales que has detectado, porque cortar la cadena a tiempo evita que el bulo gane tracción. Enseñar estas pautas a amigos y familia multiplica el efecto red, y, de hecho, cuantos más indicios acumule un vídeo, mayor la probabilidad de que sea sintético; como en hardware, no te quedas con un solo sensor, cruzas datos para decidir con criterio.