Les vidéos générées par intelligence artificielle ont fait un bond de qualité tellement énorme que, à première vue, elles peuvent se faufiler dans votre fil sans éveiller de soupçons ; cependant, si vous savez où regarder, il existe des signes clairs qui vous aideront à les démasquer. Chez ActualApp, nous avons rassemblé les indices les plus fiables dans un guide pratique et très technique pour que l’on ne vous la fasse pas à l’envers, car qui ne voudrait pas affiner son radar numérique et éviter de partager un deepfake comme si de rien n’était ?
Signes visuels et contextuels qui trahissent l’IA
Commencez par le basique : la source. Si le clip est publié par quelqu’un sans historique vérifiable ou sans lien vers une origine vérifiable, méfiez-vous, car les rumeurs manquent souvent d’un auteur primaire clair et il est difficile de recouper avec des médias fiables. À partir de là, passez à la loupe visuelle, car l’incohérence est le talon d’Achille de ces modèles ; d’un plan à l’autre, des sourcils qui changent de densité, des doigts qui fusionnent ou se multiplient, voire des bras qui apparaissent de lieux impossibles sont des pistes qui jurent, comme un glitch de GPU en pleine partie.
Un autre signe très récurrent est la peau « trop parfaite » : des surfaces lisses et brillantes, sans pores, rides ou marques, avec une finition retouchée qui ressemble plus à un rendu qu’à une vidéo réelle. Regardez aussi les textes présents dans la scène –enseignes, T-shirts, écrans– car les modèles ont souvent du mal à reproduire les typographies et le langage, laissant des mots mal écrits ou dépourvus de sens, le galimatias typique qui vous sort de l’instant.
La physique aussi trahit. Des mouvements peu naturels, comme marcher sans plier les genoux ou des voitures qui se déplacent de façon antinaturelle, trahissent que le système comble des trous à partir de motifs visuels, pas d’une expérience physique. De plus, les dents posent souvent problème : des éléments qui se fondent en un bloc unique ou qui changent de forme entre les images sont un classique. En résumé, cherchez des objets ou des personnes qui apparaissent et disparaissent sans raison, des ombres étranges ou des scintillements de lumière qui affectent une zone et pas une autre, et des visages d’arrière-plan légèrement flous ou inquiétants alors que le plan rapproché est net ; ce sont des artefacts typiques.
Le montage donne aussi des indices. Si les actions ne s’écoulent pas de manière continue, par exemple quelqu’un lance la canne à pêche et, au plan suivant, tient déjà un énorme poisson sans transition crédible, il y a des chances qu’il s’agisse d’une génération synthétique. De plus, les séquences sont souvent courtes pour des raisons de coût de génération, ainsi des clips de 5 à 10 secondes avec coupes constantes et plusieurs signes de cette liste augmentent le soupçon. Enfin, prenez en compte le facteur temporel : les pièces ultra-réalistes ont commencé à proliférer à partir de 2023 ; un clip antérieur a moins de chances d’être IA, bien que ce ne soit pas impossible, et un clip récent n’est pas IA par définition, cela augmente seulement la probabilité s’il coïncide avec d’autres indices.
Comment fonctionnent les générateurs de vidéo par IA
Connaître le mécanisme aide à voir le fil. Ces systèmes partent de références visuelles apprises –personnes, objets, scènes– et, lorsque vous décrivez ce que vous voulez, ils transforment une vidéo de référence en bruit pour la reconstruire ensuite, image par image, en intégrant votre instruction dans le processus. Le résultat semble cohérent à première vue, mais la reconstruction probabiliste introduit ces petites erreurs de continuité, de texte et de physique qui, avec un œil entraîné, sautent aux yeux.
Cette approche explique pourquoi les visages en arrière-plan apparaissent flous, pourquoi les ombres ne correspondent pas ou pourquoi un geste change entre les coupes ; le modèle « estime » ce qui est le plus probable, pas ce qui est vrai, et c’est là que vous pouvez attraper la supercherie.
Audio, images et texte : plus d’indices, plus de vigilance
La surveillance ne s’arrête pas à la vidéo. Sur les images, recherchez des textures excessivement brillantes et des proportions corporelles étranges –doigts en trop ou trop longs, pieds minuscules, cheveux sans follicules– ainsi que des distorsions comme des arrière-plans déformés, des boucles d’oreilles qui ne correspondent pas ou d’autres détails asymétriques. En cas de doute, un retour d’image pour retracer l’origine et une vérification des métadonnées peuvent vous fournir du contexte, surtout si la séquence circule uniquement sur les réseaux et n’apparaît pas dans des sources reconnues.
En audio, le timbre peut tromper, mais la prosodie moins : des phrases qui sonnent « collées », des accents déplacés ou des inflexions qui ne cadrent pas avec la situation révèlent une synthèse vocale, où l’algorithme articule par segments, pas depuis une intention communicative. Dans le texte, en revanche, on trouve souvent des répétitions de structures, des changements brusques de ton et un abus d’argot pour masquer les manques ; attention aussi aux citations douteuses ou impossibles à vérifier. Si vous voulez un second avis, il existe des outils de signalement comme GPTZero ou Grammarly pour l’écriture et, pour la vidéo, des plateformes comme Deepware ou ScreenApp, bien qu’il soit bon de rappeler que la détection automatique n’est pas encore infaillible et qu’il faut la combiner avec vos observations.
Enfin, partagez le savoir. Si vous voyez un clip viral suspect –d’un politique faisant une acrobatie lunaire à une scène surréaliste dans un lieu officiel–, alertez votre entourage et expliquez les signes que vous avez repérés, car couper la chaîne à temps empêche la rumeur de prendre de l’ampleur. Enseigner ces règles à vos amis et à votre famille multiplie l’effet de réseau, et en fait, plus un vidéo accumule d’indices, plus la probabilité qu’elle soit synthétique augmente ; comme en matériel, ne vous fiez pas à un seul capteur, croisez les données pour décider avec discernement.