Von künstlicher Intelligenz erzeugte Videos haben einen so gewaltigen Qualitätssprung gemacht, dass sie auf den ersten Blick unbemerkt in deinem Feed erscheinen können; wenn du jedoch weißt, wo du hinschauen musst, gibt es klare Hinweise, die dir helfen, sie zu entlarven. Bei ActualApp haben wir die verlässlichsten Indizien in einem praktischen und sehr technischen Leitfaden gebündelt, damit man dir nichts unterschiebt — wer möchte nicht seinen digitalen Radar schärfen und vermeiden, einen Deepfake unbedarft zu teilen?

Visuelle und kontextuelle Anzeichen, die die KI verraten

Fange beim Grundlegenden an: der Quelle. Wenn der Clip von jemandem veröffentlicht wird, der keine überprüfbare Historie hat oder keinen nachvollziehbaren Ursprung verlinkt, sei misstrauisch, denn Falschmeldungen fehlen oft klare Primärautoren und lassen sich schwer mit vertrauenswürdigen Medien abgleichen. Gehe dann zur visuellen Lupe über, denn Inkonsistenz ist die Achillesferse dieser Modelle; zwischen einer Einstellung und der nächsten verändern sich Augenbrauen in ihrer Dichte, Finger verschmelzen oder vervielfachen sich, und sogar Arme erscheinen an unmöglichen Stellen — Hinweise, die auffallen, wie ein GPU-Glitch mitten im Spiel.

Ein weiteres häufiges Zeichen ist zu perfekte Haut: glatte, glänzende Oberflächen ohne Poren, Falten oder Markierungen, mit einem retuschierten Finish, das eher nach Render als nach echtem Video aussieht. Achte auch auf Text im Bild — Schilder, T‑Shirts, Bildschirme — denn die Modelle haben oft Probleme mit Schrifttypen und Sprache, schreiben Wörter falsch oder erzeugen sie sinnfrei, das typische Kauderwelsch, das einen aus dem Moment reißt.

Auch die Physik verrät vieles. Unnatürliche Bewegungen, wie Gehen ohne Kniebeugung oder Autos, die sich auf unnatürliche Weise bewegen, deuten darauf hin, dass das System Lücken anhand visueller Muster und nicht aufgrund physischer Erfahrung füllt. Außerdem sind Zähne oft problematisch: Gebisse, die zu einem Block verschmelzen oder zwischen Frames die Form wechseln, sind ein Klassiker. Im Grunde suche nach Objekten oder Personen, die ohne Grund erscheinen und verschwinden, seltsamen Schatten oder Lichtflackern, das nur eine Zone betrifft, und leicht unscharfen oder beklemmenden Gesichtern im Hintergrund, obwohl die Nahaufnahme scharf ist; das sind typische Artefakte.

Wie KI-Video-Generatoren funktionieren

Den Trick zu kennen hilft, den Faden zu sehen. Diese Systeme basieren auf erlernten visuellen Referenzen — Personen, Objekte, Szenen — und wenn du ihnen beschreibst, was du willst, verwandeln sie ein Referenzvideo in Rauschen, um es Bild für Bild neu zu rekonstruieren und dabei deine Anweisung einzubeziehen. Das Ergebnis wirkt auf den ersten Blick kohärent, aber die probabilistische Rekonstruktion bringt diese kleinen Fehler in Kontinuität, Text und Physik hervor, die einem mit trainiertem Auge sofort auffallen.

Dieser Ansatz erklärt, warum Gesichter im Hintergrund unscharf werden, warum Schatten nicht passen oder warum eine Geste zwischen Schnitten wechselt; das Modell ’schätzt‘ das Wahrscheinlichste, nicht das Wahre, und genau da kannst du die Falle erkennen.

Audio, Bilder und Text: mehr Hinweise, mehr Bewusstsein

Die Überprüfung endet nicht beim Video. Bei Bildern suche nach übermäßig glänzenden Texturen und seltsamen Körperproportionen — zu viele oder zu lange Finger, winzige Füße, Haare ohne Haarwurzeln — sowie Verzerrungen wie deformierte Hintergründe, nicht übereinstimmende Ohrringe oder andere asymmetrische Details. Wenn du unsicher bist, kann eine Rückwärtssuche nach Bildern zur Herkunftsrecherche und ein Blick in die Metadaten Kontext liefern, besonders wenn der Inhalt nur in Sozialen Netzwerken kursiert und nicht in seriösen Quellen auftaucht.

Beim Audio kann der Timbre täuschen, aber die Prosodie weniger: Sätze, die ‚zusammengeklebt‘ klingen, fehlende oder falsche Akzente oder Intonationen, die nicht zur Situation passen, verraten Sprachsynthese, bei der der Algorithmus in Segmenten und nicht aus einer kommunikativen Absicht heraus artikuliert. Im Text tauchen hingegen oft Wiederholungen von Strukturen, abrupte Tonwechsel und übermäßiger Jargon auf, um Lücken zu kaschieren; achte außerdem auf zweifelhafte oder schwer überprüfbare Zitate. Wenn du eine zweite Meinung willst, gibt es Tools wie GPTZero oder Grammarly für Texte und für Videoplattformen wie Deepware oder ScreenApp, wobei zu beachten ist, dass automatische Erkennung noch nicht fehlerfrei ist und du sie mit eigenen Beobachtungen kombinieren solltest.

Schließlich: Teile dein Wissen. Wenn du einen viralen, verdächtigen Clip siehst — vom Politiker, der eine mondartige Akrobatik macht, bis zur surrealen Szene an einem offiziellen Ort —, warne dein Umfeld und erkläre die Signale, die du entdeckt hast, denn die Kette rechtzeitig zu durchbrechen verhindert, dass sich die Falschmeldung verbreitet. Bringe diese Richtlinien Freunden und Familie bei, um die Wirkung zu vervielfachen, und je mehr Hinweise ein Video anhäuft, desto wahrscheinlicher ist es, dass es synthetisch ist; wie bei Hardware verlässt du dich nicht auf einen einzigen Sensor, sondern kreuzst Daten, um fundiert zu entscheiden.

Edu Diaz
Edu Diaz

Mitgründer von Actualapp und begeisterter Anhänger technologischer Innovationen. Mit einem Geschichtsstudium und beruflich als Programmierer verbinde ich akademische Strenge mit Begeisterung für die neuesten Technologietrends. Seit über zehn Jahren bin ich Technologie-Blogger und mein Ziel ist es, relevante und aktuelle Inhalte zu diesem Thema anzubieten, die allen Lesern verständlich und zugänglich sind. Neben meiner Leidenschaft für Technologie schaue ich gerne Fernsehserien und teile gerne meine Meinungen und Empfehlungen. Und natürlich habe ich eine klare Meinung zu Pizza: definitiv keine Ananas. Begleiten Sie mich auf dieser Reise durch die faszinierende Welt der Technologie und ihre vielfältigen Anwendungen in unserem Alltag.