Vor ein paar Tagen bin ich bei Insta Reels hängen geblieben. Ein Video nach dem Anderen. Und fast alle waren KI-generierte Videos. Das ist mir nicht gleich am Anfang aufgefallen, aber wie ein typischer KI-Fehler passiert ist, habe ich genauer hingesehen. Und eben festgestellt, dass beinahe alles KI-generiert ist.
In einer Zeit, in der Deepfakes und KI-generierte Videos immer besser werden, ist es schwierig, Echtes von Falschem zu unterscheiden. Modelle wie Sora, Kling oder Runway liefern Bilder, die auf den ersten Blick atemberaubend wirken. Doch auch wenn die Algorithmen immer besser werden, hinterlassen sie fast immer digitale Fingerabdrücke. Wenn du weißt, worauf du achten musst, kannst du KI-Videos ganz einfach entlarven.
Die Physik der Unmöglichkeit
Eines der größten Probleme für aktuelle KI-Modelle ist das Verständnis von physikalischen Gesetzen. In der echten Welt haben Objekte Gewicht, Trägheit und kollidieren auf logische Weise. KI hingegen „träumt“ Pixel zusammen, ohne die Regeln der Materie zu kennen.
Wenn du zum Beispiel plötzlich einen Kaffeebecher siehst, der in eine Hand hineinschmilzt oder die Brille, die nahtlos mit der Haut des Trägers verwächst, dann sind das die klassischen Warnsignale für KI-Videos.
Aber auch Bewegungen wirken in KI-Videos oft traumartig oder unnatürlich. Haare wehen vielleicht in eine Richtung, die absolut nicht zum Wind im Hintergrund passt, oder Kleidung bewegt sich ohne ersichtlichen Grund wie unter Wasser.
Unnatürliche Aufmerksamkeit
Ein oft übersehenes, aber extrem entlarvendes Merkmal von KI-generierten Szenen ist die Blickrichtung, besonders bei Menschenmengen. In der Realität ist eine Gruppe von Menschen chaotisch: Jemand schaut auf den Boden, jemand anderes in die Ferne, und wieder andere unterhalten sich.
KI-Modelle neigen dazu, Personen so zu generieren, dass sie gleichzeitig direkt in die Linse blicken. Das wirkt fast so, als stünden alle Statisten unter Hypnose. Wenn in einem Clip einer belebten Straßenszene fast jeder Passant kurz oder starr in die Kamera schaut, ist das ein klares Zeichen für eine künstliche Komposition. Zusätzlich hast du bei großen Menschenmengen noch die fehlende soziale Interaktion. In echten Videos interagieren Menschen miteinander. In der KI-Welt wirken Personen oft wie isolierte Inseln, die zwar nebeneinander existieren, aber keinen echten Bezug zueinander haben, während ihr Fokus unnatürlich stark auf dem Betrachter liegt.
Anatomische Fehler

KI hat nach wie vor massive Schwierigkeiten mit komplexen menschlichen Strukturen. Da die KI nicht weiß, wie viele Finger ein Mensch hat, sondern nur rät, wie eine Hand statistisch gesehen aussehen sollte, entstehen Fehler.
Zähle deshalb die Finger. Sechs Finger oder verschwommene „Klauen“ sind keine Seltenheit. Achte auch darauf, ob Gelenke an unlogischen Stellen einknicken oder ob Arme plötzlich aus dem Torso einer anderen Person wachsen. Auch die Zähne und die Augen sind ein untrügliches Merkmal für ein KI-Video. Denn das menschliche Auge ist hochkomplex. KI-Videos zeigen oft einen „leeren“ Blick oder unregelmäßiges Blinken. Und wenn eine Person spricht, wirken die Zähne oft wie eine durchgehende, weiße Masse ohne Zwischenräume. Oder sie sind in einer unnatürlichen Anzahl vorhanden.
Inkonsistenz im Hintergrund
Während das Hauptmotiv im Vordergrund oft beeindruckend gerendert ist, vernachlässigt die KI häufig den Rest des Bildes. Hier entstehen die meisten Fehler durch mangelnde Rechenkapazität oder Logikfehler des Modells.
Bei Passanten oder Autos im fernen Hintergrund kann es da schon mal passieren, dass sie sich in formlose Klumpen verwandeln. Oder die Größe verändert sich im Vorbeigehen auf unnatürliche Art. Manchmal verschwinden Objekte plötzlich komplett aus dem Bild. Das ist das so genannte Popping.
Auch an Häusern, Zäunen oder Straßenmarkierungen kannst du KI-Videos erkennen. Beim Schwenken der Kamera beginnen gerade Linien in KI-Videos oft zu „atmen“ oder sich wie Gummi zu verbiegen.
Audio-Visuelle Diskrepanz bei Deepfakes
Bei Videos mit sprechenden Personen ist die Synchronisation oft der entscheidende Hinweis. Hier versucht die KI, eine vorhandene Tonspur über ein generiertes Gesicht zu legen. Bei KI-Videos passt die Bewegung der Lippen meistens nicht zu dem, was gesagt wird. Die KI hinkt hier ein paar Millisekunden hinterher und die Lippen sind nicht mehr synchron oder die Mundbewegungen wirken mechanisch und abgehackt.
Weil KI eine Maschine ist, tut sie sich mit Emotionen ziemlich schwer Wut oder Freude wirken oft aufgesetzt. Da fehlen die sogenannten Mikroexpressionen. Das sind die winzigen Muskelzuckungen im Gesicht, die wir unterbewusst als echt wahrnehmen.
Digitale Texturen und Lichtführung
KI neigt dazu, Oberflächen entweder zu glatt oder seltsam körnig darzustellen, was uns in das „Uncanny Valley“ (das unheimliche Tal) führt.
Die Haut von KI-Menschen wirkt oft wie aus Plastik oder extrem weichgezeichnet. Es fehlen Poren, Narben oder feine Härchen, die ein Gesicht lebendig machen. Oder der Schatten zeigt in die falsche Richtung. Wenn die Sonne links im Bild steht, der Schatten einer Person aber nach vorne fällt, wurde die Szene künstlich generiert. KI versteht Licht oft nur als Helligkeitswert, nicht als physikalischen Strahl.
Wachsamkeit statt Paranoia
Vor ein paar Jahren konntest du KI-Videos relativ leicht entlarven. Aber die werden immer besser. Heute musst du schon ganz genau hinschauen. Der Blick fürs Detail und ein gesunder Menschenverstand helfen dabei. Wenn sich ein Video falsch anfühlt, dann liegst du meistens richtig.
In Zukunft wird es vielleicht Wassereichen und technische Zertifikate für KI-Videos geben. Aber bis dahin bleibt dein eigenes Gehirn das beste Werkzeug, um zwischen Fake und Realität zu unterscheiden.
Die wichtigsten Fragen
Zusammengefasst
KI-generierte Videos sind inzwischen schon schwer zu erkennen, aber sie sind eben (noch) nicht perfekt. Wenn du die typischen Schwachstellen erkennst, kannst du ein generiertes Video relativ schnell erkennen. Das beginnt bei physikalischen Unmöglichkeiten und anatomischen Fehlern bis hin zum unnatürlichen „Kamera-Starrsinn“ bei großen Menschenmengen. Schau deshalb lieber zweimal hin und achte auf die Details.
Hast du schon einmal ein KI-Video gesehen, das dich komplett getäuscht hat? Oder gibt es ein bestimmtes Detail, an dem du Deepfakes sofort erkennst? Schreib es mir unten in die Kommentare – ich bin gespannt auf deine Erfahrungen!

Ich bin Edgar, der Kopf hinter Wieselfilm. Ich mache seit mehr als zwanzig Jahren Videos und teile gerne. Zum Beispiel, wie du mit Low-Budget das Meiste rausholen kannst, welche Tricks es in der Nachbearbeitung gibt, wie deine Videos besser werden und noch viel mehr. Mehr über mich gibts hier.






