Deepfakes und Desinformation: Die Schattenseiten der KI und wie man sich schützt


Eine alltägliche Szene (z. B. Büro oder Zuhause), in der jemand eine scheinbar echte Nachricht erhält – aber im Hintergrund verschwimmt das Gesicht oder löst sich in Pixel auf: visuelle Darstellung von Täuschung im Alltag.

Warum Deepfakes jetzt jede:n betreffen

7:42 Uhr, eine WhatsApp-Sprachnachricht: „Hey, ich bin’s, neues Handy – kannst du mir kurz helfen?“ Die Stimme klingt wie deine Mutter. Oder ein kurzer Video-Call vom „Chef“, der eine dringende Überweisung anweist. Parallel trendet auf TikTok ein Clip, in dem eine Politikerin „zugibt“, was sie nie gesagt hat. Deepfakes sind keine Science-Fiction mehr, sondern alltagsnahes Werkzeug für Betrug, Rufschädigung und politische Falschinformationen. Dank leicht zugänglicher KI-Tools lassen sich täuschend echte Audio-, Bild- und Video-Fälschungen in Minuten erzeugen und millionenfach verbreiten – schneller, als Faktenchecks hinterherkommen.

Warum das wichtig ist: Unser Gehirn vertraut Bildern und Stimmen, vor allem, wenn sie in vertrauten Chats oder von verifizierten Accounts auftauchen. Genau das nutzen Täter:innen und Trolle aus. Ob Privatperson, Lehrkraft, KMU oder Verwaltung – alle sind Zielgruppe. In Wahljahren verschärft sich der Druck zusätzlich.

Was Sie hier bekommen: eine kompakte Anleitung, wie Sie Desinformation durch KI erkennen, sich praktisch schützen und im Ernstfall richtig handeln. Für mehr Kontext zum Umgang mit persönlichen Daten empfehlen wir außerdem: KI und Datenschutz: Was passiert mit deinen Daten? sowie unseren Guide zur KI-gestützten Recherche.

Was sind Deepfakes?

4 Gesichter oder Symbole (Auge, Ohr, Mund, Text), verbunden durch ein neuronales Netz, jeweils ein Format (Video, Audio, Bild, Text).

Deepfakes sind synthetische Medien – also Bilder, Videos, Audio oder sogar Texte –, die mithilfe von generativer KI erstellt oder so verändert werden, dass sie wie echte Aufnahmen wirken. Im Unterschied zu klassischen „Photoshop-Fälschungen“ entstehen Deepfakes meist durch lernende Modelle (z. B. neuronale Netze), die Muster von Gesichtern, Stimmen und Bewegungen imitieren. Das Resultat: Inhalte, die auf den ersten Blick authentisch wirken – und deshalb so wirksam sind.

Typen von Deepfakes (mit Beispielen)

  • Video-Deepfakes: Gesichter werden realistisch auf andere Körper gelegt („Face Swap“) oder Lippenbewegungen und Mimik synchron zur Tonspur erzeugt („Lip Sync“).
  • Audio-Deepfakes / Voice Cloning: Stimmen werden in Tonhöhe, Tempo und Timbre täuschend nachgebildet – oft genügen wenige Sekunden Originalaudio.
  • Bild-Deepfakes: Einzelbilder werden manipuliert (z. B. Gesichter, Hintergründe) oder komplett neu generiert – inklusive „realistisch“ wirkender Details.
  • Text-Synthese: KI kann Aussagen, Interviews oder „Leaks“ in glaubwürdigem Stil erzeugen – sie dienen dann als Scheinquelle für Desinformation.

Begriffsklärung: Neben „Deepfakes“ gibt es „Cheap-/Shallowfakes“ – simpel manipulierte Inhalte (z. B. aus dem Kontext gerissene Clips, falsche Bildunterschriften, Zeitlupen/Speed-Up), die ohne KI auskommen, aber genauso irreführen können.

Wozu werden Deepfakes genutzt?

  • Legitime Anwendungen: Film & Synchron, künstlerische Experimente, barrierefreie Inhalte (z. B. Stimmprothesen), Education & Satire – sofern gekennzeichnet und rechtskonform.
  • Problematische Anwendungen: Betrug (CEO-Fraud, WhatsApp-Stimme), Rufschädigung (auch sexualisierte Deepfakes), politische Desinformation und Erpressung.

Warum die Unterscheidung zählt

Ob „gut“ oder „schlecht“ hängt nicht vom Werkzeug ab, sondern von Kontext, Einwilligung und Transparenz. Seriöse Produktionen setzen zunehmend auf Kennzeichnungen (z. B. Content Credentials nach C2PA) und klare Hinweise („synthetisch erstellt“). Bei fehlender oder absichtlicher Verschleierung steigt das Risiko für Falschinformationen und Manipulation.

Weiterlesen: Wenn dich vor allem die Erkennung interessiert, spring zu unserem 7-Punkte-Schnell-Check und dem Praxis-Workflow. Für Hintergründe zum Schutz persönlicher Daten empfehlen wir: KI und Datenschutz: Was passiert mit deinen Daten?.

Warum Deepfakes gefährlich sind

Zerbrechende Social-Media-Identität oder ein Spiegel, der eine verzerrte digitale Person zeigt.

Deepfakes sind nicht nur „gut gemachte Tricks“. Sie zielen auf unser Vertrauen in Bilder, Stimmen und vermeintlich „authentische“ Situationen. Das macht sie zu idealen Werkzeugen für Betrug, Rufmord und politische Desinformation – oft mit realen finanziellen und sozialen Folgen.

Psychologie: Warum Fakes kleben bleiben

  • Confirmation Bias: Wir glauben eher, was in unser Weltbild passt – ein Fake verstärkt vorhandene Überzeugungen.
  • Emotion schlägt Evidenz: Wut, Angst oder Schadenfreude erhöhen die Bereitschaft zu teilen, bevor geprüft wird.
  • Illusory Truth-Effekt: Wiederholung macht Behauptungen scheinbar „wahrer“, selbst wenn sie falsch sind.

Konkrete Risiken

  • Reputation & Privatsphäre: Manipulierte Bilder/Videos (inkl. sexualisierter Deepfakes) können Existenzen zerstören.
  • Finanzbetrug: Voice-Cloning im „Chef-Anruf“, gefälschte Zahlungsfreigaben, Social Engineering in Support-Chats.
  • Öffentliche Meinung & Wahlen: Fakes untergraben Vertrauen in Medien, Institutionen und demokratische Prozesse.
  • Erpressung & Mobbing: Besonders gefährdet: Jugendliche und öffentlich sichtbare Personen.

Plattform-Dynamiken: Reichweite ohne Bremse

  • Algorithmische Verstärkung: Aufregende Inhalte gehen viral – Faktenchecks hinken hinterher.
  • Kontextverlust: Clips werden aus dem Ursprungskontext gelöst und neu gerahmt.
  • Niedrige Einstiegshürden: Frei verfügbare Tools + Leaks/Offenlegungen liefern Material für täuschend echte Fakes.

Kurz gesagt: Deepfakes verbinden Skalierbarkeit (billig, schnell, massenhaft) mit psychologischer Wirksamkeit. Deshalb brauchen wir Prüfroutinen und Sicherheitsregeln – im Privaten wie im Job. Nützliche Grundinfos zur IT-Hygiene bietet das BSI – IT-Sicherheit.

➡️ Weiter mit dem Praxisteil: 7-Punkte-Schnell-Check zur Entlarvung und Workflow vom „verdächtig“ zum „geprüft“.

So entlarvst du Deepfakes: Der 7-Punkte-Schnell-Check

Eine Person mit AR-Brille analysiert ein Video – im Sichtfeld erscheinen Deepfake-Artefakte und Hinweise.

Kurzfassung: Prüfe Quelle → Kontext → Technik → Gegencheck. Teile nichts, was du nicht verifizieren kannst.

1) Quelle prüfen

Was prüfen: Wer hat’s veröffentlicht? Wie sieht die Historie des Accounts/Mediums aus?
So geht’s: Checke Impressum/„Über uns“, frühere Posts, Publikationsrhythmus, Kontaktinfos. Vorsicht bei frisch erstellten, anonymen oder extrem einseitigen Profilen.

2) Kontext checken

Was prüfen: Datum, Ort, Anlass, Original-Uploader.
So geht’s: Suche nach der ersten Veröffentlichung (nicht nur Reuploads), vergleiche Ortsangaben und Ereigniskalender. Fehlende Details oder widersprüchliche Storys sind Warnzeichen.

3) Bild-/Video-Artefakte erkennen

Was prüfen: Unnatürliche Augenbewegungen, starre Blinzlerate, verschobene Schatten, Ränder an Gesicht/Haaren, Hände/Finger (Zahl/Form), Schmuck/Brillen, unsaubere Übergänge am Hals.
So geht’s: Spiele das Video verlangsamt ab, pausiere an Schlüsselbildern. Achte auf Lippen-Sync zur Tonspur und inkonsistente Lichtquellen.

4) Audio-Anomalien hören

Was prüfen: Gleichförmige Intonation, fehlende Atmer, unpassender Raumhall, harte Schnitte.
So geht’s: Höre mit Kopfhörern. Achte auf Silbengrenzen (klingen sie „geknetet“?), auf unplausible Satzmelodie oder „glatte“ Hintergrundgeräusche.

5) Rückwärtssuche (Reverse Search)

Was prüfen: Ob das Material schon früher in anderem Kontext erschien.
So geht’s:

  • Standbild/Screenshot erstellen und bei Google Bilder oder TinEye hochladen.
  • Bei Videos mehrere Frames testen (Anfang/Mitte/Ende).
  • Browser-Plugin nutzen: InVID/WeVerify (Frame-Grab, Keyframe-Analyse).

6) Metadaten & Forensik

Was prüfen: Manipulationsspuren (Klonen, Splices), EXIF-Reste, Kompressionsmuster.
So geht’s: Lade das Bild (wenn möglich das Original) in ein Tool wie Foto-Forensik und vergleiche Error Level Analysis, Schärfeverteilung, Kontraste. Beachte: Plattformen strippen oft Metadaten – fehlende EXIF ist kein Beweis.

7) Gegencheck & Verifikation

Was prüfen: Gibt es zweite, unabhängige Quellen? Offizielle Statements? Lokale Medien?
So geht’s: Suche nach Berichten etablierter Redaktionen/Faktenchecker, vergleiche Uhrzeiten und Zitate, prüfe, ob Betroffene/Institutionen Stellung nehmen. Kein Gegencheck? → Nicht teilen.


Pro-Tipps (für schnelle Entscheidungen)

  • Plausibilitäts-Stop: Frage dich: Ist der Inhalt zu „perfekt“ für ein Vorurteil?
  • Zeit gewinnt: 30–60 Sekunden Reverse Search verhindert stundenlangen Schaden.
  • Kontakt über bekannten Kanal: Beim „Chef/Kind/Eltern“-Anruf immer Rückruf an die bekannte Nummer.
  • Kennzeichnungen beachten: Content-Credentials (z. B. C2PA) können helfen – sind aber kein Garant.

Nützliche Tools: Google Bilder · TinEye · InVID/WeVerify · Foto-Forensik

Merksatz: Bauchgefühl ≠ Beweis. Erst prüfen, dann teilen – oder gar nicht.

Praxis-Workflow: Von „verdächtig“ zu „geprüft“

Detektivartige Figur oder Team arbeitet an mehreren Monitoren mit Checkliste und Tools offen sichtbar.

Ziel: In ≤ 2 Minuten klären, ob ein Clip/Foto/Audio teilbar ist – oder gestoppt werden muss.

Schritt für Schritt

  1. Sichern (ohne zu teilen)
    • Link kopieren, Screenshot machen, bei Video 3–5 Keyframes exportieren (Anfang/Mitte/Ende).
    • Notiere Wer/wo/wann (Uploader, Datum, Plattform).
  2. Rückwärtssuche
    • Keyframes bei Google Bilder und TinEye prüfen.
    • Gibt es frühere Uploads mit anderem Kontext? → Warnsignal.
  3. Forensik & Details
    • Einzelbild (möglichst Original) in Foto-Forensik prüfen (Error Level, Kanten, Schärfe).
    • Bei Video/Frames: Licht/Schatten, Hände/Finger, Lippen-Sync checken.
  4. Kontext-Check
    • Ort/Datum/Anlass gegenprüfen (Wetter, Ereigniskalender, Kleidung, Sprache im Bild).
    • Suche nach Original-Uploader oder lokaler Berichterstattung.
  5. Gegencheck
    • Zweite, unabhängige Quelle finden (seriöse Medien/Faktenchecker).
    • Optional: Browser-Plugin InVID/WeVerify für Keyframes & Metadaten.
  6. Bewerten & Handeln
    • Kein sicherer Gegencheck?Nicht teilen.
    • Melden (Plattform-Report), intern eskalieren (Unternehmen/Schule: feste Callback-Policy nutzen).
    • Kurz dokumentieren (Dateiname: plattform_datum_uploader_kontext.png).

Mini-Flowchart (textlich)

Verdacht → Sichern → Rückwärtssuche → Forensik → Kontext → Gegencheck
           ↓                         ↓
        Kein Fund?              Inkonsistenzen?
           ↓                         ↓
       Nicht teilen           Nicht teilen & melden
                 ↓
          Zwei Quellen bestätigen?
                 ↓
           Teilen mit Hinweis / oder verwerfen

Pro-Tipps

  • Immer zurückrufen – aber nur über bekannte Nummern/Kanäle (nicht den, der im Clip/Chat steht).
  • Zeit gibt Sicherheit: 60 Sekunden prüfendes Scrollen spart Stunden Schadensbegrenzung.
  • Kennzeichnungen beachten: Content-Credentials (z. B. C2PA) können helfen – sind jedoch kein Beweis.

Fallbeispiele (kurz & lehrreich)

Split-Screen mit drei realistischen Szenarien: Voice-Call „Chef“, viral Skandal-Clip, Influencer-Testimonial.

Case A: „Chef-Anruf“ mit Voice-Cloning

Situation: Ein Finanzmitarbeiter erhält einen spontanen Anruf – die Stimme klingt exakt wie der CEO. „Dringende Überweisung wegen Deal-Deadline.“
Red Flags: Neuer/unterdrückter Anruf, Zeitdruck, Bitte um Geheimhaltung.
Richtig handeln: Callback-Policy nutzen: Rückruf nur über die bekannte Durchwahl oder gespeicherte Nummer. Zweite Person einbinden (Vier-Augen-Prinzip). Schriftliche Freigabe anfordern.
Lernen daraus: Prozesse schlagen Stimmen. Lege intern eine verbindliche Rückruf- & Zahlungsfreigabe-Policy fest und trainiere sie regelmäßig.


Case B: Viral-Video mit „Skandal“-Behauptung

Situation: Ein 20-Sekunden-Clip trendet und soll einen handfesten Missstand beweisen.
Red Flags: Kein Original-Uploader, Schnittsprünge, fehlender Ort/Zeit-Bezug.
Richtig handeln: Keyframes ziehen → Google Bilder & TinEye. Kontext prüfen (Ort/Wetter/Events). Gegencheck bei lokalen Medien/Faktencheckern (z. B. ARD Faktenfinder oder CORRECTIV Faktencheck).
Lernen daraus: Kontext ist König. Ohne Primärquelle und unabhängigen Gegencheck nicht teilen.


Case C: Gefälschtes Influencer-Testimonial

Situation: Ein bekannter Creator „bewirbt“ eure Marke in einem perfekt aussehenden Reel – euer Team weiß von keiner Kooperation.
Red Flags: Leicht unnatürliche Lippenbewegungen, inkonsistente Schatten, fehlende Kennzeichnung.
Richtig handeln: Beim mutmaßlichen Creator über verifizierte Kanäle nachfragen. Statement der Marke veröffentlichen. Auf Content-Credentials prüfen (z. B. C2PA). Plattform melden, Entfernung beantragen.
Lernen daraus: Provenance checken. Marken sollten einen öffentlichen Meldeweg („Report Fake Ads/Testimonial“) und klare FAQs bereithalten.


Weiter: Für systematisches Vorgehen nutze den 7-Punkte-Schnell-Check und den Praxis-Workflow. Tiefer in Datenschutz? → KI und Datenschutz: Was passiert mit deinen Daten?.

Schutzstrategien nach Zielgruppe

Drei Szenen nebeneinander: Familie mit Safe-Word, Büro mit 4-Augen-Regel, Klassenzimmer mit Medienprojekt.

Ziel: Risiken durch Deepfakes und KI-Desinformation senken – mit klaren Routinen, Checklisten

Zuständigkeiten.

Für Privatpersonen: Alltagssicherheit & Medienkompetenz

  • 2-Faktor-Authentifizierung (2FA) überall aktivieren: E-Mail, Cloud, Socials, Banking. Nutze einen Passwortmanager und einzigartige Passwörter.
  • „Safe Word“ einführen: Familien-/Freundeskreis vereinbart ein Codewort für Notfälle (Telefon/Sprachnachricht). Ohne Codewort → kein Geld, keine Daten.
  • Rückruf nur über bekannte Kanäle: Bei dringenden Bitten (Geld, Zugangsdaten) immer zurückrufen – aber an die gespeicherte Nummer, nicht die im Chat/Clip.
  • Privatsphäre-Hygiene: Standorttags in Fotos deaktivieren, „Wer darf markieren/erwähnen?“ einschränken, Freundeslisten prüfen.
  • Skepsis trainieren: Kurz-Workflow: Quelle → Kontext → Technik → Gegencheck (siehe Schnell-Check).
  • Melden & dokumentieren: Plattform melden, Screenshots/Links sichern. Bei Betrugsverdacht: Polizei/Bank kontaktieren.
  • Weiterlesen: BSI – IT-Sicherheit · Hintergrund: KI und Datenschutz: Was passiert mit deinen Daten?.

Für Unternehmen: Policies, Prozesse, Prävention

  • Callback-Policy (fix & schriftlich): Finanz-/HR-relevante Anweisungen nur nach Rückruf über verifizierte Nummern + Vier-Augen-Prinzip.
  • Freigabeprozesse für Zahlungen & Kommunikation: Schwellenwerte, zweite Freigabe, verpflichtende Wartezeit (z. B. 10 Min) bei „dringenden“ Anweisungen.
  • Awareness-Trainings (quartalsweise): Voice-Cloning, CEO-Fraud, „Too Perfect To Be True“-Signale. Übungsfälle mit echten Mails/Clips.
  • Offizieller Meldeweg: Interne Adresse/Slack-Channel „#security-report“. Reaktionsplan (Wer prüft? In welcher Reihenfolge?).
  • Brand Protection: Missbrauch von Logos/Testimonials schnell erfassen; FAQ-Seite „Fake Ads/Testimonial melden“ bereitstellen.
  • Crisis Runbook (1 Seite): Kontaktliste, Entscheidungsbaum, externe Ansprechpartner (Bank, CERT, PR).
  • Technik & Signale:
    • Account-Sicherheit: SSO, 2FA, Admin-Rechte minimal halten.
    • Content-Provenance prüfen: Content-Credentials (z. B. C2PA) erkennen; interne Medienproduktion optional mit Wasserzeichen/Provenance ausstatten.
  • Dokumentation: Vorfälle in einem zentralen Register festhalten (Zeit, Kanäle, Entscheidung, Lessons Learned).
  • Weiterlesen: Leitfäden & Basismaßnahmen beim BSI · Praxis: KI-gestützte Recherche.

Copy-&-Paste-Policy-Snippet (Kurzfassung):

Zahlungs- und Datenfreigaben erfolgen ausschließlich nach Rückruf an bekannte Nummern (Adressbuch/Telefonliste) und unter Vier-Augen-Freigabe. Sprach-/Videoanrufe gelten nicht als Identitätsnachweis. Dringlichkeit hebt diese Regeln nicht auf.

Für Schulen & Lehrkräfte: Medienbildung & Schutzräume

  • Curriculum verankern: Unterrichtsmodul „Deepfakes & Desinformation“ mit Praxisübungen (Reverse Search, InVID, Kontextprüfung).
  • Projektarbeit „Faktencheck“: Schüler:innen prüfen virale Clips aus ihrem Alltag – Quelle/Datum/Ort dokumentieren, Ergebnisse präsentieren.
  • Klassenregeln gegen Deep-Nuding & Mobbing: Klare Meldewege, Beweissicherung, psychosoziale Unterstützung, keine Täter:innen-Beschämung.
  • Elternkommunikation: Infoblatt mit Safe-Word-Prinzip, Rückruf-Regel und Plattform-Meldewegen. Elternabende mit Live-Demonstration.
  • School-Ops: Schul-Accounts mit 2FA, geteilte Admin-Zugänge vermeiden, Veröffentlichungen nur über offizielle Kanäle.
  • Material & Hilfe: ARD Faktenfinder · CORRECTIV Faktencheck · BSI – IT-Sicherheit.

Quick-Checkliste (druckreif)

  • Identität verifizieren: Rückruf über bekannte Kanäle.
  • Technik prüfen: 2FA an, Updates aktuell, Passwortmanager.
  • Inhalt prüfen: Quelle, Kontext, Artefakte, Gegencheck.
  • Keine Alleingänge: Zweite Person einbinden (privat: Vertrauensperson; Job: Vier Augen).
  • Dokumentieren & melden: Plattform, Bank/Polizei, intern.

Merksatz: Regeln schlagen Bauchgefühl. Wenn ein Inhalt drängt oder zu gut passt, verlangsame – prüfe – handle.

Recht & Regulierung in Kürze (keine Rechtsberatung)

DSA – Digital Services Act (EU

Justitia als Hologramm, umgeben von Icons für DSA, AI Act, Plattform-Logos, Gesetzestext als Code-Linien.

Plattformen müssen wirksame Meldewege („Notice & Action“) für rechtswidrige Inhalte anbieten, transparenter berichten und zusätzliche Sorgfaltspflichten erfüllen (insb. sehr große Plattformen). Praktisch heißt das: Nutze die Melde-Buttons der Plattform – sie sind verpflichtend. (European Commission, Digitale Strategie Europas, EU DisinfoLab)

EU AI Act – Transparenz für synthetische Inhalte: Die EU regelt KI risikobasiert. U. a. gilt: KI-erzeugte/manipulierte Inhalte (Deepfakes) müssen als künstlich gekennzeichnet werden; außerdem bestehen gesonderte Transparenzpflichten für Chatbots & General-Purpose-KI. Teile des Gesetzes greifen bereits (z. B. Verbote „unvertretbarer Risiken“ seit 2025), weitere Pflichten folgen stufenweise. (Digitale Strategie Europas, Europäisches Parlament)

Persönlichkeits- & Urheberrecht (DE): Das Recht am eigenen Bild verlangt grundsätzlich eine Einwilligung, bevor Bildnisse verbreitet/öffentlich gezeigt werden – auch bei manipulierten oder KI-erzeugten Darstellungen mit Personenbezug. Ausnahmen sind eng, z. B. Zeitgeschichte. (Gesetze im Internet, Dejure)

Strafrecht (DE): Gegen ehrverletzende Fakes kommen u. a. Beleidigung (§ 185 StGB), Üble Nachrede (§ 186 StGB) und Verleumdung (§ 187 StGB) in Betracht. Die Normen regeln u. a. Strafen und verschärfen diese teils bei öffentlicher Verbreitung im Netz. (Gesetze im Internet)

Was tun im Ernstfall?

  1. Beweise sichern (Links, Screenshots, Zeitstempel).
  2. Auf der Plattform melden (DSA-Meldeweg). (European Commission)
  3. Rechtliche Schritte prüfen (anwaltliche Beratung/Strafanzeige; Hinweise & Hilfeangebote siehe Behördenportale). (hilfe-info.de)

Merke: Technik hilft – aber Kennzeichnung & Meldewege ersetzen nicht deine Prüfroutine. Medienkompetenz bleibt die wichtigste Schutzschicht.

Zukunft & Technik: Wasserzeichen, Provenance, C2PA

Glühender „Verified“-Stempel auf einem KI-generierten Bild, daneben disintegrierende Version ohne C2PA.

Zwei technische Schutzschichten gewinnen an Bedeutung – beide helfen, sind aber nicht unfehlbar:

1) Wasserzeichen & Erkennung

  • Idee: Unsichtbare Signale (z. B. in Pixeln/Audio), die anzeigen: „KI-generiert“.
  • Problem: Viele Wasserzeichen sind zerbrechlich (Screenshot, Zuschnitt, Re-Upload) oder lassen sich gezielt entfernen. Zudem wirken sie nur, wenn Ersteller:innen sie freiwillig setzen – und Plattformen sie auslesen.
  • Fazit: Gut für Transparenz-by-Default, aber kein Beweis für Echtheit oder Fälschung.

2) Provenance & Content Credentials (C2PA)

  • Idee: Eine fälschungssichere „Inhalts-Kette“: Wer hat wann aufgenommen/bearbeitet, mit welcher Software? Diese Infos werden kryptografisch signiert und als Content Credentials angezeigt (Standard: C2PA).
  • Praxis: Immer mehr Tools/Publisher unterstützen das; Nutzer:innen sehen dann ein Badge und können die Bearbeitungshistorie prüfen.
  • Grenze: Funktioniert vor allem dort, wo die Kette nie reißt. Ein einfacher Export/Screenshot ohne Credentials verliert die Spur.

Was du heute schon tun kannst

  • Nachweisen statt raten: Prüfe, ob Content Credentials angezeigt werden; öffne die Details (Ersteller, Bearbeitungen).
  • Metadaten checken: Bild/Video original sichern und Metadaten prüfen (siehe Foto-Forensik).
  • „Kein Signal“ ≠ „Fake“: Fehlende Wasserzeichen/Credentials beweisen nichts. Deshalb weiterhin: Quelle → Kontext → Technik → Gegencheck.
  • Unternehmen/Redaktionen: Eigene Produktionen mit Content Credentials ausstatten und in Richtlinien verankern.

Kernaussage: Technik hilft beim Belegen von Echtheit, nicht beim Beweisen von Wahrheit. Medienkompetenz bleibt die wichtigste Firewall.

Ressourcen & Checklisten

Zum Mitnehmen: Diese Seite liefert dir die kompakten Schnell-Checks und vertrauenswürdige Anlaufstellen, um Deepfakes und KI-Desinformation souverän zu prüfen.

Schnell-Checkliste: 7 Fragen vor dem Teilen

Gedruckte Checkliste auf einem echten Schreibtisch, daneben Tablet mit Tools geöffnet.
  1. Erstquelle: Wer hat das Material zuerst veröffentlicht (Name, Impressum, Historie)?
  2. Kontext: Stimmen Datum/Ort/Anlass – und passt die Szene in bekannte Ereignisse?
  3. Artefakte: Fallen Lippen-Sync, Hände/Finger, Schatten/Licht oder Ton unnatürlich auf?
  4. Rückwärtssuche: Keyframes/Screenshots bei Google Bilder und TinEye geprüft?
  5. Zweitquelle: Gibt es unabhängige Bestätigungen (z. B. Redaktionen/Faktenchecker)?
  6. Bias-Check: Triggert der Inhalt meine Erwartungen zu perfekt? (Stopp, durchatmen, prüfen.)
  7. Notwendigkeit: Muss ich das jetzt teilen – oder gewinne ich durch 60 Sekunden Prüfung Sicherheit?

Telefon/Voice-Cloning-Quickie: Codewort bekannt? Rückruf nur an gespeicherte Nummer; bei Geld/Daten immer Vier-Augen-Prinzip.


Verifizierungs-Workflow (Kurzfassung)

  1. Sichern: Link, 3–5 Keyframes, Notizen (Wer/wo/wann).
  2. Rückwärtssuche: Google Bilder, TinEye.
  3. Forensik: Foto-Forensik (Error Level, Kanten, Schärfe).
  4. Kontext: Ort/Datum/Anlass gegenprüfen; nach dem Original-Uploader suchen.
  5. Gegencheck: Redaktionen/Faktenchecker; ggf. Plugin InVID/WeVerify.
  6. Entscheiden: Kein Gegencheck → nicht teilen, melden, intern dokumentieren.

Nützliche Adressen & Tools (kuratiert)


Vorlage: Incident-Notiz (Copy & Paste)

Titel: Verdacht auf manipulierten Inhalt / Deepfake
Datum/Uhrzeit (UTC & lokal):
Link(s) + Archiv/Screenshots:
Erstquelle (falls bekannt):
Kurzbeschreibung (Was wird behauptet?):
Prüfschritte (Rückwärtssuche, Forensik, Kontext, Gegencheck):
Ergebnis (geteilt/nicht geteilt, gemeldet an):
Folgeschritte (intern/extern):
Bearbeiter: 

Weiterführend im Blog:

FAQ: Deepfakes & KI-Desinformation

Sind Deepfakes illegal?

Digitale Chat-Oberfläche mit typischen Fragen („Ist das legal?“, „Wie erkenne ich Fakes?“) als schwebende Textblasen.

Kommt auf Inhalt, Kontext und Einwilligung an. Strafbar können u. a. Beleidigung/Verleumdung, Betrug oder Verstöße gegen Persönlichkeitsrechte sein. Bei Verdacht: Beweise sichern, Plattform melden, rechtliche Schritte prüfen (keine Rechtsberatung). Nützliche Basics: BSI – IT-Sicherheit.

Wie erkenne ich gefälschte Stimmen am Telefon?

Nutze ein Safe Word im Familien-/Teamkreis. Bei Geld- oder Datenanfragen: Rückruf an die bekannte Nummer (nicht die im Chat/Caller-ID). Achte auf monotone Intonation, fehlende Atmer, unnatürlichen Hall. Mehr dazu im 7-Punkte-Schnell-Check.

Welche Apps/Plugins helfen beim Prüfen?

Für Bilder/Videos: Google Bilder, TinEye, InVID/WeVerify und Foto-Forensik. Für faktenbasierte Einordnung: ARD Faktenfinder und CORRECTIV.

Was tun, wenn ich selbst Opfer bin?

Nicht reagieren/teilen. Stattdessen: Screenshots/Links sichern, Zeiten notieren, auf der Plattform melden, Arbeitgeber/Schule informieren. Bei finanziellen Schäden: Bank kontaktieren, ggf. Strafanzeige. Leitfaden siehe Ressourcen & Checklisten.

Wie sicher sind Wasserzeichen & Content Credentials?

Hilfreich, aber kein Beweis. Wasserzeichen können verloren gehen; Content Credentials (z. B. C2PA / Content Credentials) stärken die Provenance, wirken aber nur, wenn die Kette erhalten bleibt. Weiterhin: Quelle → Kontext → Gegencheck.

Dürfen Medien Deepfakes zeigen?

Ja, teils zu Aufklärung/Berichterstattung – aber seriöse Redaktionen kennzeichnen und liefern Kontext. Als Nutzer:in teile nur, wenn du den Faktencheck nachvollziehen kannst.

Wie schütze ich meine Kinder?

Medienkompetenz üben: Gemeinsam Clips prüfen (Reverse Image, Kontextfragen), klare Meldewege in Schule/Familie, Safe Word für Telefon/Chat, Privatsphäre-Einstellungen härten. Gute Einstiege: ARD Faktenfinder · BSI.

Was tun bei politischen Fakes in Wahlzeiten?

Verlangsamen, prüfen, nicht amplifizieren. Nutze den Praxis-Workflow, suche Primärquellen und seriöse Faktenchecks; teile ggf. nur mit Einordnung. Mehr Hintergründe: KI-gestützte Recherche und KI & Datenschutz.

Abschluss & Call-to-Action

Person reicht einem anderen einen leuchtenden Datenwürfel – symbolisch für Wissen teilen.

Kurz gesagt: Deepfakes sind schnell, billig und psychologisch wirksam – aber prüfbar.

Die 3 wichtigsten Takeaways

  • Prüfroutine schlägt Bauchgefühl: Quelle → Kontext → Technik → Gegencheck – erst dann teilen.
  • Prozesse verhindern Schaden: Callback-Policy, Vier-Augen-Prinzip, klare Meldewege – privat wie im Job.
  • Tech ist Hilfsmittel, kein Beweis: Wasserzeichen & Content Credentials (z. B. C2PA) helfen, Medienkompetenz bleibt essenziell.

Nächste Schritte

Bitte teilen – aber verantwortlich: Wenn dir dieser Leitfaden hilft, gib ihn weiter. Erkläre beim Teilen warum die Prüfschritte wichtig sind – so verhinderst du unbeabsichtigte Verstärkung von Fakes.


Posted

in

,

by