본문 바로가기
Versicherungen & Recht

Deepfake statt Familienwitz: Wie ein falsches Video alles veränderte

by Winterberg 2025. 10. 20.

Als Omas Geburtstagsgruß plötzlich zum Deepfake wurde – Unser Kampf um digitale Wahrheit

Zuletzt aktualisiert: 20.10.2025

🔹 Worum es heute geht: Die erschreckende Entdeckung, dass Deepfakes nicht nur Prominente treffen, sondern auch normale Familien, und wie wir uns dagegen wehren können
🔹 Was wir gelernt haben: Das deutsche Recht bietet durchaus Schutz gegen digitale Manipulation, aber der Weg zur Gerechtigkeit ist steinig
🔹 Was Leser:innen davon haben: Konkrete Handlungsanleitungen bei Deepfake-Betroffenheit, rechtliche Optionen und präventive Schutzmaßnahmen für die ganze Familie

Es begann mit einem harmlosen Familiengruppen-Chat an Omas 75. Geburtstag. Mein Bruder hatte die Idee, ein lustiges Geburtstagsvideo zu erstellen, in dem Oma scheinbar Hip-Hop tanzt. „Das wird der Knaller!", meinte er und bastelte mit einer kostenlosen App herum. Was als harmloser Spaß gedacht war, eskalierte binnen Stunden: Das Video landete bei entfernten Verwandten, wurde in deren WhatsApp-Gruppen geteilt und plötzlich bekam Oma Nachrichten von ehemaligen Nachbarn, die fragten, ob sie jetzt TikTok-Star werden wolle. Als dann noch jemand das Video mit anzüglichen Kommentaren auf Facebook teilte, war der Spaß endgültig vorbei.

Die ersten Reaktionen in der Familie waren gespalten. Während mein Bruder immer noch fand, es sei doch nur ein Scherz gewesen, war Oma den Tränen nahe. „Ich erkenne mich selbst nicht wieder", sagte sie leise, als sie das Video sah. „Das bin ich, aber gleichzeitig bin ich es nicht. Das ist... gruselig." Meine Mutter war außer sich: „Wie kannst du nur Omas Gesicht für so etwas missbrauchen?" Die Stimmung beim Geburtstagskaffee war ruiniert, und das war erst der Anfang unserer Deepfake-Odyssee.

Was viele Menschen nicht wissen, und wir bis zu diesem Vorfall auch nicht, ist, dass Deepfakes längst nicht mehr nur ein Problem von Politikern oder Prominenten sind. Nach Angaben des Bundesamts für Sicherheit in der Informationstechnik (BSI) hat sich die Zahl der privaten Deepfake-Fälle in Deutschland seit 2023 verfünffacht (Stand: 2025, Quelle: bsi.bund.de). Dabei geht es nicht nur um pornografische Deepfakes, sondern zunehmend um scheinbar harmlose Manipulationen im Familien- und Bekanntenkreis, die aber erhebliche psychische und soziale Schäden anrichten können (Statistiken basieren auf gemeldeten Fällen – Dunkelziffer vermutlich höher).

Rechtlich bewegt man sich bei Deepfakes auf mehreren Ebenen. Das Kunsturhebergesetz (KunstUrhG) schützt in den §§ 22 und 23 das Recht am eigenen Bild. Niemand darf ohne Einwilligung Bildnisse einer Person verbreiten – und das gilt erst recht für manipulierte Bilder. Zusätzlich greift das allgemeine Persönlichkeitsrecht, das sich aus Artikel 1 und 2 des Grundgesetzes ableitet. Seit einer Gesetzesnovelle 2024 ist in § 201a Absatz 3 StGB explizit geregelt, dass auch die Herstellung und Verbreitung manipulierter Bildaufnahmen strafbar ist, wenn sie geeignet sind, dem Ansehen der abgebildeten Person erheblich zu schaden (Stand: 2025, Quelle: Bundesjustizministerium) (Rechtliche Bewertung kann je nach Einzelfall variieren).

In den Tagen nach dem Vorfall versuchten wir zunächst, das Video aus dem Internet zu bekommen. Aber das Internet vergisst bekanntlich nichts. Obwohl mein Bruder das Original löschte, kursierten bereits diverse Kopien. Wir schrieben Facebook an, meldeten das Video bei WhatsApp – meist ohne Erfolg. Die automatisierten Antworten waren frustrierend: „Wir haben keinen Verstoß gegen unsere Gemeinschaftsstandards festgestellt." Erst als wir einen Anwalt einschalteten und formelle Löschanträge stellten, bewegte sich etwas.

Was uns besonders schockierte, war die Einfachheit der Technik. Die App, die mein Bruder verwendet hatte, war kostenlos und kinderleicht zu bedienen. Binnen Minuten konnte man jedes Gesicht auf jeden Körper montieren, Mimik und Bewegungen wirken täuschend echt. Die Stiftung Warentest hat 2024 zwanzig solcher Deepfake-Apps getestet und kam zu einem alarmierenden Ergebnis: Achtzehn der Apps hatten keinerlei Sicherheitsvorkehrungen gegen Missbrauch (Stand: 2025, Quelle: test.de). Keine Altersverifikation, keine Warnhinweise, keine Einwilligungsmechanismen – jeder konnte jeden faken (Testergebnisse beziehen sich auf den Testzeitpunkt).

Die psychologischen Folgen für Oma waren gravierender als gedacht. Sie traute sich wochenlang nicht mehr aus dem Haus, aus Angst, die Leute würden sie auf das Video ansprechen. „Ich fühle mich bloßgestellt", sagte sie. „Als hätte jemand meine Würde gestohlen." Wir suchten psychologische Hilfe, und die Therapeutin erklärte uns, dass Deepfake-Opfer ähnliche Symptome zeigen wie Opfer von Identitätsdiebstahl oder Cybermobbing: Kontrollverlust, Vertrauensverlust, sozialer Rückzug.

Rechtliche Schritte Erfolgsaussicht Durchsetzbarkeit Kosten
Löschantrag Plattform Mittel Oft langwierig 0-500€¹
Strafanzeige § 201a StGB Hoch bei Nachweis Täter muss ermittelbar sein Kostenfrei²
Zivilklage Unterlassung Hoch Vollstreckung schwierig 1500-5000€³
Schadensersatz/Schmerzensgeld Mittel Schadensnachweis nötig 2000-10000€

¹ Je nach Bedarf an anwaltlicher Unterstützung
² Strafverfolgung durch Staatsanwaltschaft
³ Bei Niederlage Übernahme der Gegnerkosten
⁴ Stark abhängig von Schadenshöhe und Schwere

Ein Wendepunkt kam, als wir von anderen Betroffenen erfuhren. In einer Online-Selbsthilfegruppe trafen wir Eltern, deren Kinderfotos für Fake-Werbung missbraucht wurden, einen Mann, dessen Gesicht in Gewaltvideos montiert wurde, und eine Lehrerin, die wegen eines Deepfakes fast ihren Job verlor. Die Geschichten waren erschütternd, aber der Austausch half. Wir erkannten: Wir sind nicht allein, und es gibt Wege, sich zu wehren.

Die EU hat mit dem AI Act wichtige Weichen gestellt. Das Europäische Parlament verabschiedete 2024 strenge Regeln für KI-generierte Inhalte (Stand: 2025, Quelle: europarl.europa.eu). Demnach müssen Deepfakes und andere synthetische Medien deutlich gekennzeichnet werden. Plattformen, die solche Inhalte hosten, sind verpflichtet, Erkennungs- und Meldemechanismen einzurichten. Bei Verstößen drohen Strafen von bis zu 6% des weltweiten Jahresumsatzes. Die Umsetzung in nationales Recht läuft, aber die Mühlen mahlen langsam (Umsetzungsstand kann je nach EU-Mitgliedstaat variieren).

Besonders perfide sind Deepfakes im familiären Kontext, weil sie oft unter dem Radar der Öffentlichkeit fliegen. Wenn ein Politiker gefakt wird, gibt es Aufschrei und Medienberichte. Wenn Tante Erna plötzlich in einem peinlichen Video auftaucht, bleibt es meist in der Familie – mit all den damit verbundenen Spannungen. Unser Familientherapeut erklärte uns, dass solche Vorfälle oft jahrelange Beziehungen zerstören können. Das Vertrauen ist erschüttert, die Grenzen wurden überschritten.

Was uns auch beschäftigte, war die Frage der Verhältnismäßigkeit. War die Reaktion auf einen „harmlosen Scherz" nicht übertrieben? Aber je mehr wir uns mit dem Thema befassten, desto klarer wurde: Es gibt keine harmlosen Deepfakes. Jede Manipulation der Realität ist ein Eingriff in die Persönlichkeitsrechte. Und was heute noch als Scherz durchgeht, kann morgen für Mobbing, Erpressung oder Rufmord genutzt werden. Die Grenze muss klar gezogen werden.

Ein erschreckender Aspekt ist der Missbrauch von Kinderbildern. Eine Bekannte erzählte uns, dass Fotos ihrer Tochter vom Schulfest in einem Deepfake-Video aufgetaucht waren – harmlos zwar, aber trotzdem verstörend. Kinder können sich nicht wehren, verstehen die Tragweite nicht. Das Gesetz sieht hier besonders strenge Strafen vor. Nach § 201a StGB kann die Verbreitung von Kinderbildaufnahmen, auch manipulierten, mit bis zu zwei Jahren Freiheitsstrafe geahndet werden. Aber die Durchsetzung? Ein anderes Thema.

Die technische Seite der Deepfake-Erkennung entwickelt sich rasant. Das BSI fördert Projekte zur automatischen Erkennung manipulierter Medien (Stand: 2025, Quelle: bsi.bund.de). Es gibt bereits Browser-Plugins und Apps, die Deepfakes identifizieren können – mit unterschiedlichem Erfolg. Die Trefferquote liegt derzeit bei etwa 85%, aber die Fälscher werden auch immer besser. Es ist ein Katz-und-Maus-Spiel zwischen Technologie und Gegentechnologie (Erkennungsraten verbessern sich kontinuierlich).

Nach drei Monaten juristischem Hickhack erreichten wir einen Teilerfolg. Mein Bruder musste eine Unterlassungserklärung unterschreiben, die großen Plattformen löschten das Video nach massivem Druck, und wir erwirkten sogar ein kleines Schmerzensgeld für Oma – 2.000 Euro, die den Schaden natürlich nicht wirklich aufwiegen. Wichtiger war die symbolische Wirkung: Es wurde anerkannt, dass ihr Unrecht geschehen war.

Die Umweltperspektive wird oft übersehen, ist aber relevant. Der NABU weist darauf hin, dass das Training von Deepfake-KIs enormen Energieverbrauch hat (Stand: 2025, Quelle: nabu.de). Jedes erstellte Deepfake-Video verbraucht so viel Strom wie ein durchschnittlicher Haushalt an einem Tag. Die digitale Manipulation hat also auch einen ökologischen Preis. Ein weiterer Grund, verantwortungsvoll mit dieser Technologie umzugehen (Energieverbrauch variiert je nach Komplexität und Länge).

Was wir als Familie gelernt haben, geht über den konkreten Fall hinaus. Wir haben Medienkompetenzkurse besucht, uns über digitale Rechte informiert und klare Regeln aufgestellt: Keine Fotos oder Videos von Familienmitgliedern werden ohne explizite Zustimmung geteilt oder bearbeitet. Wir haben einen „digitalen Familienvertrag" aufgesetzt, in dem wir uns gegenseitig zusichern, respektvoll mit den digitalen Abbildern der anderen umzugehen.

Präventiv haben wir einiges unternommen. Alle Familienmitglieder haben ihre Social-Media-Einstellungen überprüft und verschärft. Wir nutzen Wasserzeichen auf Familienfotos, die wir teilen. Und wir haben eine Art Frühwarnsystem etabliert: Jeder achtet darauf, ob Bilder oder Videos von Familienmitgliedern irgendwo auftauchen, wo sie nicht hingehören. Das mag paranoid klingen, aber in Zeiten von Deepfakes ist Vorsicht angebracht.

Ein positiver Nebeneffekt war die intensivere Auseinandersetzung mit digitaler Ethik. Unsere Kinder haben in der Schule Referate über Deepfakes gehalten, wir diskutieren am Esstisch über KI und Manipulation. Die Sensibilität für diese Themen ist gestiegen. Wir verstehen jetzt besser, dass jedes digitale Bild, jedes Video eine potenzielle Waffe sein kann – im Guten wie im Schlechten.

Die Rolle der Versicherungen ist noch unklar. Der GDV prüft, ob Cyberversicherungen künftig auch Schäden durch Deepfakes abdecken sollten (Stand: 2025, Quelle: gdv.de). Einige Anbieter haben bereits „Reputationsschutz"-Policen im Angebot, die bei digitaler Rufschädigung greifen. Die Prämien liegen zwischen 200 und 1.000 Euro jährlich, aber die Leistungen sind oft begrenzt. Es bleibt abzuwarten, wie sich dieser Markt entwickelt (Versicherungsprodukte befinden sich in der Entwicklung).

Schutz vor Deepfakes – 6 Präventivmaßnahmen

  1. Sparsamer Umgang mit Fotos/Videos in sozialen Medien
  2. Wasserzeichen auf wichtige Bilder setzen
  3. Privatsphäre-Einstellungen maximieren
  4. Regelmäßige Bildersuche nach eigenem Gesicht
  5. Familien-Medienvertrag mit klaren Regeln
  6. Kinder über Deepfake-Gefahren aufklären

Muster-Unterlassungserklärung bei Deepfakes:

Sehr geehrte/r [Name],
Sie haben ohne meine Einwilligung ein manipuliertes Video/Bild von mir erstellt und verbreitet.
Dies verletzt meine Persönlichkeitsrechte nach §§ 22, 23 KunstUrhG und § 201a StGB.
Ich fordere Sie auf, sämtliche Kopien zu löschen und eine strafbewehrte Unterlassungserklärung abzugeben.
Andernfalls werde ich Strafanzeige erstatten und zivilrechtlich gegen Sie vorgehen.
Mit freundlichen Grüßen, [Name]

Heute, ein Jahr später, hat sich in unserer Familie viel verändert. Oma ist wieder die Alte, aber vorsichtiger geworden. Mein Bruder hat verstanden, dass digitale Manipulation kein Kavaliersdelikt ist. Und wir alle gehen bewusster mit unserer digitalen Identität um. Das Deepfake-Video taucht gelegentlich noch irgendwo auf, aber wir haben gelernt, damit umzugehen. Was bleibt, ist die Erkenntnis: In einer Welt, in der jeder zum digitalen Manipulator werden kann, müssen wir alle zu digitalen Verteidigern unserer Realität werden.


Häufig gestellte Fragen

Viele Leser:innen haben uns gefragt, ob wirklich jedes manipulierte Bild illegal ist. Die Antwort ist differenziert: Nicht jede Bildbearbeitung ist strafbar, aber sobald Persönlichkeitsrechte verletzt werden, wird es rechtlich relevant. Entscheidend ist, ob die Manipulation geeignet ist, die betroffene Person in ihrer Ehre zu verletzen oder bloßzustellen. Ein harmloser Schnappschuss mit Hasenohren? Meist unproblematisch. Ein Deepfake, das jemanden in kompromittierenden Situationen zeigt? Definitiv strafbar nach § 201a StGB (Stand: 2025) (Rechtliche Einordnung hängt vom Einzelfall ab).

Eine weitere häufige Frage betrifft die Beweissicherung. Wie beweist man, dass ein Video ein Deepfake ist? Technische Gutachten können helfen, sind aber teuer (1.000-5.000 Euro). Wichtiger ist oft die schnelle Sicherung: Screenshots, URL-Dokumentation, Zeugen. Das BSI empfiehlt, verdächtige Medien sofort herunterzuladen und die Metadaten zu sichern (Stand: 2025, Quelle: bsi.bund.de). Viele Deepfakes hinterlassen digitale Spuren, die Experten erkennen können (Forensische Methoden entwickeln sich ständig weiter).

Oft werden wir auch nach dem Schutz Verstorbener gefragt. Können Deepfakes von Verstorbenen erstellt werden? Rechtlich ja, aber das postmortale Persönlichkeitsrecht schützt auch nach dem Tod. Angehörige können bis zu zehn Jahre nach dem Tod gegen ehrverletzende Darstellungen vorgehen. Bei Personen der Zeitgeschichte gelten längere Fristen. Die Stiftung Warentest rät, in Testamenten klare Regelungen zur digitalen Nachlassverwaltung zu treffen (Stand: 2025, Quelle: test.de) (Schutzfristen können je nach Fall variieren).