• FragRoger
  • Posts
  • Sora 2: Wenn tote Stars plötzlich wieder sprechen - und niemand weiss, wer die Rechte hat

Sora 2: Wenn tote Stars plötzlich wieder sprechen - und niemand weiss, wer die Rechte hat

OpenAIs Video-KI Sora 2 lässt verstorbene Prominente wie Robin Williams und Martin Luther King Jr. digital wiederauferstehen und das sehr zur Empörung ihrer Familien.

TLDR: OpenAIs Video-KI Sora 2 hat im Oktober 2025 einen Skandal ausgelöst: Verstorbene Stars wie Robin Williams und Martin Luther King Jr. wurden ohne Erlaubnis digital wiederbelebt. Die Töchter der Verstorbenen nannten die KI-Videos "widerlich". Das Problem: Global gibt es keine einheitlichen Regeln. Die USA schützen kommerzielle Rechte (nur in 23 von 50 Staaten), Europa setzt auf Würde und Transparenz (EU AI Act: bis 15 Mio. € Strafe), Dänemark will Gesichter ins Urheberrecht packen, die Schweiz überlässt den Schutz den Angehörigen. Für Unternehmen bedeutet das: Digitale Identität wird zum Risikofaktor - wer jetzt keine Schutzstrategie, interne KI-Richtlinien und sensibilisierte Mitarbeiter:innen hat, riskiert Reputationsschäden und Kontrollverlust.

Der Skandal: Robin Williams tanzt wieder – nur ist er seit 2014 tot

Ende September 2025 kommt Sora 2 auf den Markt. OpenAIs neuestes Spielzeug kann hyperrealistische Videos mit perfekt synchronisiertem Audio erstellen. Was die Entwickler:innen als technologischen Durchbruch feiern, wird innerhalb weniger Tage zum PR-Albtraum.

Nutzer:innen beginnen sofort, Videos mit verstorbenen Stars zu produzieren: Michael Jackson, Stephen Hawking, Bob Ross – und Robin Williams. Letzteres bringt das Fass zum Überlaufen. Seine Tochter Zelda Williams geht an die Öffentlichkeit und nennt die KI-generierten Videos ihres verstorbenen Vaters "widerlich". Ihr Vorwurf: Das Vermächtnis echter Menschen wird auf "sieht und klingt vage wie sie" reduziert – nur damit andere "schrecklichen TikTok-Slop" produzieren können.

Auch Bernice King, Tochter von Martin Luther King Jr., meldet sich kritisch zu Wort. Ihr Vater, 1968 ermordet, taucht plötzlich in Videos auf, die er nie autorisiert hat und nie autorisieren konnte.

OpenAI rudert nach dem Shitstorm zurück. Während lebende Prominente bereits geblockt waren, konnten Verstorbene zunächst frei verwendet werden. Nach der Kritik verspricht das Unternehmen: Familien und Nachlässe können jetzt beantragen, dass das Abbild nicht mehr genutzt wird. Die Krux dabei: Was "kürzlich verstorben" bedeutet, bleibt unklar. Robin Williams starb 2014, Martin Luther King Jr. bereits 1968. Wo zieht man die Grenze?

🇺🇸 USA: 50 Bundesstaaten, 50 verschiedene Regeln

In den USA gibt es keinen bundeseinheitlichen Schutz für postmortale Persönlichkeitsrechte. Nur 23 von 50 Bundesstaaten erkennen überhaupt ein "post-mortem right of publicity" an – das Recht, nach dem Tod über die kommerzielle Nutzung des eigenen Abbilds zu bestimmen. Die Schutzdauer? Irgendwo zwischen 10 und 100 Jahren. Einheitlich ist hier gar nichts.

New York prescht 2020 vor und nimmt als erster Bundesstaat "Digital Replicas" explizit ins Gesetz auf. Verstorbene Performer und Persönlichkeiten werden für 40 Jahre geschützt – aber nur bei kommerzieller Nutzung. Das grosse Aber: Wenn ein Werk einen Disclaimer enthält, dass die digitale Nachbildung nicht autorisiert ist, gilt die Nutzung als nicht täuschend und ist somit legal. Eine Hintertür, gross wie ein Scheunentor.

Kalifornien, wo Hollywood zuhause ist, wendet sein Gesetz sogar auf Personen an, die vor Inkrafttreten des Gesetzes gestorben sind. Nach Common Law endet das Recht auf Privatsphäre mit dem Tod. Die Familie kann nicht im Namen eines Verstorbenen wegen Verletzung der Privatsphäre klagen, da es sich um ein rein persönliches Recht handelt.

Der amerikanische Ansatz ist klar: Es geht um kommerzielle Verwertbarkeit, um ein "property right", das verkauft, vererbt und gehandelt werden kann wie eine Aktie.

-WERBUNG-

Mehr KI Kompetenz? Inkl. Kompetenznachweis? Dazu haben wir das KI-Update entwickelt, immer jeden Montag Abend für Members und völlig kostenlos jeden 2ten Montagabend zum reinschnuppern. Mehr Infos gibts auf:

 🇪🇺 Europa: Würde statt Ware

Europa tickt komplett anders. Hier gibt es kein dem amerikanischen "right of publicity" vergleichbares Konzept. Stattdessen werden unveräusserliche Persönlichkeitsrechte verwendet, die Ehre, Intimität und Würde einer Person schützen. Die Message: Ein Mensch ist keine Ware.

Deutschland hat ein stark ausgeprägtes postmortales Persönlichkeitsrecht. Während das Grundrecht auf informationelle Selbstbestimmung mit dem Tod endet, können einfachgesetzliche Bestimmungen den Persönlichkeitsschutz über den Tod hinaus wirken lassen. Das Urheberrechtsgesetz schützt beispielsweise das Urheberpersönlichkeitsrecht auch nach dem Tod.

Auf EU-Ebene bieten weder die DSGVO noch die EU-Grundrechtecharta Schutz für Verstorbene. Die DSGVO endet schlicht mit dem Tod einer Person. Der Schutz muss über nationale Regelungen erfolgen.

Der EU AI Act, der seit August 2024 schrittweise in Kraft tritt, setzt auf Transparenz statt Verbote. Art. 50 verpflichtet Anbieter:innen generativer Systeme und Deepfakes zur klaren Kennzeichnung, maschinenlesbaren Markierung und technischen Erkennbarkeit – etwa durch Wasserzeichen, Metadaten oder C2PA-Signaturen. Verstösse können richtig teuer werden: bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Umsatzes.

Die Realität zeigt aber Grenzen: Wasserzeichen lassen sich umgehen, Erkennungssysteme sind nicht perfekt. Die EU setzt auf eine Kombination aus verschiedenen Technologien, um Authentizität zu gewährleisten.

🇩🇰 Dänemark: Das Gesicht gehört mir - per Copyright

Dänemark geht einen radikal neuen Weg. Das Land will über das Urheberrecht jedem das Recht auf das eigene "Abbild, Stimme und Körper" geben – explizit gegen Deepfakes. Vorgesehen sind Entfernungspflichten, Schadenersatz auch ohne Nachweis eines Reputationsschadens und Haftung der Plattformen.

Die Einführung wird ab Winter 2025 angestrebt. Dänemark nutzt seine Rolle im EU-Rat, um eine EU-weite Debatte anzustossen und hofft, dass andere Mitgliedstaaten nachziehen.

Die Fachdebatte ist hitzig. Rechtsexpert:innen warnen vor "Copywrong": Identität sei kein originäres Werk, und Urheberrecht sei übertragbar – man könnte sein Gesicht also theoretisch verkaufen –, während Persönlichkeitsrechte unveräusserlich sind. Die Gefahr: Eine Kommerzialisierung des Körpers, die dem europäischen Verständnis widerspricht.

Befürworter:innen kontern: IP-Takedowns funktionieren bei grenzüberschreitenden Plattformen besser als vage Persönlichkeitsrechts-Ansprüche. Wer sein Gesicht wie ein Patent schützen kann, hat stärkere Hebel gegen Tech-Giganten.

🇨🇭 Schweiz: Kein Recht für Tote, aber für trauernde Angehörige

Die Schweiz hat kein eigenständiges postmortales Persönlichkeitsrecht. Stattdessen gilt der Andenkensschutz nach Art. 28 ZGB. Nahe Angehörige können sich auf ihr eigenes Persönlichkeitsrecht stützen, um das Andenken an Verstorbene zu wahren.

Das Schweizer Bundesgericht hat anerkannt: Witwen und Kinder können klagen, wenn Veröffentlichungen über den Verstorbenen ihr Andenken stören und somit ihr eigenes Persönlichkeitsrecht verletzen. Das greift besonders bei herabwürdigenden Deepfakes und skandalisierenden Darstellungen.

Die Konsequenz: Der Nachlass allein kann nicht wie in den USA kommerziell Exklusivrechte durchsetzen. Angehörige haben aber Abwehr- und Unterlassungsansprüche, teils auch Genugtuung, wenn ihr Andenken verletzt wird.

Hollywood schlägt zurück

Die Unterhaltungsindustrie ist alarmiert. Hollywood-Studios und Talentagenturen wie CAA sprechen von "erheblichen Risiken" für ihre Klient:innen. Die Motion Picture Association fordert OpenAI auf, Urheberrechtsverletzungen zu stoppen.

Die Kontroverse macht fundamentale Unterschiede deutlich: In den USA geht es um kommerzielle Verwertbarkeit, in Europa um Würde und Schutz der Person. Diese divergierenden Ansätze machen internationale Durchsetzung komplex und erhöhen die Compliance-Last für Unternehmen.

Was Unternehmen und Führungskräfte jetzt tun müssen

Die Sora-Kontroverse zeigt deutlich: Das Reputationsrisiko durch Deepfakes ist längst keine Science-Fiction mehr, sondern Chefsache. Unternehmen brauchen nicht nur technische Lösungen, sondern auch klare Richtlinien und sensibilisierte Mitarbeiter:innen. Die digitale Identität wird zum strategischen Asset – für die Firma, für Führungskräfte und für jede:n einzelne:n Mitarbeiter:in.

1. Identitäts-Baseline aufbauen – für die Organisation und ihre Menschen

Für das Unternehmen: Baut eine gesicherte Bild- und Stimm-Datenbank auf – mit Referenzporträts, offiziellen Aufnahmen und dokumentierten "Signature"-Momenten eurer Führungskräfte und Sprecher:innen. Diese Baseline dient als Beweismittel, wenn Deepfakes auftauchen.

Definiert klar, welche Kanäle offiziell sind: Welche Social-Media-Profile gehören wirklich zum Unternehmen? Welche E-Mail-Adressen sind legitim? Kommuniziert das öffentlich und regelmässig. Ein Deepfake-Video wirkt weniger glaubwürdig, wenn alle wissen: "Offizielle Statements kommen nur über Kanal X, Y und Z."

Für Mitarbeiter:innen: Sensibilisiert eure Belegschaft dafür, dass auch sie Ziel von Deepfakes werden können – besonders in Finanzabteilungen, im HR-Bereich oder im Management. Ein gefälschtes Video der CFO, das eine Zahlung anordnet, oder ein Fake-Audio-Anruf vom CEO können erheblichen Schaden anrichten.

Für Angehörige: Denkt auch an die Familien eurer Führungskräfte. Die Sora-Kontroverse zeigt: Angehörige sind oft die ersten, die mit verstörenden Deepfakes konfrontiert werden. Informiert sie über Risiken und gebt ihnen Tools an die Hand, um Fakes zu erkennen und zu melden. Ein Awareness-Workshop für Führungskräfte sollte auch deren Partner:innen und erwachsene Kinder einschliessen.

2. Interne KI-Richtlinien entwickeln und kommunizieren

Unternehmen brauchen klare, verständliche Regeln zum Umgang mit KI – intern wie extern.

Erstellt eine "KI-Nutzungsrichtlinie", die regelt:

  • Wann und wie dürfen Mitarbeiter:innen generative KI-Tools nutzen?

  • Welche Daten dürfen in öffentliche KI-Systeme eingegeben werden – und welche nicht?

  • Wie gehen wir mit KI-generierten Inhalten um (Kennzeichnungspflicht)?

  • Was tun, wenn jemand einen Deepfake entdeckt?

Schult eure Teams regelmässig:

  • Wie erkenne ich einen Deepfake? (Unnatürliche Bewegungen, inkonsistente Beleuchtung, seltsame Audio-Artefakte)

  • Was mache ich, wenn ich eine verdächtige E-Mail, einen Anruf oder ein Video erhalte?

  • An wen melde ich Vorfälle?

Implementiert Verifizierungsprozesse: Bei sensiblen Anfragen – etwa Zahlungsanweisungen oder Passwort-Resets – reicht eine E-Mail oder ein Anruf nicht mehr. Führt Mehrfaktor-Verifikation ein: Rückruf über eine bekannte, verifizierte Nummer. Video-Call über einen offiziellen Kanal. Ein zweites Paar Augen bei kritischen Entscheidungen.

3. Vertragsklauseln updaten – jetzt

Aktualisiert alle Verträge mit externen Partner:innen, Agenturen, Fotograf:innen, Videoproduktionsfirmen und Sprecher:innen.

Integriert klare Verbote für:

  • KI-Training mit eurem Material

  • Erstellung von Klon-Stimmen oder digitalen Doubles

  • Re-Enactment oder Deepfake-Nutzung ohne explizite Genehmigung

Ergänzt "no-AI use"-Klauseln und Audit-Rechte: Ihr müsst das Recht haben zu prüfen, wie eure Daten verwendet werden. Und ihr braucht Vertragsstrafen für Verstösse, die abschrecken.

4. Takedown-Prozesse standardisieren – nach Jurisdiktion

Bereitet euch darauf vor, schnell auf Deepfakes zu reagieren. Je nach Rechtsraum habt ihr unterschiedliche Hebel:

🇪🇺 EU: Nutzt Persönlichkeitsrecht, Irreführungsvorschriften und DSA-Meldewege. Der EU AI Act gibt euch Rückendeckung bei fehlender Kennzeichnung (bis zu 15 Mio. € Strafe für Plattformen).

🇨🇭 Schweiz: Art. 28 ZGB schützt bei Lebenden die Persönlichkeit direkt. Bei Verstorbenen greift der Andenkensschutz für Angehörige – besonders wirksam gegen ehrverletzende Deepfakes.

🇩🇰 Dänemark: Sobald das neue Gesetz in Kraft tritt, könnt ihr IP-basierte Takedowns nutzen mit pauschaleren Schadensersatzoptionen und strikter Plattformhaftung.

Erstellt standardisierte Takedown-Vorlagen für jede Jurisdiktion mit den entsprechenden Rechtsgrundlagen. Jede Minute zählt, wenn ein Fake viral geht.

5. Content-Provenance etablieren – Echtheit nachweisbar machen

Macht Authentizität zu eurem Standard. Alle offiziellen Inhalte sollten technisch nachweisbar echt sein.

Nutzt C2PA-Signaturen für Bilder und Videos. Diese kryptografischen Signaturen zeigen, wann, wo und von wem ein Inhalt erstellt wurde.

Implementiert robuste Wasserzeichen und signierte Metadaten. Interne Policy: "Only signed media is official."

Das mag aufwändig klingen, aber es ist die beste Versicherung gegen Deepfakes. Wenn ihr nachweisen könnt, dass ein Video gefälscht ist, weil es keine Signatur trägt, habt ihr die Oberhand.

6. Monitoring aufsetzen – früh erkennen, schnell reagieren

Wartet nicht, bis ein Deepfake viral geht. Richtet kontinuierliches Monitoring ein.

Überwacht systematisch:

  • Euren Firmennamen, Markennamen, Namen von Führungskräften

  • Gesichter und Stimmen von Sprecher:innen und Top-Management

  • Verdächtige Domains, die eure Marke imitieren

Nutzt KI-gestützte Tools:

  • Gesichts- und Stimmerkennung

  • Bild-Rückwärtssuche

  • Externe Deepfake-Detektoren mit Reporting-API

Setzt "Trusted Flagger"-Workflows mit Plattformen auf. Unter dem Digital Services Act der EU haben vertrauenswürdige Organisationen beschleunigte Melderechte.

7. Krisenplan entwickeln – der Ernstfall kommt

Bereitet eure Kommunikations- und IR-Teams auf Deepfake-Incidents vor. Übt Szenarien:

  • Fake-Earnings-Call: Jemand verbreitet ein Video, in dem eure CFO falsche Quartalszahlen verkündet.

  • Fake-Politikaussage: Euer CEO nimmt angeblich Stellung zu einem kontroversen Thema.

  • Fake-Krisenstatement: Ein Video zeigt eure Sprecherin, die eine erfundene Krise kommentiert.

Euer Krisenplan sollte enthalten:

  • Verantwortlichkeiten (Wer koordiniert? Wer spricht?)

  • Kommunikationswege (Wie informiert ihr intern und extern?)

  • Statement-Templates (Schnelle Klarstellung: "Dieses Video ist ein Deepfake. Offizielle Statements gibt es nur über...")

  • Eskalationspfade (Wann schaltet ihr Rechtsbeistand ein? Wann die Polizei?)

Macht Tabletop-Übungen – mindestens einmal jährlich. Ein Deepfake-Incident ist keine Frage des "Ob", sondern des "Wann".

8. Sensibilisiert Belegschaft und Angehörige – alle sind betroffen

Die beste Technologie nützt nichts, wenn Menschen nicht wissen, worauf sie achten müssen.

Führt regelmässige Awareness-Trainings durch:

  • Was sind Deepfakes und wie funktionieren sie?

  • Wie erkenne ich sie? (Praktische Beispiele zeigen)

  • Was sind die Risiken für mich persönlich, für meine Familie, für das Unternehmen?

  • Wie reagiere ich im Verdachtsfall?

Bindet Angehörige ein: Organisiert spezielle Sessions für Partner:innen und Familien von Führungskräften. Sie sollten wissen:

  • Dass sie oder Bilder ihrer Liebsten missbraucht werden könnten

  • Wie sie verdächtige Inhalte erkennen

  • An wen sie sich wenden können (interne Hotline)

Schafft eine Meldekultur ohne Schuldzuweisung: Niemand sollte Angst haben, einen möglichen Deepfake zu melden – auch wenn es falscher Alarm ist. Lieber zehn Fehlalarme als ein unentdeckter Fake, der Schaden anrichtet.

Die digitale Identität als strategisches Asset

Wer jetzt nicht handelt, riskiert morgen den Kontrollverlust. Die Sora-Kontroverse ist erst der Anfang. Generative KI wird besser, schneller und zugänglicher. Deepfakes werden schwieriger zu erkennen sein.

Unternehmen, die ihre digitale Identität schützen, ihre Mitarbeiter:innen sensibilisieren und klare Prozesse etablieren, haben einen entscheidenden Vorteil: Sie können schnell reagieren, Schaden begrenzen und Vertrauen bewahren.

Die Investition in Identitätsschutz zahlt sich mehrfach aus – in Reputationsschutz, in Krisenresilienz und in der Fähigkeit, auch in einer Welt voller Deepfakes glaubwürdig zu bleiben.

Und darum bin ich nach wie vor überzeugt: Die Zukunft gehört nicht mehr dem blinden Vertrauen in KI-generierte Inhalte, sondern dem kritischen, gemAInsamen Arbeiten mit intelligenten Systemen – bei gleichzeitiger Kontrolle darüber, was mit unserer digitalen Identität geschieht.

Wir stehen am Beginn einer Ära, in der die Grenzen zwischen Mensch und Maschine nicht verschwimmen dürfen, sondern klar gezogen werden müssen. Einer Ära, in der wir nicht nur mit KI sprechen, sondern auch dafür sorgen, dass KI nicht für uns spricht – ohne unsere Erlaubnis, ohne unsere Kontrolle, und schon gar nicht nach unserem Tod.

Die natürlichste Form der menschlichen Interaktion bleibt das Gespräch – aber nur, wenn wir sicherstellen können, dass am anderen Ende wirklich ein Mensch sitzt, und kein digitales Double.

Also wenn Du reden willst, und wenn Du mit mir zusammenarbeiten willst: melde Dich gerne www.rogerbasler.ch

Disclaimer: Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Grok.com sowie Gemini.Google.com) manuell zusammengestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von Ideogram.Ai und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.

Quellen und weitere Informationen:

CBC News. (2025). Gen AI videos of Robin Williams spark debate over digital likenesses. https://www.cbc.ca/news/entertainment/gen-ai-zelda-robin-williams-1.7653514

Calysta. (2025). Is extra protection needed against deepfakes via AI? Denmark's bold move and the EU's path. https://calysta.eu/is-extra-protection-needed-against-deepfakes-via-ai-denmarks-bold-move-and-the-eus-path/

CC Digital Law. (2025). Andenkenschutz: Persönlichkeitsschutz bei gemeinfreien Werken. https://www.ccdigitallaw.ch/andenkenschutz-persoenlichkeitsschutz-bei-gemeinfreien-werken/?lang=de

CNBC. (2025). OpenAI's Sora 2 must stop allowing copyright infringement, MPA says. https://www.cnbc.com/2025/10/07/openais-sora-2-must-stop-allowing-copyright-infringement-mpa-says.html

Constitutional Discourse. (2025). Afterlife deepfakes, postmortem right to publicity and the right to respect for the deceased. https://constitutionaldiscourse.com/gellert-magony-afterlife-deepfakes-postmortem-right-to-publicity-and-the-right-to-respect-for-the-deceased/

Deadline. (2025). Sora 2 Hollywood AI Sam Altman. https://deadline.com/2025/10/sora-2-hollywood-ai-sam-altman-1236572662/

European Commission. (2025). Guidelines and code of practice: Transparent AI systems. https://digital-strategy.ec.europa.eu/en/faqs/guidelines-and-code-practice-transparent-ai-systems

European Parliament. (2023). Deepfakes: Detection, prevention and challenges. https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/757583/EPRS_BRI2023757583_EN.pdf

Freshfields. (2025). EU AI Act unpacked: 8 new rules on deepfakes. https://technologyquotient.freshfields.com/post/102jb19/eu-ai-act-unpacked-8-new-rules-on-deepfakes

Futurism. (2025). Robin Williams daughter disgusted by AI slop. https://futurism.com/future-society/robin-williams-daughter-disgusted-ai-slop

GDPR Local. (2025). AI transparency requirements. https://gdprlocal.com/ai-transparency-requirements/

Global Law Experts. (2025). Can I use the image of a dead celebrity in the US? https://globallawexperts.com/can-i-use-the-image-of-a-dead-celebrity-in-the-us/

Imatag. (2025). EU AI Act update: New watermarking requirements for AI-generated content. https://www.imatag.com/blog/eu-ai-act-update-new-watermarking-requirements-for-ai-generated-content

IP Kitten. (2023). Guest post: Deepfake it till you make it. https://ipkitten.blogspot.com/2023/09/guest-post-deepfake-it-till-you-make-it.html

OpenAI. (2025a). Sora 2. https://openai.com/index/sora-2/

Reality Defender. (2025). The state of deepfake regulations in 2025: What businesses need to know. https://www.realitydefender.com/insights/the-state-of-deepfake-regulations-in-2025-what-businesses-need-to-know

Science Direct. (2023). Post-mortem privacy and data protection law. https://www.sciencedirect.com/science/article/pii/S0267364922000802

TechPolicy Press. (2025). Denmark leads EU push to copyright faces in fight against deepfakes. https://techpolicy.press/denmark-leads-eu-push-to-copyright-faces-in-fight-against-deepfakes

THIP Law. (2025). Copywrong: Denmark's deepfake strategy for protecting identity. https://thip.law/insights/copywrong-denmarks-deepfake-strategy-for-protecting-identity/

Variety. (2025). CAA OpenAI Sora 2 harmful intellectual property. https://variety.com/2025/film/news/caa-openai-sora-2-harmful-intellectual-property-1236543954/

Wikipedia. (2025a). Andenkensschutz. https://de.wikipedia.org/wiki/Andenkensschutz

Reply

or to participate.