KI und die falsche Erinnerung

Wenn digitale Werkzeuge unsere Geschichte neu schreiben

In partnership with

TLDR: Künstliche Intelligenz revolutioniert, wie wir Geschichte bewahren und vermitteln - doch sie birgt auch enorme Risiken. KI-generierte Bilder von Henry Ford, gefälschte Holocaust-Fotos und manipulierte Politikeraufnahmen zeigen: Die Grenze zwischen authentischer Erinnerung und digitaler Fiktion verschwimmt rasant. Während KI-Chatbots Zeitzeug:innen zum Leben erwecken und Gedenkstätten barrierefrei zugänglich machen, können dieselben Technologien falsche Erinnerungen erzeugen und historische Fakten verfälschen. Die zentrale Frage lautet nicht, ob wir KI nutzen - sondern wie wir sie verantwortungsvoll einsetzen, ohne dabei die Integrität unserer kollektiven Erinnerung zu gefährden.

Wenn Geschichte lebendig wird – oder nur so tut

Stell dir vor, du sitzt im Geschichtsunterricht und plötzlich antwortet Anne Frank auf deine Fragen. Nicht als Schauspielerin, nicht als Textpassage aus ihrem Tagebuch – sondern als interaktiver KI-Chatbot, der auf deine persönlichen Fragen eingeht. Genau solche Projekte entstehen gerade weltweit: Von den Arolsen Archives bis zur USC Shoah Foundation nutzen Gedenkstätten KI, um Zeitzeug:innen digital zu verewigen (Bundeszentrale für politische Bildung, 2024).

Diese Entwicklung klingt faszinierend – und ist es auch. Doch sie wirft fundamentale Fragen auf: Können digitale Avatare wirklich das transportieren, was echte Erinnerungen ausmacht? Oder erschaffen wir gerade eine Parallelwelt, in der Geschichte beliebig formbar wird?

Die verführerische Kraft der Technologie

Die Möglichkeiten sind beeindruckend: KI macht Geschichte zugänglich wie nie zuvor. Björn Kernspeckt, Professor für Methoden und Techniken der Werbung an der Hochschule Wismar, beschreibt, wie generative KI-Tools es selbst Laien ermöglichen, komplexe historische Themen visuell aufzubereiten (Kernspeckt, 2024). Augmented Reality lässt historische Stätten in unserem Wohnzimmer entstehen. Social-Media-Kampagnen erreichen Millionen junger Menschen, die traditionelle Gedenkstätten vielleicht nie betreten hätten.

Die Krux: Dieselbe Technologie, die Wissen demokratisiert, kann es auch manipulieren.

Roger Basler de Roca

Wenn Fotos lügen: Die dunkle Seite der digitalen Erinnerung

Ein scheinbar harmloses Schwarz-Weiss-Foto macht 2024 auf Social Media die Runde: Henry Ford, stolz in seinem ersten Auto sitzend, das "Quadricycle" von 1896. Tausende teilen das Bild, Geschichtslehrer:innen nutzen es im Unterricht. Nur: Das Bild ist komplett gefälscht. Eine KI hat es generiert – mit einem entscheidenden Fehler: Das Original-Fahrzeug hatte gar kein Lenkrad, sondern wurde mit einer Lenkstange gesteuert (Watson, 2024).

Die gefährliche Perfektion digitaler Fälschungen

Solche Beispiele häufen sich alarmierend:

Die Wright-Brüder, die es nie gab: Ein KI-generiertes Foto zeigt zwei lächelnde, blonde Männer vor dem ersten Motorflugzeug. Das Internet feiert es als authentische Aufnahme der Gebrüder Wright von 1903. Doch das Originalbild zeigt etwas völlig anderes – die Brüder trugen Schiebermützen und hatten eine ganz andere Körperhaltung. Die KI-Version? Pure Fiktion (Nau, 2024).

Trump und Putin beim Weintrinken: Nach einem angeblichen diplomatischen Treffen kursiert ein Foto der beiden Staatschefs beim gemeinsamen Weintrinken. Die Message: Seht her, wie vertraut sie sind. Doch bei genauerem Hinsehen entdecken Faktenchecker:innen den Fehler: Putin hält ein Glas mit zwei Stielen. Eine physische Unmöglichkeit – und der Beweis für KI-Manipulation (Watson, 2024).

"All Eyes on Rafah" – die emotionale Lüge: Millionen Menschen teilen auf Instagram ein erschütterndes Bild aus Rafah – Zelte im Schnee, verzweifelte Menschen. Die Empörung ist riesig. Nur: In Rafah schneit es nicht. Es liegt in der Wüste. Das Bild ist KI-generiert, die Emotion echt, die Darstellung falsch (Watson, 2024).

Wenn das Gehirn der Maschine vertraut

Stell dir vor, du siehst ein emotionales Video vom Vietnamkrieg – weinende Mütter, verzweifelte Kinder, dramatische Szenen. Später, wenn dich jemand nach dem Vietnamkrieg fragt, erinnerst du dich an genau diese Bilder. Dein Gehirn hat sie als authentische Erinnerung abgespeichert. Dass du nie dort warst, dass diese Bilder von einer KI stammen – dein Gedächtnis macht diesen Unterschied nicht mehr (Chan et al., 2024).

Dieser Effekt verstärkt sich mit zunehmendem Realismus der Deepfakes. Je perfekter die KI-Technologie wird, desto schwieriger wird es für unser Gehirn, zwischen echten und künstlichen Erinnerungen zu unterscheiden.

Die Gefahr geht weit über einzelne gefälschte Bilder hinaus. Samantha Chan, Assistant Professor an der Nanyang Technological University in Singapur, hat in einer bahnbrechenden Studie untersucht, wie KI-generierte Inhalte unser Gedächtnis manipulieren können (Chan et al., 2024). Ihr Ergebnis ist alarmierend: Probanden, die KI-generierte historische Bilder und Videos sahen, entwickelten "falsche Erinnerungen" an Ereignisse, die nie stattgefunden haben.

You can (easily) launch a newsletter too

This newsletter you couldn’t wait to open? It runs on beehiiv — the absolute best platform for email newsletters.

Our editor makes your content look like Picasso in the inbox. Your website? Beautiful and ready to capture subscribers on day one.

And when it’s time to monetize, you don’t need to duct-tape a dozen tools together. Paid subscriptions, referrals, and a (super easy-to-use) global ad network — it’s all built in.

beehiiv isn’t just the best choice. It’s the only choice that makes sense.

Die Reproduktion historischer Vorurteile

Dr. Anne Lammers, Historikerin beim iRights.Lab, warnt vor einem weiteren Problem: KI-Systeme lernen aus vorhandenen Daten – und in diesen Daten stecken oft Stereotype, Vorurteile und revisionistische Geschichtsbilder (Lammers, 2024). Wenn eine KI mit Millionen historischer Texte trainiert wird, in denen bestimmte Gruppen diskriminiert oder falsch dargestellt werden, reproduziert sie diese Verzerrungen.

Das Anne-Frank-Dilemma

Als KI-generierte Inhalte über Anne Frank auf TikTok viral gingen, waren Historiker:innen alarmiert. Die Darstellungen enthielten zwar keine offensichtlichen Fehler, aber subtile Verzerrungen: vereinfachte Narrative, emotionalisierte Überhöhungen, Reduktion komplexer historischer Zusammenhänge auf Klischees (NDR, 2024). Das Problem: Für Millionen junger Menschen wurden diese KI-Versionen zur ersten – und oft einzigen – Begegnung mit dieser Geschichte.

Zwischen Innovation und Verantwortung

Die Technologie ist nicht per se gut oder schlecht. Kernspeckt zeigt in seinen Projekten, wie KI kreative Geschichtsvermittlung ermöglichen kann. Seine Studierenden nutzen KI-Tools, um historische Erzählungen neu zu inszenieren – allerdings immer mit kritischer Reflexion über Wahrheitsgehalt und Authentizität (Kernspeckt, 2024).

Die Rolle der Quellenkritik im digitalen Zeitalter

Historiker:innen stehen vor einer beispiellosen Herausforderung: Wie erkennt man gefälschte Dokumente, die auf den ersten Blick authentisch wirken? Die klassische Quellenkritik – jahrhundertelang das Fundament historischer Arbeit – muss sich radikal weiterentwickeln (Deutschlandfunk Kultur, 2024).

Lammers betont: "Generative KI darf nie ohne kritischen Kontext, Quellenkritik und Medienkompetenz eingesetzt werden. Gerade in Bildungsprozessen ist die kritische Reflexion unerlässlich, weil KI Inhalte teilweise fiktiv generiert, auch wenn sie auf Fakten basieren" (Lammers, 2024).

Was jetzt zu tun ist

Die Verantwortung liegt bei uns allen, nicht bei der Technologie. Darum ist es wichtig:

Medienkompetenz als Kulturtechnik: Die Fähigkeit, digitale Inhalte kritisch zu prüfen, wird so wichtig wie Lesen und Schreiben. Schulen, Universitäten und Gedenkstätten müssen Digital Literacy als Kernkompetenz vermitteln. Das bedeutet nicht, KI zu verteufeln – sondern ihre Mechanismen zu verstehen und ihre Grenzen zu kennen.

Transparenz in der Entwicklung: Wenn KI-Systeme für historische Zwecke eingesetzt werden, muss transparent sein, wie sie trainiert wurden, welche Daten sie nutzen und wo ihre Limitationen liegen. Die EU diskutiert bereits Regulierungen für besonders riskante KI-Anwendungen, insbesondere solche, die gesellschaftliche Diskurse manipulieren können (European Union, 2024).

Ethik vor Effizienz: Wer KI zur Geschichtsvermittlung nutzt, trägt Verantwortung für Authentizität und Datenschutz. Die Balance zwischen Innovation und Erinnerungskultur muss kontinuierlich neu justiert werden. Es geht nicht darum, was technisch möglich ist – sondern was ethisch vertretbar ist.

-WERBUNG-

Mehr KI Kompetenz? Inkl. Kompetenznachweis? Dazu haben wir das KI-Update entwickelt, immer jeden Montag Abend für Members und völlig kostenlos jeden 2ten Montagabend zum reinschnuppern. Mehr Infos gibts auf:

Die Kontrolle zurückgewinnen

Die zentrale Erkenntnis: KI ist nicht neutral. Sie ist immer Produkt ihrer Datenbasis, ihrer Programmierer:innen und ihrer Nutzer:innen. Sie kann Geschichte bewahren, zugänglich machen und kreativ vermitteln – oder sie kann manipulieren, verfälschen und instrumentalisieren.

Die Zukunft der Erinnerungskultur liegt nicht in der Technologie selbst, sondern in unserer Fähigkeit, sie kritisch, kontextbezogen und verantwortungsvoll zu nutzen. Solange wir uns dieser Verantwortung bewusst sind, kann KI ein mächtiges Werkzeug sein. Sobald wir sie unkritisch übernehmen, wird sie zur Gefahr.

Denn am Ende bleibt eine Wahrheit unerschütterlich: Die authentische, unberechenbare und zutiefst menschliche Auseinandersetzung mit Geschichte ist unersetzlich. Keine KI der Welt kann ersetzen, was entsteht, wenn Menschen sich gegenseitig ihre Geschichten erzählen – mit allen Unsicherheiten, Widersprüchen und emotionalen Nuancen, die echte Erinnerungen ausmachen.

Und darum bin ich nach wie vor überzeugt: Die Zukunft gehört nicht mehr dem Tippen und Klicken, sondern dem gemAInsamen arbeiten mit intelligenten Systemen.

Wir stehen am Beginn einer Ära, in der die Grenzen zwischen Mensch und Maschine durch Sprache neu definiert werden – einer Ära, in der wir mit unseren Computern nicht mehr über Tastaturen und Mäuse kommunizieren, sondern durch die natürlichste Form der menschlichen Interaktion: das Gespräch.

Also wenn Du reden willst, und wenn Du mit mir zusammenarbeiten willst: melde Dich gerne www.rogerbasler.ch

Mehr dazu auch in meinem Podcast:

Disclaimer: Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Grok.com sowie Gemini.Google.com) manuell zusammengestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von Ideogram.Ai und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.

Quellen und weitere Informationen:

Bundeszentrale für politische Bildung. (2024). Transkript WSG Folge 3: KI und Erinnerungskultur [PDF]. https://www.bpb.de/system/files/dokument_pdf/Transkript_WSG_Folge_3.docx_.pdf

Chan, S., et al. (2024). AI-generated content and false memories [Preprint]. arXiv. https://arxiv.org/abs/2409.08895

Deutschlandfunk Kultur. (2024, März). Kommentar: KI, Quellenkritik und Fake-Dokumente. https://www.deutschlandfunkkultur.de/kommentar-ki-quellenkritik-fake-dokumente-100.html

European Union. (2024). Artificial Intelligence Act: Article 5 [Legislative document]. https://artificialintelligenceact.eu/de/article/5/

Kernspeckt, B. (2024). KI-Tools zur Unterstützung im Kreativitätsprozess. Hochschule Wismar. https://www.ki-mv.de/ki-tools-zur-unterstuetzung-im-krreativitaetsprozess/

Lammers, A. (2024). KI und Erinnerungskultur: Interview. Bundeszentrale für politische Bildung. https://www.bpb.de/lernen/digitale-bildung/werkstatt/541433/ki-und-erinnerungskultur-mit-anne-lammers/

Nau. (2024, November). Gefälschte historische KI-Fotos kursieren im Internet. https://www.nau.ch/news/digital/gefalschte-historische-ki-fotos-kursieren-im-internet-66849357

NDR. (2024, September). Anne Frank als KI-Version: Erinnerungskultur im Wandel. https://www.ndr.de/kultur/Anne-Frank-als-KI-Version-Erinnerungskultur-im-Wandel,annefrank236.html

Watson. (2024, Dezember). Diese Bilder haben uns 2024 schockiert – und alle waren sie gefälscht. https://www.watson.ch/digital/faktencheck/830946996-diese-bilder-haben-uns-2024-schockiert-undalle-waren-sie-gefaelscht

Reply

or to participate.