This website uses cookies

Read our Privacy policy and Terms of use for more information.

TLDR: Automation Bias bezeichnet die Tendenz von Menschen, automatisierten Systemen mehr zu vertrauen als dem eigenen Urteil, selbst wenn das System nachweislich falsch liegt. Mit dem Einzug von KI in Entscheidungsprozesse gewinnt dieses Phänomen an Reichweite und Schärfe. Wer es nicht kennt, ist besonders anfällig dafür.

Was genau passiert da genau?

Automation Bias beschreibt die Tendenz, Empfehlungen automatisierter Entscheidungssysteme zu bevorzugen und widersprechende Informationen zu ignorieren, auch wenn diese korrekt sind. Das klingt zunächst abstrakt. Es wird greifbar, sobald man sich konkrete Situationen vorstellt: ein Arzt, der einem KI-System vertraut und den eigenen Befund verwirft. Ein Personalverantwortlicher, der eine Ranking-Liste übernimmt, ohne die Kandidat:innen selbst zu beurteilen. Ein Pilot, der dem Navigationssystem glaubt und eigene Sinneswahrnehmungen ignoriert.

Wir vertrauen den Ausgaben automatisierter Systeme oft, ohne sie kritisch zu bewerten, selbst wenn unser eigenes Urteil etwas anderes nahelegt. Der Grund liegt nicht in Dummheit, sondern in der Architektur unseres Denkens.

Kognitionswissenschaftler:innen bezeichnen dies als den Cognitive Miser-Effekt: Menschen neigen dazu, den kognitiv einfachsten Weg zu wählen, und sie schreiben automatisierten Systemen eine analytische Überlegenheit zu. Das spart kurzfristig Energie, erzeugt aber langfristig blinde Flecken.

Zwei Fehlertypen, die unterschiedlich wirken

Automation Bias äussert sich in zwei klar unterscheidbaren Mustern.

Das erste sind Kommissionsfehler: Der Mensch folgt einer automatisierten Empfehlung, ohne andere verfügbare Informationen einzubeziehen. Solche Fehler entstehen durch eine Kombination aus Aufmerksamkeitsverschiebung weg vom System, verminderter Wachsamkeit und der aktiven Abwertung von Informationen, die der Empfehlung des Systems widersprechen.

Das zweite sind Omissionsfehler: Das automatisierte System erkennt ein Problem nicht, und der Mensch bemerkt es ebenfalls nicht, weil er die Aufmerksamkeit ausgelagert hat. Ein besonders eindrückliches Beispiel liefern Studien zur Brustkrebsdiagnose: Ohne automatisierte Unterstützung wurden 46% der Fälle korrekt erkannt. Mit automatisierten Hilfsmitteln, die Krebs nicht identifizierten, sank die Erkennungsrate auf 21%. Die Technologie hat die menschliche Wahrnehmung nicht ergänzt, sie hat sie ersetzt, und zwar zum Nachteil der Patient:innen.

KI verändert das Ausmass des Problems

Automation Bias ist kein neues Phänomen. Es wurde erstmals in der Luftfahrt intensiv untersucht. Neu ist der Massstab.

Mit der zunehmenden Einbettung von KI in risikoreiche Bereiche wie Gesundheit, Justiz und öffentliche Verwaltung ist die Tendenz zur Übernahme automatisierter Empfehlungen zu einer zentralen Herausforderung geworden. Aktuelle Fallanalysen untersuchen das Phänomen entlang von Tesla-Autopilot-Unfällen, Aviation-Incidents bei Boeing und Airbus sowie militärischen Luftverteidigungssystemen. Das Muster ist überall dasselbe: Fachleute übersehen offensichtliche Fehler, weil das System etwas anderes anzeigt.

Hinzu kommt ein Mechanismus, den Forscher:innen als moral buffer beschreiben: Automatisierte Systeme wirken als psychologischer Distanzierungsmechanismus. Das Gefühl, dass "die Maschine entscheidet", verringert das Verantwortungsgefühl des Menschen, was wiederum das Bewusstsein für eigene Vorurteile und Fehler abschwächt.

Besonders relevant ist eine aktuelle Beobachtung aus der Pathologie: KI-Integration verbesserte die Gesamtleistung der beteiligten Ärzt:innen. Gleichzeitig wurden ursprünglich korrekte Einschätzungen in rund 7% der Fälle durch fehlerhafte KI-Empfehlungen verschlechtert. Zeitdruck erhöhte nicht die Häufigkeit des Fehlers, aber seine Schwere.

Das Wissens-Paradox

Eine kontrintuitive Erkenntnis zieht sich durch mehrere aktuelle Studien: Nicht die Unerfahrensten sind am anfälligsten für Automation Bias.

Personen mit sehr wenig KI-Erfahrung sind eher vorsichtig und zeigen eine gewisse Algorithmus-Aversion. Wer hingegen mittelmässige KI-Kenntnisse hat, also weiss wie das Werkzeug funktioniert, es aber noch nicht kritisch einschätzen kann, zeigt die höchsten Automation-Bias-Raten. Sehr erfahrene Nutzer:innen hingegen bleiben stabiler und kritischer.

Dieses Muster erklärt, warum Automation Bias gerade in Organisationen zunimmt, die KI breit einführen, aber keine strukturierte Auseinandersetzung mit ihren Grenzen fördern. Das mittlere Wissen erzeugt Vertrauen, ohne Urteilsvermögen zu liefern.

-WERBUNG-

Mehr KI Kompetenz? Inkl. Kompetenznachweis? Dazu haben wir das KI-Update entwickelt. Kurse, Updates, Newsletter und Podcasts: ein Ort für all dein KI Wissen. Werde Teil unserer exklusiven Community! Tausche dich mit Gleichgesinnten aus, erhalte exklusive Inhalte und nimm an Live-Sessions teil. Mehr Infos gibts auf:

LLMs und die schleichende Erosion des Denkens

Mit der Verbreitung von grossen Sprachmodellen wie ChatGPT, Gemini oder Claude entsteht eine neue Dimension des Problems. Ein aktuelles Framework beschreibt drei Phasen der Abhängigkeit:

Erstens entsteht Abhängigkeit durch wahrgenommene Effizienz. Wer einmal erlebt, wie schnell ein LLM einen Text formuliert oder eine Entscheidung begründet, gewöhnt sich daran. Zweitens setzt kognitives Offloading ein: Das kritische Prüfen wird sukzessive ausgelagert. Drittens, und das ist der beunruhigendste Befund, internalisieren Menschen die Verzerrungen der Modelle und reproduzieren sie später selbst, auch ohne KI-Unterstützung.

Automation Bias wird damit nicht nur zu einem Entscheidungsproblem in Einzelsituationen. Es entwickelt sich zu einem kognitiven Muster, das sich über wiederholte Nutzung einschleift.

Ebenfalls belegt: KI-Vorschläge wirken als Anker. Selbst wenn sie falsch sind, verschieben sie systematisch menschliche Einschätzungen in ihre Richtung. Zeitdruck verstärkt diesen Effekt. Selbstwirksamkeit und hohe Berufserfahrung reduzieren ihn.

Was hilft, und was nicht

Erklärungen durch das KI-System selbst sind kein zuverlässiger Schutz. Studien zu erklärbarer KI (XAI) zeigen: Erklärungen reduzierten Automation Bias in vielen Bedingungen nicht. In manchen Fällen verstärkten sie sogar das Vertrauen, weil sie überzeugend klingen, unabhängig davon, ob sie korrekt sind.

Was hingegen nachweislich hilft:

Verantwortung explizit benennen. Entscheidungsträger:innen über die Möglichkeit von Systemfehlern zu informieren und sie an ihre persönliche Verantwortung für den Entscheid zu erinnern, fördert systematisches statt heuristisches Denken.

Reihenfolge steuern. Eigenes Urteil zuerst formulieren, dann das System befragen. Nicht umgekehrt.

Design anpassen. Empfehlungen weniger prominent darstellen, Konfidenzniveaus anzeigen, Information statt Kommando ausgeben.

Fehler erlebbar machen. Direkte Erfahrung mit Systemfehlern reduziert nachweislich die Complacency gegenüber Automation.

Trainingsansätze, die auf die Reduktion von Automation Bias ausgerichtet sind, helfen gegen Kommissionsfehler. Gegen Omissionsfehler, also das Nichtbemerken von Systemversagen, wirken sie kaum. Das ist ein ernüchternder Befund für alle, die glauben, das Problem mit einem Workshop lösen zu können.

Zusammenfassung der wichtigsten Punkte

  • Automation Bias ist die unbewusste Tendenz, automatisierten Systemen mehr zu vertrauen als dem eigenen Urteil, selbst bei nachweisbaren Fehlern des Systems

  • Es gibt zwei Fehlertypen: Kommissionsfehler (falscher Empfehlung folgen) und Omissionsfehler (Fehler des Systems nicht bemerken)

  • Mittleres KI-Wissen erzeugt die höchste Anfälligkeit, nicht Unerfahrenheit

  • LLMs fördern eine dreistufige Abhängigkeit: Effizienz, Offloading, Internalisierung von Modellfehlern

  • Erklärungen durch KI reduzieren Automation Bias nicht zuverlässig, in manchen Fällen verstärken sie ihn

  • Wirksame Gegenmassnahmen: Eigenes Urteil zuerst, Verantwortung explizit benennen, Systemfehler erlebbar machen

Und darum bin ich nach wie vor überzeugt: Die Zukunft gehört nicht mehr dem Tippen und Klicken, sondern dem gemAInsamen Arbeiten mit intelligenten Systemen. Aber gemAInsam bedeutet: Mensch und Maschine auf Augenhöhe, nicht Mensch als stiller Beobachter und Maschine als eigentlicher Entscheider.

Wer Automation Bias kennt, kann gegensteuern. Wer ihn ignoriert, delegiert mehr als er ahnt. Also wenn Du reden willst, und wenn Du mit mir zusammenarbeiten willst: melde Dich gerne www.rogerbasler.ch

Disclaimer: Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Grok.com sowie Gemini.Google.com) manuell zusammengestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von Ideogram.Ai und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.

Quellen und weitere Informationen:

Kücking, F., Hübner, U., Przysucha, M., Hannemann, N., Kutza, J.-O., Moelleken, M., Erfurt-Berge, C., Dissemond, J., Babitsch, B., & Busch, D. (2024). Automation bias in AI-decision support: Results from an empirical study. Studies in Health Technology and Informatics, 317, 298–304. https://doi.org/10.3233/SHTI240871

Skitka, L. J., Mosier, K. L., & Burdick, M. (1999). Does automation bias decision-making? International Journal of Human-Computer Studies, 51(5), 991–1006. https://doi.org/10.1006/ijhc.1999.0252

Moramarco, S., Pinto, J., & Velasquez, N. (2024). AI safety and automation bias: The downside of human-in-the-loop. Center for Security and Emerging Technology. https://cset.georgetown.edu/publication/ai-safety-and-automation-bias/

Stöber, T., Gaube, V., & Lermer, E. (2025). Stuck on suggestions: Automation bias, the anchoring effect, and the moderating role of expertise. arXiv preprint arXiv:2603.11821. https://arxiv.org/html/2603.11821v2

Romeo, A., & Conti, M. (2024). Exploring automation bias in human-AI collaboration: A review and implications for explainable AI. AI & Society. https://doi.org/10.1007/s00146-025-02422-7

Wesley, D., Wager, N., & colleagues. (2025). The amplification and perpetuation of AI-derived biases through automation dependency. SSRN Working Paper. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5359658

Reply

Avatar

or to participate

Weiterlesen