
Letzte Woche. In meinem Seminar KI als Co-Pilot in der Führung. Eine Runde erfahrener Führungskräfte. Meine Frage: „Welche kognitiven Bias kennen Sie – und wissen Sie, wie diese Ihre Arbeit mit KI verzerren?“
Nachdenkliche Stille im Raum.
KI ist längst im Arbeitsalltag von Führungskräften angekommen. Strategiepapiere, Risikoanalysen, Kommunikationsentwürfe – vieles läuft heute durch einen Algorithmus, bevor es auf dem Schreibtisch landet oder im Meeting präsentiert wird.
Das Problem ist nicht die Technologie. Das Problem ist, was wir ihr unbewusst mitgeben.
Grace Chang und Heidi Grant von EY Behavioral Science beschreiben im Harvard Business Review (Januar 2026) ein entscheidendes Muster: Bias entsteht nicht nur in der KI – sie entstehtendurch uns. Und zwar in drei Phasen, die die meisten Führungskräfte nicht auf dem Radar haben.
Vor dem Prompten bestimmt der Halo- oder Horns-Effekt, ob jemand KI unkritisch übernimmt oder pauschal ablehnt. Während des Promptens verzerrt Leading Question Bias die Fragestellung – die KI antwortet auf das, was wir ihr nahelegen, nicht auf das, was wir wirklich wissen müssen. Nach dem Prompten sorgt der Endowment Effect dafür, dass wir eigene KI-Outputs besser bewerten als sie sind – weil wir Energie investiert haben.
Ihr Fazit: „Bias in AI isn’t just baked into the data – it’s shaped by us.“
Parallel dazu haben Forschende von Anthropic und der University of Toronto über 1,5 Millionen Claude-Konversationen analysiert. Ihr Befund: drei zentrale Risiken – Verzerrung der Wahrnehmung, Veränderung von Überzeugungen, Einfluss auf konkretes Handeln.
Die Frage ist also nicht mehr, ob KI den Menschen beeinflussen kann. Die Frage ist: Wie viel Entscheidungsmacht überlassen wir ihr freiwillig?
Die fünf Bias, die im Umgang mit KI meiner Ansicht nach am gefährlichsten sind:
→ Automation Bias Wir vertrauen Maschinen mehr als Menschen – weil Algorithmen „objektiver“ wirken. Beispiel: Eine Führungskraft übernimmt die KI-generierte Risikoanalyse ungeprüft ins Board-Meeting. Die Datenbasis war veraltet. Niemand hat nachgefragt.
→ Confirmation Bias Wir formulieren Prompts so, dass wir bekommen, was wir ohnehin schon denken. Beispiel: „Welche Argumente sprechen für unsere neue Strategie?“ – Die Gegenfrage stellt niemand. Die KI liefert brav, was gefragt wird.
→ Anchoring Bias Der erste Output wird zur unsichtbaren Benchmark. Alle Folgefragen drehen sich darum. Beispiel: Die KI schlägt ein Gehalt von 80.000 € vor. Die gesamte weitere Verhandlung bewegt sich in diesem Korridor – obwohl der Markt 95.000 € hergibt.
→ Availability Bias Was leicht abrufbar ist, wirkt wahrer – und KI-Outputs fühlen sich immer verfügbar und plausibel an. Beispiel: Eine Führungskraft nutzt das erste KI-Beispiel für eine Branchenanalyse, weil es gut klingt. Dass es aus einem Nischenmarkt stammt, fällt nicht auf.
→ Authority Bias Wer oder was professionell formuliert, wird als kompetent eingestuft – KI schreibt immer professionell. Beispiel: Ein KI-generiertes Strategiepapier klingt wie McKinsey. Es wird als solide eingestuft – dabei fehlt jede kontextspezifische Tiefe.
Genau deshalb braucht es bewusste Reflexion. Echte Gespräche. Räume, in denen Denken nicht delegiert wird.
Die Realität bleibt unverzerrt, wenn Führungskräfte sich mit echten Menschen austauschen – nicht nur mit einem System, das immer antwortet, immer zustimmt und immer professionell klingt.
➡️ Die unbequeme Wahrheit:
Wer KI einsetzt, ohne Bias zu kennen, delegiert keine Arbeit. Er delegiert sein Urteilsvermögen.
Reflexionsfrage für diese Woche: Wann haben Sie zuletzt einen KI-Output aktiv hinterfragt – und wann haben Sie ihn einfach weitergegeben, weil er gut geklungen hat?
Quellen: Chang, G. & Grant, H. (2026). When AI Amplifies the Biases of Its Users. Harvard Business Review, Januar 2026. / Kahneman, D. (2011). Thinking, Fast and Slow.
Dieser Blog-Beitrag ist auch in meiner Linkedin Serie Eine unbequeme Wahrheit erschienen.







