Das KI-Problem, das kein KI-Problem ist

Über 40 Prozent der Mitarbeiter nutzen KI heimlich. Das Problem sind nicht sie. Das Problem ist Führung, die Ehrlichkeit bestraft.

Das KI-Problem, das kein KI-Problem ist
Idee Boris Gloger / Ausführung Gemini

Wir stehen in der Pause, Kaffeetassen in der Hand. Wir hatten über die Transformation der Bank gesprochen, und ich frage nebenbei, wie weit sie mit KI sind.

„Oh – wir haben jetzt endlich Copilot", sagt sie. „Aber ehrlich gesagt, ich bekomme bessere Antworten von ChatGPT." Kurze Pause. „Aber das dürfen wir nicht benutzen."

Ich nicke. Das kenne ich.

Diese Szene erinnert mich an meine Anfangszeit bei ONE, dem Telekommunikationsunternehmen, das um 2000 in Österreich angetreten war. Das Entwicklungsteam für die Website und die SMS-Services hatte Rechner unter den Schreibtischen, die in der Organisation verboten waren. Wassergekühlte Prozessoren, High-End-Maschinen. Nicht von der IT gestellt – das widersprach den Regeln. Die Entwickler hatten ihre privaten Rechner mitgebracht und heimlich genutzt. Unser Chef schaute weg.

Damals ging es um Hardware. Heute geht es um Software. Aber das Muster ist dasselbe: Mitarbeiter holen sich die Werkzeuge, die sie brauchen, um gute Arbeit zu machen – und verstecken sie vor der Organisation.

Das haben Entwickler immer gemacht. So ist die agile Bewegung entstanden. Sie haben sich die Tools gebaut, die sie brauchten, weil sie es konnten.


Die Daten: 40 Prozent im Schatten

Ethan Mollick, Professor an der Wharton School und einer der schärfsten Beobachter der KI-Adoption, nennt sie „Secret Cyborgs": Mitarbeiter, die KI nutzen, ohne es zuzugeben.

Die Zahlen sind eindeutig: Während die offizielle KI-Nutzung in Unternehmen bei etwa 20 Prozent stagniert, geben über 40 Prozent der Wissensarbeiter an, KI „bei der Arbeit" zu nutzen – oft auf privaten Geräten, oft ohne Wissen der Vorgesetzten (Mollick, 2025).

Keine Randerscheinung. Realität.

Der Grund: Diese Menschen arbeiten nicht bei Anthropic, wo KI-Nutzung gefördert wird und die Mitarbeiter geradezu besessen davon sind, ihr eigenes Tool zu nutzen. Ein interner Bericht zeigt: Engineers werden dort zwei- bis dreimal so produktiv (Anthropic, 2025). Studien aus Dänemark und den USA berichten Ähnliches: 90-Minuten-Aufgaben werden zu 30-Minuten-Aufgaben.

Die Frage ist nicht, ob KI funktioniert. Die Frage ist, warum so viele Menschen sie verstecken.


Die Diagnose: Angst, nicht Unfähigkeit

Mollick hat die Gründe analysiert. Sie sind alle menschlich:

Manche haben Angst vor Bestrafung. Sie haben einen „scary talk" über die Risiken von KI gehört und wollen kein Risiko eingehen.

Manche haben Angst vor Statusverlust. Sie werden als Helden gefeiert für ihre Ergebnisse – und fürchten, dass der Respekt verschwindet, wenn bekannt wird, dass KI geholfen hat.

Manche haben Angst vor Konsequenzen für andere. Wenn bekannt wird, dass KI 90 Prozent einer Aufgabe erledigt, werden dann 90 Prozent der Kollegen entlassen?

Und manche haben einfach gelernt: Produktivitätsgewinne werden nicht belohnt. Sie werden erwartet. Also behält man sie lieber für sich.

Faulheit? Rationales Verhalten in einem System, das Ehrlichkeit bestraft.


Der Kernpunkt: Fehlendes Know-how

McKinsey formuliert es direkt: „The biggest barrier to success is leadership" (McKinsey, 2025).

Nicht Technologie. Nicht Regulierung. Nicht Kompetenz der Mitarbeiter. Führung.

Die fünf größten Hürden für KI-Adoption, die McKinsey identifiziert, sind alle menschlich: Führungskonsens fehlt, Kostenunsicherheit, unklare Workforce-Planung, Abhängigkeiten in der Lieferkette, fehlende Erklärbarkeit.

Aber McKinsey identifiziert nur die Symptome. Die Frage ist: Warum fehlt der Führungskonsens? Warum gibt es keine klare Workforce-Planung?

Die meisten Führungskräfte wissen nicht, ob sie KI trauen sollen – oder ob es wieder nur eine Mode ist. Sie haben kein eigenes Urteil. Und ohne eigenes Urteil entscheidet man konservativ.

Kaiser Franz Joseph I. sah 1906 den ersten Panzerwagen der Monarchie. Beim Manöver scheuten die Pferde vor dem Motorenlärm. Der Generalstabschef fiel vom Pferd. Der Kaiser urteilte: „So etwas ist nicht für eine militärische Verwendung zu gebrauchen." Der Kaufvertrag wurde zu den Akten gelegt. Fünf Jahre später lehnte das Kriegsministerium den revolutionären Panzer-Entwurf von Oberleutnant Burstyn ab – als „wertloses Phantasieprodukt". Die Briten setzten 1916 bei Cambrai die ersten Panzer ein.

Das Muster wiederholt sich. Nokia, Kodak – die neuen Technologien passten nicht in die Denkfiguren der handelnden Personen.

Fehlendes Know-how ist das Problem. Und Know-how ist Führungsaufgabe. Wer kein Know-how hat, fühlt sich nicht in Kontrolle. Wer sich nicht in Kontrolle fühlt, lehnt ab.


Die Trampelpfade nutzen

Aber du als Führungskraft hättest einen genialen Hebel: die heimliche Adoption durch deine Mitarbeiter.

An der TH Darmstadt waren Wege gepflastert worden. Doch die Leute gingen über den Rasen – der offizielle Weg führte offenbar nicht dahin, wo sie hinwollten. Unser Soziologieprofessor sagte damals: Statt die Leute durch Verbote zu zwingen, sich an die Regeln zu halten, sollte man den Trampelpfad ausbauen und zum offiziellen Weg machen.

Nutzen wir diese Idee: Die KI-Trampelpfade existieren bereits. Frag deine Mitarbeiter, wofür sie KI privat nutzen. Dann transferiere das ins Unternehmen.

Und Compliance und Legal? Die müssen ermöglichen – nicht verhindern. Nicht sagen: „Es gibt noch keine Vorschriften." Sondern herausfinden, wie es geht. Lass die IT genau diese Use Cases verbessern. Aber führe kein Projekt ein, in dem du KI-Adoption theoretisierst.


Was Führung tun müsste

Vier Dinge, die ich Führungskräften sage, wenn sie mich fragen, wie sie mit KI-Adoption umgehen sollen:

Erstens: Frag nicht, ob deine Leute KI nutzen. Frag, warum sie es dir nicht sagen. Die Antwort wird unbequem sein. Aber sie zeigt dir, wo dein Führungsproblem liegt – nicht dein Technologieproblem.

Zweitens: Belohne Offenheit, nicht Heimlichkeit. Wenn jemand zugibt, dass KI bei einem Ergebnis geholfen hat, ist das keine Schwäche. Es ist Kompetenz. Wer gute Werkzeuge klug einsetzt, verdient Anerkennung – nicht Misstrauen.

Drittens: Definiere, was du wirklich schützen willst. Viele KI-Verbote sind pauschal und unklar. Sie schützen nicht Daten oder Compliance – sie schützen ein Gefühl von Kontrolle. Aber Kontrolle über Werkzeuge, die Menschen produktiver machen, ist keine Führung. Es ist Verhinderung.

Viertens: Nutze, was schon da ist. Mach das zur Praxis, was bereits funktioniert. Die Trampelpfade sind gelegt – bau sie aus.


Schlussfrage

Wie viele deiner Mitarbeiter nutzen heute Werkzeuge, von denen du nichts weißt – weil sie gelernt haben, dass Ehrlichkeit bestraft wird?

Und was sagt das über deine Führung?


Quellen

Anthropic (2025). How AI Is Transforming Work at Anthropic. https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic

McKinsey & Company (2025). Superagency in the Workplace: Empowering People to Unlock AI's Full Potential.

Mollick, E. (2025). Making AI Work: Leadership, Lab, and Crowd. One Useful Thing.


Du liest als Gast — willkommen. Als Leser bekommst du „Den Brief": persönliche Werkstattnotizen, 2x im Monat, direkt in dein Postfach. → Leser werden