"Marco, wie starten wir mit KI in unserem Unternehmen?"
Mind the Gap: Warum Unternehmen an KI scheitern, obwohl die Technologie funktioniert. Was ich seit 2022 von den Unternehmen gelernt habe, die digitale Transformation verstanden haben.
Inhalt
Der Adaptation Gap
Martina Mitarbeit und ihre Secret Cyborgs
Malcolm Management mittendrin
Franz Führung: Viel investiert, wenig transformiert
Peter Plan und die Kunst der Umsetzung — Spielregeln definieren — Klare Kommunikation — Ressourcen bereitstellen — Vorleben und Sicherheit schaffen
Marcos Wunschliste — Neue Incentives — Messen, aber richtig
Referenzen
Mittlerweile ist KI in der breiten Masse angekommen. Fast alle in meinen Workshops haben zumindest schon einmal einen Prompt geschrieben und fast jedes Unternehmen “macht was mit KI”. Doch die Bandbreite dessen, was “KI nutzen” bedeutet, könnte aktuell nicht größer sein. Am einen Ende des Spektrums gibt es Menschen, die ihr Leben von KI-Agenten orchestrieren lassen (/s) und am anderen Ende sitzen Mitarbeitende, in deren Unternehmen noch diskutiert wird, ob überhaupt Copilot freigegeben wird.

Das Meme mag übertrieben sein, doch die Systeme, die heute verfügbar sind, haben mittlerweile wirklich viele Fähigkeiten. Sie arbeiten autonom über längere Zeiträume, recherchieren im Internet, rechnen, "hören", "sehen", “sprechen”, sind sehr sehr sehr “intelligent” und können mit den verschiedensten Dateiformaten arbeiten. Vieles, wo ich vor zwei Jahren noch gesagt hätte "lass lieber die Finger davon", funktioniert heute ausgezeichnet. Wer seit einem halben Jahr nicht mehr ausprobiert hat, was diese Tools können, hat ein veraltetes Bild im Kopf. Februar 2026 zeichnet sich aktuell als DER KI Monat ab.
Doch wenn ich in meinen Workshops frage, was die Teilnehmenden denn konkret mit KI machen, zeigt sich ein anderes Bild. Meetings zusammenfassen, kürzere Texte umformulieren, vielleicht mal eine E-Mail umschreiben lassen - leider relativ wenig im Vergleich zu dem, was eigentlich möglich wäre. Doch das liegt oft gar nicht an den Mitarbeitenden selbst. Viele Unternehmen, die mich kontaktieren, stehen selbst erst am Beginn dieser digitalen Transformation. Die Modelle werden exponentiell leistungsfähiger, aber unsere Fähigkeit, diese Leistung in Wertschöpfung umzusetzen, wächst bestenfalls linear (OpenAI, 2026).

Es gibt mittlerweile eine Reihe großer Studien und Umfragen, die alle in eine ähnliche Richtung zeigen (EY, 2025a; Accenture, 2025; McKinsey, 2025; Deloitte, 2026). Die Experimentierfreude einzelner Mitarbeitender ist hoch, die tatsächliche Wertschöpfung im Unternehmen aber überraschend gering. Die Zahlen variieren je nach Studie, aber das Muster ist immer dasselbe. Viel Verbreitung, wenig Tiefe.
Diese Lücke zwischen dem, was da ist und dem, was genutzt wird, wird als Adaptation Gap (Kane, 2017) bezeichnet. Er beschreibt die wachsende Kluft zwischen dem, was die Technologie heute leisten kann und dem, was Organisationen tatsächlich damit anfangen. Dabei ist der Adaptation Gap eigentlich kein technologisches Problem. Die Technologie ist da und sie funktioniert unglaublich gut. Digitale Transformation ist ein “People Problem” (Kane, 2017).

Inspiriert von Ken Blanchards (2009) ausgezeichnetem Buch “Who killed Mr. Change?” möchte ich diesen menschlichen Aspekt anhand von drei Personen aufzeigen, die mir in meiner täglichen Arbeit begegnen. Und was man von ihnen lernen kann.
Martina Mitarbeit und ihre Secret Cyborgs
In der Pause bei einem meiner Workshops kam Martina zu mir. Sie hatte in der zweiten Reihe gesessen, viel genickt und aufgeschrieben. Jetzt, wo die anderen am Kaffeeautomaten standen, wurde sie gesprächig. “Ich nutze Claude seit ein paar Monaten für meine Berichte in der Verwaltung. Analysen, für die ich früher Stunden gebraucht habe, sind in wenigen Minuten fertig. Das spart mir sicherlich 5 Stunden in der Woche. Das ist so toll!”
Fünf Stunden pro Woche, bei 45 Arbeitswochen im Jahr (so viele sind es in Österreich nach Abzug von Urlaub und Feiertagen), sind 225 Stunden. Bei einem Team von zehn Personen mit ähnlichen Effizienzgewinnen reden wir von 2.250 Stunden. Das ist deutlich mehr als eine Vollzeitstelle (die liegt in Österreich bei rund 1.800 Stunden im Jahr). Und das bei einfachen Use Cases, die oft in wenigen Minuten entstehen und keinerlei IT-Budget brauchen. In Zeiten, in denen alle über Überlastung klagen, liegt da eine ganze Vollzeitstelle an Potenzial. Diese Milchmädchenrechnung ist auch empirisch gut verankert. Eine Gallup-Studie (mit Lehrkräften) zeigt, dass diejenigen, die KI wöchentlich nutzen, im Schnitt sogar 5,9 Stunden pro Woche einsparen (Gallup; Walton Family Foundation, 2025).
Martina ist kein Einzelfall. 84% der Beschäftigten sind laut EY (2025a) enthusiastisch und wollen KI in ihrer Arbeit einsetzen - die Bereitschaft ist also da. Doch als ich Martina fragte, ob ihre Kolleginnen davon wissen, kam die Antwort im Flüsterton. “Nein, ich verwende meinen eigenen Account. Die meisten Tools sind im Unternehmen blockiert und ich will nicht, dass meine Kollegen und meine Chefin das wissen.”
Ethan Mollick (wer mich kennt, weiß, dass ich ihn sehr oft zitiere) nennt dieses Phänomen “Secret Cyborgs” (Mollick, 2024). Mitarbeitende, die KI einsetzen, um ihre Arbeit schneller und besser zu erledigen, dies aber niemandem sagen. In der IT-Welt wird das Ganze auch “Shadow AI” genannt, und das Ausmaß ist beachtlich. Laut einer Umfrage von WalkMe (2025) nutzen 78% der Befragten KI-Tools, die von ihrem Arbeitgeber nicht genehmigt wurden. Das sind Zahlen, die ich auch aus meinem Arbeitsalltag bestätigen kann.
Doch warum die Geheimniskrämerei bei so viel Potenzial?
Erstens: Wer zeigt, dass KI mitgeholfen hat, riskiert, dass die eigene Leistung abgewertet wird. Die aktuelle Forschung zeichnet hier ein interessantes Bild. Menschen bewerten identische Arbeit systematisch schlechter, sobald sie wissen, dass KI daran beteiligt war (Raj et al., 2026; Reif et al., 2025; Celiktutan et al., 2024). Die Ursache dafür könnte daran liegen, dass wir einen anthropozentrischen Bias haben (Millet et al., 2023). Wir werten KI-generierte Ergebnisse ab, weil sie unser Selbstbild als einzigartig kreative Spezies bedrohen. Wir verteidigen, was uns menschlich macht. Martinas Teamleiterin würde den Bericht also vermutlich kritischer lesen, sobald sie weiß, dass Claude mitgeschrieben hat (das wird sich in meinen Augen aber ändern, sobald der Großteil der Menschen gesehen hat, wie leistungsfähig diese Tools sind).
Zweitens: Die Angst vor dem Jobverlust. Wenn Martina ihrer Teamleiterin zeigt, dass sie ihren Wochenbericht in zwanzig Minuten statt in drei Stunden schreiben kann, dann könnte ihre Teamleiterin auf eine Idee kommen. Doch nicht etwa auf die Idee, Martina eine Gehaltserhöhung zu geben. Sondern auf die Idee, dass sie vielleicht nicht mehr drei Martinas braucht, sondern nur eine. Rund 60% der europäischen Arbeitnehmer teilen genau diese Angst (Accenture, 2025). Und die Angst ist nicht irrational. McKinsey (2025) berichtet von Unternehmen, die aktiv “Zero-FTE-Departments” anstreben. Ganze Abteilungen, vollständig von autonomen Agenten betrieben. Sam Altman (der Geschäftsführer von OpenAI) sagte schon vor zwei Jahren, dass in seinem Gruppenchat mit Tech-CEOs eine Wette läuft, in welchem Jahr es das erste Eine-Person-Milliarden-Dollar-Unternehmen geben wird (Ohanian, 2024). Solange Martina nicht weiß, was mit der gewonnenen Zeit passiert, bleibt sie im Schatten. Und das kann ich ihr auch nicht verübeln. Denn die meisten Mitarbeitenden suchen noch immer nach ihrem “WIFM”, ihrem “What’s In It For Me?” (Snyder, 2026). Die Frage ist berechtigt, denn die Belohnung für Effizienz in den meisten Organisationen ist: 🥁🥁🥁 mehr Arbeit. Wer seine Aufgaben in vier statt acht Stunden erledigt und das transparent macht, bekommt keinen freien Nachmittag. Er bekommt die doppelte Arbeitslast. Also erledigt Martina ihre Arbeit in vier Stunden, verbringt weitere vier auf YouTube (wahres Beispiel) und gibt das Ergebnis dann ab. Wenn die Belohnung für Transparenz potenziell mehr Arbeit oder weniger Kolleginnen ist, bleibt die Effizienz unsichtbar.
Für die Organisation sind diese Secret Cyborgs eine Katastrophe. Denn die Organisation lernt nichts. Sie weiß nicht, dass diese Effizienz existiert. Sie kann sie nicht institutionalisieren, nicht skalieren, nicht auf andere Teams übertragen. Die Innovation versickert im Verborgenen. Shadow AI ist auch ein Sicherheitsrisiko. Wenn Martina vertrauliche Unternehmensdaten in diese Cloud-Modelle hochlädt, um ihre Berichte zu erstellen, dann verlassen diese Daten das Unternehmen. (Ich sage hier gerne: “es gibt keine Cloud, nur den Rechner von jemand anderem”). Ohne Wissen der IT, ohne Governance, ohne Kontrolle. Die Organisation verliert also doppelt. Sie lernt nichts von Martinas Effizienz und sie hat ein Datenschutzproblem, von dem sie nicht einmal weiß.
Martinas Geschichte zeigt wieder deutlich, dass der Adaptation Gap kein rein technologisches Problem ist. Die Technologie funktioniert. Martina beweist das jeden Tag. Was fehlt, ist das Umfeld, in dem sie das auch zeigen kann. Eine Unternehmenskultur, die Experimente belohnt, eine Führung, die Effizienzgewinne anerkennt, die Möglichkeiten Neues auszuprobieren, Fehler machen zu dürfen und Ergebnisse offen zu teilen, ohne Angst vor negativen Konsequenzen. Ohne dieses Fundament bleiben die Martinas im Schatten.
Malcolm (Management) mittendrin
Malcolm leitet eine Abteilung mit fünfzehn Leuten. Sein Geschäftsführer kam von einer Konferenz zurück und verkündete im Meeting: “Wir müssen was mit KI machen!” Malcolm bekam den Auftrag, das “irgendwie umzusetzen.” In einem meiner Workshops sagte er mir: “Ich soll eine Transformation führen, mit einer Technologie, die ich selbst nicht ganz verstehe.”
Wenn über den Adaptation Gap diskutiert wird, stehen meistens zwei Ebenen im Fokus. Die Ebene der Geschäftsführung, die von Transformation redet, und die Mitarbeitenden, die mit den Tools arbeiten (oder eben heimlich arbeiten). Dazwischen sitzt Malcolm und soll aus der großen Vision eine konkrete Handlung machen. Er muss jetzt (Secret) Cyborgs managen und nebenbei fragt er sich, ob sein eigener Job als Menschenmanager bald von einem Agenten übernommen wird.
In fast keinem Unternehmen, in dem ich arbeite, gibt es explizite Schulungen für genau diese Ebene. Die Mitarbeitenden bekommen Prompt-Engineering-Workshops (manche davon von mir). Die Geschäftsführung hört Keynotes auf Konferenzen (manche davon auch von mir). Aber die Malcolms dieser Welt? Die bekommen eine neue Zeile in der Jobbeschreibung und ein “Du schaffst das schon.”
Digitale Transformation wird in der Theorie gerne als Top-down-Prozess beschrieben: Die Führung gibt die Richtung vor, die Organisation folgt. In der Realität ist KI längst auch ein Bottom-up-Phänomen. Martinas Geschichte hat das gezeigt. Die Mitarbeitenden experimentieren, adaptieren, verändern ihre Arbeitsweise, oft ohne Wissen der Führung. Das mittlere Management steht damit an einer Schnittstelle, an der strategischer Druck von oben und operative Realität von unten aufeinandertreffen.
Dabei wird Malcolm also zwei Seiten gleichzeitig unter Druck gesetzt: Von oben kommt die Vision ohne Übersetzungshilfe. “Wir müssen was mit KI machen” klingt im Meeting motivierend, aber am Montagmorgen im Büro stellt sich die Frage: Was heißt das konkret für mein Team? Welche Prozesse verändern wir zuerst? Mit welchen Tools? Nach welchen Kriterien bewerte ich, ob ein KI-unterstütztes Ergebnis gut genug ist? Literatur zu Management in Zeiten digitaler Transformation gibt es reichlich. Aber der Kontext von generativer und agentischer KI ist grundlegend neu.
Und von unten kommt die Intensivierung. Denn die Produktivitätsgewinne, die KI verspricht, machen Malcolms Job nicht leichter, sondern komplexer. KI-Tools reduzieren Arbeit nicht, sie intensivieren sie (Ranganathan & Ye, 2026). Mitarbeitende übernehmen plötzlich Aufgaben, die vorher anderen gehörten. Product Manager beginnen zu programmieren, Researcher übernehmen Engineering-Tasks. Und wer muss das auffangen? Malcolm. Er verbringt zunehmend mehr Zeit damit, KI-unterstützte Arbeit zu reviewen, zu korrigieren und sein Team zu coachen.
Und dabei ist es gerade Malcolm, dessen Fähigkeiten am Arbeitsmarkt zunehmend gefragt sein werden. Denn was man bei der Arbeit mit KI-Agenten aktuell immer deutlicher sieht, ist: Die Herausforderungen sind gar nicht so neu, wie sie auf den ersten Blick erscheinen. Wer KI-Agenten erfolgreich einsetzen will, muss Ziele setzen für verschiedene Delegationsebenen, Aufgaben in Teilschritte zerlegen, klares Feedback geben, Ressourcen zuweisen, kurzfristige Projekte in langfristige Ziele einordnen. Das ist Management 101.
Und auch die Forschung bestätigt das Bild: Die Fähigkeit, KI-Agenten erfolgreich zu führen, korreliert stark mit der Fähigkeit, menschliche Teams zu führen. Wer gute Fragen stellt, aktiv zuhört und klare Entscheidungen trifft, führt sowohl Menschen als auch Maschinen besser (Weidmann, Xu & Deming, 2025). Delegieren, koordinieren, Feedback geben, das macht Malcolm seit Jahren.
Wenn ich Malcolm in meinen Workshops sehe, sage ich ihm gerne: Du bist besser vorbereitet als du denkst. Deine Fähigkeit, Ziele klar zu formulieren und den richtigen Kontext zu liefern, ist gutes Prompt/Context Engineering. Und deine Erfahrung im Delegieren ist genau das, was es braucht, um KI-Agenten erfolgreich zu steuern. Es braucht dafür keine teuren Berater von außen, die erklären, wie man KI "strategisch einsetzt." Was Malcolm fehlt, ist nicht die Grundkompetenz, sondern das spezifische Wissen. Was können diese Systeme, was nicht? Wie bewertet man KI-unterstützte Ergebnisse? Wie führt man ein Team, in dem Mensch und Maschine zusammenarbeiten? Und genau deshalb ist Malcolm so wichtig. Er ist die Person, die die Martinas aus dem Schatten holen kann. Er kann ihnen die nötigen Fähigkeiten an die Hand geben, den sicheren Rahmen schaffen und das, was er seit Jahren trainiert (delegieren, koordinieren, Feedback geben), auf die Arbeit mit generativer und agentischer KI übersetzen.
Der Adaptation Gap ist hier am deutlichsten sichtbar: in der Kluft zwischen dem, was von Malcolm erwartet wird, und dem, was ihm an Unterstützung zur Verfügung steht. Doch Malcolm ist nicht der Einzige, der nach Orientierung sucht. Eine Etage höher sitzt jemand, der ihn eigentlich ausstatten müsste.
Franz Führung: Viel investiert, wenig transformiert
Franz ist Geschäftsführer. Mittelständisches Unternehmen, 250 Mitarbeitende. Er hat die Keynotes gehört, die neuesten Studien gelesen, und er weiß: An KI führt kein Weg vorbei. Also handelt er. Er kauft Lizenzen für Copilot oder ChatGPT. Er genehmigt ein Pilotprojekt. Er bucht Workshops für seine Belegschaft. Er tut, was ein verantwortungsvoller Geschäftsführer in seiner Position tun sollte: Er investiert.
Franz ist die Person, die mich seit Jahren anruft. Und die Franz’ die das bis jetzt getan haben, gehören sicherlich zu den Early Adopters (Rogers, 1962) – zu den Vorreitern dieser Veränderung. (Hier ein Dankeschön an euch!)
Doch Franz ruft mich nicht nur an, weil er auf einer Konferenz war. Er ruft mich an, weil die Martinas und Malcolms auch an ihn herantreten. Die Innovation kommt von unten. Franz merkt das und er merkt auch, dass diese Technologie anders ist als alles, was vorher kam. Also holt er mich. Er braucht jemanden, der seine Leute motiviert, Ängste nimmt und Lust auf Veränderung macht. Er braucht einen Barden (danke Stefan für die passende Beschreibung) jemand, der die Botschaft ins Unternehmen trägt.
Doch ein Barde mit seinen Workshops und Vorträgen verändert keine Organisation allein. Ich habe in der letzten Ausgabe geschrieben, was meine Workshops bringen und sie sind definitiv sinnvoll. Aber der eigentliche Trugschluss liegt woanders: Franz hofft, dass aus vielen kleinen Experimenten irgendwann Transformation herauswächst. Dass, wenn genug Einzelinitiativen entstehen, das Große von selbst folgt. Diese Strategie führt selten zu signifikanten Ergebnissen (Ng, 2026). Und sie ist teuer. Lizenzen für Copilot oder ChatGPT kosten viel Geld pro Monat. Wenn diese Lizenzen genutzt werden, um Meetings zusammenzufassen und E-Mails umzuformulieren, dann ist das kein Return on AI Investment (ROAI). Das ist eine Spende an Microsoft oder OpenAI. Was stattdessen nötig ist, sind Workflows end-to-end neu denken, ganze Prozesse redesignen und dafür braucht es eine strategische Perspektive von oben.
Denn Verhalten ändert sich nicht durch Vorträge, sondern durch Anreize, durch Systeme, durch eine Führung, die nicht fragt „Wie setzen wir KI ein?”, sondern „Wie schaffen wir die Rahmenbedingungen, damit KI-Adoption wirklich gelingt?” (Snyder & Hreha, 2025).
Franz macht vieles richtig. Er investiert, er hört zu, er handelt. Aber zwischen Sensibilisierung und echter Transformation liegt ein Weg, den die meisten Unternehmen noch nicht gegangen sind. Ich habe jedoch bereits Menschen kennengelernt, die zeigen, wie es gehen kann.
Peter Plan und die Kunst der Umsetzung
Peter ist eine Mischung aus den Martinas, den Malcolms und den Franzes, die ich in den letzten Jahren kennengelernt habe, die in meinen Augen auf dem richtigen Weg sind, diese digitale Transformation in ihren Organisationen wirklich umzusetzen. (Oder einfach tolle Ideen hatten, die ich gerne mit euch teilen möchte.)
Doch warum überhaupt? Die ehrliche Antwort ist, weil die Alternative teurer ist. Wenn Martina und Malcolm keine Rahmenbedingungen bekommen, gehen sie nicht zurück zur alten Arbeitsweise. Sie gehen. Die talentiertesten Mitarbeitenden, die, die schon heute mit KI experimentieren und Ergebnisse erzielen, sind genau die, die am Arbeitsmarkt am gefragtesten sind. Es sind die, die irgendwann vielleicht ihr eigenes Ding machen. Erinnern wir uns an Sam Altmans Wette zum ersten Ein-Person-Milliarden-Dollar-Unternehmen. Das werden nicht die Leute gründen, die nie mit KI gearbeitet haben. Wer die Transformation nicht aktiv gestaltet, verliert also nicht nur Effizienz. Er verliert Innovationskraft, Geschwindigkeit, Sicherheit und am Ende die besten Leute. Was also tun?
Spielregeln definieren
Als Erstens hat Peter damit angefangen, KI-Richtlinien zu definieren. Was darf man, was darf man nicht, wo sind die Grenzen, wo die Freiräume. In Organisationen, in denen die KI-Strategie klar kommuniziert wurde, berichten 92% der Mitarbeitenden von positiver Produktivitätswirkung (EY, 2025b). Die gute Nachricht ist, dass man das Rad nicht neu erfinden muss. Die Wirtschaftskammer Österreich hat ausgezeichnete kostenlose Vorlagen und Guidelines veröffentlicht, die als Ausgangspunkt dienen. Die schlechte Nachricht: Eine Richtlinie allein reicht nicht. Sie muss gelebt werden und auch aktualisiert werden. Nicht einmal im Jahr, sondern laufend. Und vor allem muss sie klar kommuniziert werden.
Klare Kommunikation
Die Richtlinien sollten jedoch nicht nur Spielregeln sein, sondern auch eine klare Kommunikation beinhalten, was das Ziel der KI-Strategie ist. Und hier lohnt sich ein Punkt, der in meinen Augen noch immer zu selten klar ausgesprochen wird: Augmentation vor Automation.
Automation heißt: Das KI-System übernimmt eine Aufgabe komplett, ohne menschliche Beteiligung. Das Ziel ist Kostenreduktion. Die Implikation ist Jobverlust. Augmentation heißt: Mensch und KI arbeiten zusammen. Das Ziel ist, menschliche Leistung zu verbessern. Die Implikation ist nicht weniger Arbeit, sondern andere Arbeit. Bessere Entscheidungen, mehr Zeit für Komplexes, weniger Wiederholung.
Und das ist kein Entweder-oder. Beides kann in derselben Organisation koexistieren. Die repetitiven, strukturierten Aufgaben werden automatisiert. Die komplexen, kontextabhängigen Aufgaben werden augmentiert. Automation ersetzt menschliche Rollen, Augmentation unterstützt sie (Nguyen & Elbanna, 2025). Und ja, Augmentation kann langfristig zu Automation führen. Wenn Mensch und KI heute zusammenarbeiten, werden manche dieser Aufgaben in ein paar Jahren vollständig automatisierbar sein. Das ist kein Geheimnis und es wäre unehrlich, so zu tun als ob nicht. Aber genau das ist das Argument für Augmentation jetzt. Sie gibt Organisationen die Zeit, ihre Mitarbeitenden weiterzuentwickeln. Die gewonnene Zeit nicht nur für mehr Output zu nutzen, sondern die Martinas und Malcolms zu schulen, neue Kompetenzen aufzubauen, Menschen in Rollen zu bewegen, die auch in drei Jahren noch relevant sind. Der aktuelle Arbeitsklima Index der Arbeiterkammer Oberösterreich (2026), der gestern erschienen ist, zeigt: 89% der Beschäftigten, die mit ihren Weiterbildungsmöglichkeiten zufrieden sind, sind auch mit ihrer beruflichen Tätigkeit zufrieden!
Die Unternehmen, bei denen das funktioniert hat, haben ihre Mitarbeitenden gefragt: Welche Aufgabe nervt euch am meisten? Welcher Prozess kostet euch die meiste Zeit bei geringstem Mehrwert? Und dann haben sie genau dort angesetzt. Die Leute hatten plötzlich mehr Zeit für ihre Kernaufgaben. Für die Arbeit, die sie eigentlich machen wollten, als sie sich für diesen Job beworben haben. Das ist der Unterschied zwischen Automation, die Angst macht, und Augmentation, die Freiräume schafft.
Denn wer KI ausschließlich als Sparmaßnahme kommuniziert, zerstört genau das Vertrauen, das er braucht, damit die Martinas aus dem Schatten kommen und ihre Innovationen teilen. Wer Augmentation als Zwischenschritt zur Automation versteht und das offen kommuniziert, schafft Vertrauen. Wer es verschweigt, bestätigt genau die Befürchtungen der Martinas.
Doch Mitarbeitende werden nicht durch abstrakte Aussagen über Effizienzgewinne oder Kostensenkung motiviert. Menschen brauchen ein konkretes, greifbares Bild davon, wie die Zukunft aussieht, damit sie sich mit den Zielen ihrer Organisation identifizieren. Wie wird sich eure Arbeit verändern? Wofür werdet ihr mehr Zeit haben? Wird Effizienz in Stellenabbau übersetzt, oder in Wachstum? Wie wird KI-Nutzung belohnt? Visionen wie “Effizienzsteigerung” oder “digitale Transformation” bleiben wirkungslos, wenn Mitarbeitende nicht sehen können, wie sich ihr Arbeitsalltag dadurch verändert (Carton, 2018). Man muss nicht alle Antworten haben. Aber man muss eine Richtung zeigen, an der man arbeitet, und bereit sein, sie zu teilen. Mitarbeitende warten auf Orientierung.
Ressourcen bereitstellen: Trainieren, Üben, Lernen
Die Spielregeln sind das Fundament. Aber Spielregeln allein machen noch kein Spiel. Dafür braucht es Training. Und dafür brauchen sie Ressourcen, echte Möglichkeiten, zu trainieren, zu üben, Fehler zu machen, besser zu werden. Die Unternehmen, die ich gesehen habe und die es richtig machen, haben das auf mehreren Ebenen gleichzeitig angegangen.
Sie haben Promptathons veranstaltet, also Formate, bei denen Teams zusammensitzen und gemeinsam Prompts schreiben, Use Cases finden, ausprobieren.
Sie haben Prompt Libraries erstellt, also wirklich für verschiedene Unternehmensbereiche verschiedene Prompts und verschiedene Anwendungsfälle gesammelt und zugänglich gemacht (gibt es ansonsten auch kostenlos hier & hier)
Sie haben Kurse und Self-paced Learning angeboten, damit Mitarbeitende in ihrem eigenen Tempo lernen können, wann es für sie passt, nicht wann es in den Kalender der Personalabteilung passt (gibt es kostenlos auch hier & hier).
Sie haben interne Landing Pages gebaut, auf denen alle Informationen über die KI-Strategie, die Tools, die Richtlinien und die Ansprechpersonen an einem Ort stehen.
Sie haben Key User identifiziert. Das sind die Leute, die sich das Thema zu Herzen nehmen, die von innen kommen, die die Prozesse kennen, die die Sprache der Abteilung sprechen eben “KI-Champions”. Was diese Champions tun, ist genau das, was Organisationen brauchen. Sie identifizieren KI-Einsatzmöglichkeiten in ihrer Abteilung, demonstrieren den Mehrwert gegenüber Kolleginnen und Kollegen, bilden sich eigenständig weiter und befähigen andere im Team (Writer & Workplace Intelligence, 2025). Solche KI Champions müssen also keine externen Berater sein. Dieses Wissen kommt aus dem Unternehmen und soll aus dem Unternehmen gefördert werden.
Vorleben und Sicherheit schaffen
Doch ein Spielfeld mit Regeln und Trainingsmöglichkeiten nützt wenig, wenn niemand den ersten Schritt macht. Und der erste Schritt muss von oben kommen.
Führungskräfte, die diese Tools nicht nur verordnen, sondern selbst damit arbeiten. Die offen darüber sprechen, wo sie scheitern und was funktioniert, die Schwächen und Stärken am eigenen Leib erfahren statt sie theoretisch zu verstehen. Wer eine KI-Transformation anführen will, muss die Technologie selbst genutzt haben. Mitarbeitende, die darauf vertrauen, dass ihre Führungskräfte KI-Tools kompetent einsetzen, erzielen messbar bessere Ergebnisse in der eigenen KI-Nutzung (EY, 2025b).
Aber Vorleben allein reicht nicht. Es braucht einen Rahmen, in dem auch alle anderen sich trauen. Der treffende Begriff dafür ist: Psychological Safety. Es ist die geteilte Überzeugung in einem Team, dass es sicher ist, zwischenmenschliche Risiken einzugehen (Edmondson, 1999). Konkret bedeutet das: Fragen stellen, Fehler zugeben, eine andere Meinung äußern, ohne dafür bestraft oder lächerlich gemacht zu werden. Edmondsons Forschung zeigt, dass psychologische Sicherheit der stärkste Treiber für Lernverhalten in Teams ist. Denn nur wenn die Leute offen über ihre Erfahrungen sprechen, kann die Organisation als Ganzes lernen. Und genau hier schließt sich der Kreis zu den Martinas. Mitarbeitende haben vielleicht eine einschüchternde Compliance-Rede gehört und wollen kein Risiko eingehen. Oder sie werden für ihre Ergebnisse gefeiert und befürchten, dass der Respekt verschwindet (siehe oben), wenn bekannt wird, dass KI geholfen hat. Oder sie wissen, dass Produktivitätsgewinne als Gelegenheit für Stellenabbau gesehen werden (siehe oben). Oder sie vermuten, dass selbst ohne Stellenabbau die gewonnene Zeit einfach mit mehr Arbeit gefüllt wird.
Erst wenn diese Dynamik durchbrochen wird, wenn die Martinas sich trauen, ihre Prompts, ihre Workflows und ihre Ergebnisse zu teilen, können abteilungsübergreifend echte Produktivitätsgewinne entstehen. Solange das Wissen bei Einzelpersonen bleibt, skaliert nichts. Denn individuelle KI-Nutzung, die die eigene Leistung steigert, übersetzt sich nicht automatisch in bessere Ergebnisse für die Organisation. Dafür braucht es organisationale Innovation. Neue Anreize, überarbeitete Prozesse, und manchmal ein grundsätzliches Überdenken, wie Arbeit überhaupt strukturiert ist (Mollick, 2025).
Die Peters, die ich kenne, haben ein ausgezeichnetes Repertoire an Möglichkeiten aufgebaut, um diese Transformation zu meistern. Doch es gibt ein paar Dinge, die ich in der Praxis noch zu selten oder gar nicht gesehen habe und die ich mir wünschen würde.
Marcos Wunschliste
Neue Incentives
Ken Blanchard hat es treffend formuliert: Der schnellste Weg, Verhalten zu ändern, ist, das gewünschte Verhalten zu belohnen. Und trotzdem gibt es in den meisten Unternehmen, die ich kenne, keine messbaren Anreize für Mitarbeitende, die KI-Use-Cases entwickeln, die dem Unternehmen nachweislich Zeit oder Geld sparen. Kein strukturiertes Programm, keine definierte Belohnung. Die Performance-Metriken in den meisten Unternehmen ignorieren KI komplett. Ohne Incentives bleibt KI für Mitarbeitende entweder Zusatzarbeit oder eine Bedrohung für den eigenen Job (Snyder, 2026).
Was ich mir stattdessen wünschen würde: Ein Use Case, der nach klaren Kriterien validiert wird. Abteilungsübergreifend skalierbar, messbare Zeitersparnis, regelkonform. Belohnt mit etwas Echtem, wie mehr Geld oder zusätzlichen Urlaubstagen. Snyder (2026) schlägt hier ein Gain-Sharing-Modell vor: Wer vier Stunden pro Woche einspart (also rund 200 Stunden im Jahr), bekommt einen Teil davon zurück, zum Beispiel 50 Stunden, um in KI-Experimente oder Weiterbildung zu investieren. Das löst gleich zwei Probleme: Die Mitarbeitenden haben einen Grund, ihre Effizienzgewinne zu melden, und das Unternehmen kann den Rest der gewonnenen Zeit tatsächlich nutzen. Statt heimlicher Produktivität entsteht ein Kreislauf aus Transparenz und Innovation.
Klingt utopisch? Ist es nicht. Microsoft vergibt bereits AI-Compute-Credits an Teams, die neue KI-Lösungen erfolgreich pilotieren. JP Morgan setzt auf sogenannte AI Innovation Tokens, die in Budgets für künftige Innovationsprojekte oder Weiterbildung umgewandelt werden können (Snyder, 2026). IBM belohnt Mitarbeitende mit Blue Points, Walmart vergibt Geldprämien für Mitarbeitende, die neue KI-Innovationen identifizieren und implementieren (Snyder, 2026). Die Modelle existieren. Man muss nur wollen. Aber Achtung: Incentives nur für eine kleine Gruppe von KI-Champions einzuführen kann nach hinten losgehen. Wenn nur die Power User belohnt werden, steigen alle anderen aus. Incentives müssen für die gesamte Belegschaft zugänglich sein, und auch das Mentoring und Weitergeben von Wissen belohnen.
Messen, aber richtig
Richtig messen heißt für mich auch, auf qualitative Indikatoren zu schauen. Qualitative Indikatoren sind die weichen Signale, die zeigen, ob eine Veränderung tatsächlich im Arbeitsalltag ankommt. Nutzen die Leute die Tools überhaupt? Wie oft, wo, und wofür? Welche Use Cases entstehen organisch aus den Teams heraus, ohne dass jemand sie angeordnet hat? Wie verändert sich die Zusammenarbeit? Steigt die Bereitschaft, mit neuen Workflows zu experimentieren? Das sind die Fragen, die am Anfang zählen.
Natürlich gehören auch “harte” Zahlen wie Effizienzgewinne, Produktivitätssteigerungen und Kosteneinsparungen zum Gesamtbild. Aber sie sind nicht das ganze Bild, und vor allem sind sie nicht das erste, was man messen sollte. Der Erfolg eines Pilotprojekts lässt sich selten in sechs Monaten beurteilen (Snyder, 2026). Gerade am Anfang geht es darum, Nutzungsmuster zu verstehen, bevor man harte KPIs definiert. Dafür braucht es vor allem eines: Zeit. Snyder (2026) nennt das die Grace Period. Das ist eine Phase von sechs bis zwölf Monaten, in der Mitarbeitende ihren Komfort mit KI aufbauen können, bevor sie sich auf konkrete Leistungsziele festlegen müssen. Erst experimentieren, dann messen.
Die konkreten Kennzahlen, die Snyder (2026) für die verschiedenen Ebenen vorschlägt, ergeben dabei ein sinnvolles Gesamtbild. Auf individueller Ebene zählen KI-Readiness relativ zur Rolle, KI-Zertifizierungen, Beteiligung an neuen KI-Anwendungen und die resultierenden Geschäftsergebnisse. Auf Führungsebene empfiehlt er Metriken wie die Anzahl der Mitarbeitenden, die KI aktiv nutzen, die KI-Readiness der Organisation in Bezug auf Skills und Mindset, die Anzahl der Experimente und Piloten, die zu implementierten Lösungen führen, sowie den Business Impact der KI-Initiativen. Und, ganz wesentlich: die persönliche KI-Readiness der Führungskraft selbst. Wer KI verordnet, aber nicht selbst nutzt, verliert an Glaubwürdigkeit.
Snyder (2026) empfiehlt, regelmäßig Umfragen und Adoptionsdaten zu erheben und die Programme iterativ anzupassen - Zuhören, beobachten, lernen, justieren und dann erst bewerten. Wie so ein regelmäßiges Messen in der Praxis aussehen kann, zeigt OTTO, einer der größten europäischen Online-Händler. Im Zuge seiner digitalen Transformation hat OTTO ein kontinuierliches Feedback-System namens “Digital Heartbeat” aufgebaut (van Giffen et al., 2026). Alle zwei Wochen beantworten die Mitarbeitenden acht bis neun kurze Fragen zu Themen wie Zusammenarbeit, Arbeitsbelastung, Klarheit über Ziele und Stimmung im Team. Nicht einmal im Jahr, sondern laufend. So sehen Führungskräfte Probleme, bevor sie eskalieren. Abteilungen, die die Ergebnisse regelmäßig im Team besprochen, daraus Maßnahmen abgeleitet und Fortschritte sichtbar gemacht haben, bewältigten Veränderungsphasen deutlich besser.

Jetzt ist die Zeit, diese Modelle auszuprobieren. Die ersten Fehler wurden gemacht, die Limitationen sind bekannt(er). Aber Second-Mover-Advantage funktioniert nur, wenn man sich tatsächlich bewegt. Abwarten ist eine Strategie. Abwarten und nichts tun ist Stillstand mit intellektuellem Alibi (danke Claude für diesen tollen Satz). Die Fehler der anderen beobachtet zu haben bringt genau null, wenn man die Erkenntnisse nicht umsetzt. Ich starte dieses Jahr mein Doktorat und werde genau dort ansetzen, wo dieser Newsletter aufhört. Wie schließen Organisationen im DACH-Raum diese entstehende Lücke? Was brauchen die Martinas, Malcolms und Franzs wirklich, um diese Transformation nicht nur zu überleben, sondern aktiv zu gestalten?
Die Technologie sprintet. Organisationen schlendern. Die Frage ist, wann aus dem Schlendern ein Laufen wird. Und ob der Abstand irgendwann so groß ist, dass Laufen nicht mehr reicht.
Marco ☀️
PS: Es fehlt noch eine Person in dieser Geschichte. Ludwig Lehrling (oder Sabine Schülerin), der gerade seine Ausbildung macht und in eine Arbeitswelt eintritt, die sich schneller verändert als jeder Lehrplan. Aber das ist eine Geschichte für die nächste Ausgabe.
Referenzen
Accenture. (2025, 26. Juni). Europe’s AI reckoning: Reinventing industries for a new era. https://www.accenture.com/gb-en/insights/data-ai/europes-ai-reckoning
Arbeiterkammer Oberösterreich. (2026, 19. Februar). Der Arbeitsklima Index zeigt: Weiterbildung ist wesentlicher Faktor für Arbeitszufriedenheit! https://ooe.arbeiterkammer.at/beratung/arbeitundgesundheit/arbeitsklima/arbeitsklima_index/Weiterbildung-macht-zufrieden.html
Blanchard, K. (2009). Who killed change? Solving the mystery of leading people through change. William Morrow.
Carton, A. M. (2018). "I'm not mopping the floors, I'm putting a man on the moon": How NASA leaders enhanced the meaningfulness of work by changing the meaning of work. Administrative Science Quarterly, 63(2), 323-369. https://doi.org/10.1177/0001839217713748
Celiktutan, B., Klesse, A.-K., & Tuk, M. A. (2024). Acceptability lies in the eye of the beholder: Self-other biases in GenAI collaborations. International Journal of Research in Marketing. Advance online publication. https://doi.org/10.1016/j.ijresmar.2024.05.006
Deloitte. (2026). The state of AI in the enterprise (8. Ausg.). https://www.deloitte.com/us/en/what-we-do/capabilities/applied-artificial-intelligence/content/state-of-ai-in-the-enterprise.html
Edmondson, A. (1999). Psychological safety and learning behavior in work teams. Administrative Science Quarterly, 44(2), 350–383. https://doi.org/10.2307/2666999
EY. (2025a). EY US Agentic AI Workplace Survey Report. Ernst & Young. https://www.ey.com/content/dam/ey-unified-site/ey-com/en-us/noindex/documents/ey-us-agentic-ai-workplace-survey-report.pdf
EY. (2025b). EY Work Reimagined Survey 2025. Ernst & Young. https://www.ey.com/en_gl/insights/workforce/work-reimagined-survey
Gallup; Walton Family Foundation. (2025). Teaching for Tomorrow: Unlocking Six Weeks a Year With AI. Gallup; Walton Family Foundation. https://www.gallup.com/analytics/659819/k-12-teacher-research.aspx
Kane, G. C. (2017, 18. September). Digital disruption is a people problem. MIT Sloan Management Review.https://sloanreview.mit.edu/article/digital-disruption-is-a-people-problem/
McKinsey & Company. (2025, 3. Juni). The future of work is agentic. https://www.mckinsey.com/capabilities/people-and-organizational-performance/our-insights/the-future-of-work-is-agentic
McKinsey & Company. (2025, 5. November). The state of AI in 2025: Agents, innovation, and transformation. https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai
Millet, K., Buehler, F., Du, G., & Kokkoris, M. D. (2023). Defending humankind: Anthropocentric bias in the appreciation of AI art. Computers in Human Behavior, 143, 107707. https://doi.org/10.1016/j.chb.2023.107707
Mollick, E. (2026, 27. Januar). Management as AI superpower. One Useful Thing.
Mollick, E. (2025, 6. Februar). Making AI work: Leadership lab and making AI stick. One Useful Thing.
Ng, A. (2026, 23. Januar). From AI experiments to AI products. The Batch. DeepLearning.AI. https://www.deeplearning.ai/the-batch/from-ai-experiments-to-ai-products/
Nguyen, T. H., & Elbanna, A. (2025). Augmentation or automation? An integrative review of AI’s dual impact on the workforce. Information Systems Frontiers. Advance online publication. https://doi.org/10.1007/s10796-025-10591-5
Ohanian, A. [@alexisohanian]. (2024, 31. Januar). A decade ago we would’ve thought a single-person-company had no chance… [Video]. X.
OpenAI. (2026). Ending the capability overhang. https://cdn.openai.com/pdf/openai-ending-the-capability-overhang.pdf
Reif J.A., R.P. Larrick, & J.B. Soll, Evidence of a social evaluation penalty for using AI, Proc. Natl. Acad. Sci. U.S.A. 122 (19) e2426766122, https://doi.org/10.1073/pnas.2426766122 (2025).
Raj, M., Berg, J. M., & Seamans, R. (2026). The artificial intelligence disclosure penalty: Humans persistently devalue AI-generated creative writing. Journal of Experimental Psychology: General. Advance online publication. https://doi.org/10.1037/xge0001889
Ranganathan, A., & Ye, S. (2026, Februar). AI doesn’t reduce work — it intensifies it. Harvard Business Review.https://hbr.org/2026/02/ai-doesnt-reduce-work-it-intensifies-it
Rogers, E. M. (1962). Diffusion of innovations. Free Press.
Snyder, S. A. (2026). How can companies incentivize AI adoption? Knowledge at Wharton.https://knowledge.wharton.upenn.edu/article/how-can-companies-incentivize-ai-adoption/
Snyder, S. A., & Hreha, J. (2025, 21. Januar). Real AI adoption means changing human behavior. Knowledge at Wharton. https://knowledge.wharton.upenn.edu/article/real-ai-adoption-means-changing-human-behavior/
The Economist. (2025, 11. August). How AI could create the first one-person unicorn. The Economist.https://www.economist.com/business/2025/08/11/how-ai-could-create-the-first-one-person-unicorn
van Giffen, B., Müller-Wünsch, M., Stalgies, Y., Peppard, J., & Brenner, W. (2026). Continuous feedback for data-driven organisational change: Implementing OTTO’s Digital Heartbeat. Information Systems Journal, 0, 1–19. https://doi.org/10.1111/isj.70032
WalkMe. (2025, 27. August). Employees left behind in workplace AI boom: AI in the Workplace Survey 2025.https://www.globenewswire.com/news-release/2025/08/27/3140046/0/en/Employees-Left-Behind-in-Workplace-AI-Boom-New-WalkMe-Survey-Finds.html
Weidmann, B., Xu, Y., & Deming, D. J. (2025). Measuring human leadership skills with AI agents (NBER Working Paper No. 33662). National Bureau of Economic Research. https://www.nber.org/papers/w33662
Writer & Workplace Intelligence. (2025). The state of generative AI in the enterprise: 2025 adoption survey.https://go.writer.com/hubfs/pdfs/generative-ai-adoption-enterprise-survey-writer-com.pdf



So was auf den Punkt gebracht-kann deine Ausführungen 100% nachvollziehen.
Weiter so Marco!
hG Hans