
Mit der Adoption-Thematik beschäftigen wir uns hier auf der Shift/Work-Plattform und den zugehörigen Events schon mehr als 15 Jahre. Enterprise 2.0, SharePoint, Teams — jede Welle hatte ihren Moment, in dem dieselbe Grundfrage auftauchte: Wie bringen wir das neue Werkzeug dauerhaft in den Arbeitsalltag, verbessern damit die Zusammenarbeit und verändern die Arbeitsorganisation wirklich? Die Antworten waren immer ähnlich: systematische individuelle Befähigung, Sinnstiftung im Team und in der Führung, skalierte Verbreitung über Multiplikatoren-Programme.
Jetzt heißt die Technologie KI oder bereits Agentic AI, und die Frage ist wieder dieselbe. Die bekannten Muster scheinen weiterhin sinnvoll. Aber eben nicht vollständig: Denn KI bringt eine eigene Dynamik mit, die die Schwerpunkte im bisherigen Playbook verschiebt. In diesem Beitrag versuchen wir, an das Bisherige anzuknüpfen und die Besonderheit der KI-Adoption herauszuarbeiten.
Was ist KI-Adoption?
KI-Adoption bezeichnet den Prozess, mit dem Organisationen generative KI und KI-gestützte Systeme dauerhaft in ihre Arbeitsweisen integrieren: technisch, organisatorisch und kulturell. Der Begriff Adoption stammt aus der Change-Forschung. Das ADKAR-Modell von Prosci definiert Adoption als den Punkt, an dem ein neues Werkzeug dauerhaft in den Arbeitsalltag übergegangen ist — angewendet ohne darüber nachzudenken. Bei früheren Digitalisierungswellen war das ein erreichbarer Zustand mit einem erkennbaren Endpunkt.
KI hat diesen Endpunkt nicht. Adoption ist bei KI kein abzuschließender Projektzustand, sondern ein kontinuierlicher Reifeprozess. Modelle entwickeln sich laufend weiter, Anwendungsfälle entstehen schneller als Governance-Regeln folgen können, und die Grenze zwischen assistierender und agentischer KI verschiebt sich fortlaufend. Diese Offenheit ist kein temporäres Merkmal der frühen Adoptionsphase. Sie ist strukturell.
Drei Begriffe werden in der Praxis häufig verwechselt:
- KI-Einführung (Deployment) bedeutet: Lizenzen aktiv, Tool technisch verfügbar. Adoption hat noch nicht begonnen.
- KI-Training bedeutet: Grundfunktionen bekannt, Schulung abgeschlossen. Notwendig, aber nicht hinreichend für echte Integration.
- KI-Adoption bedeutet: KI dauerhaft in reale Arbeitsprozesse integriert, kollektiv und mit wachsender organisationaler Reife. Das ist das eigentliche Ziel.
Ein Blick auf die drei großen Digitalisierungswellen macht greifbar, was sich konkret verschoben hat:
| MS Office / M365 | Microsoft Teams | KI (Copilot & Co.) | |
|---|---|---|---|
| Welle | 2010–2020 | 2020–2022 | 2024/25 ff. |
| Adoptions-Track | Technology → DEX | Collaboration → Empowerment | Alle drei gleichzeitig |
| Zielbild | Stabil, klar definierbar | Stabil nach Covid-Schub | Dynamisch, nie vollständig |
| Lernlogik | Training → Nutzung | Rollout + Enablement | Exploration → Reifeprozess |
| Kultureller Aufwand | Mittel (Digital Hygiene) | Hoch (Mindset, neue Normen) | Sehr hoch — kulturelle Reife als Voraussetzung |
| Governance | IT (Lizenzen, Berechtigungen) | IT + HR (Guidelines) | IT + HR + Compliance + Führung |
| Verstärker-Effekt | Chaos bleibt Chaos | Silos bleiben Silos | Fehlende Basis → Workslop + Transformational Debt |
Die entscheidende Verschiebung liegt im Zielbild und in der Lernlogik. Jede frühere Welle hatte einen Endpunkt: eine Nutzungsweise die als vollständig adoptiert galt, und eine Schulungs- wie auch Veränderungsmanagementlogik die darauf hinführte. KI hat beides nicht. Das ist kein gradueller Unterschied. Es verändert die gesamte Adoptionslogik.
Was KI von allen Vorgängerwerkzeugen darüber hinaus unterscheidet: KI ist das erste weitverbreitete Werkzeug, das direkt in den Prozess eingreift, durch den Menschen Wissen erwerben, beurteilen und teilen. Frühere Digitalisierungswellen haben Abläufe verändert. KI verändert Kognitionsprozesse. Das ist der Grund, warum bekannte Adoptionsstrategien an einem spezifischen Punkt versagen — und warum wir die Fragestellung auf drei Ebenen aufspannen müssen.
Die individuelle Ebene: Personal Knowledge Mastery unter KI-Bedingungen
Das Konzept der Personal Knowledge Mastery (PKM) ist in der Shift/Work-Community seit den Enterprise-2.0-Debatten bekannt. Harold Jarche hat das Seek-Sense-Share-Modell als Beschreibung entwickelt, wie Wissensarbeiter in vernetzten Umgebungen kontinuierlich lernen: gezielt suchen und filtern (Seek), einordnen, bewerten und Zusammenhänge herstellen (Sense), Erkenntnisse sichtbar machen und zurückgeben (Share). In Kombination erzeugen diese drei Schritte individuelle Lernfähigkeit in einem sich verändernden Umfeld.
KI greift massiv in den Seek-Schritt ein. Recherche, Zusammenfassung, Informationssynthese: Das übernehmen Sprachmodelle schneller und vollständiger als jede manuelle Suche. Was früher Zeit und Urteilsvermögen beim Filtern erforderte, liefert KI auf Anfrage. Das klingt nach einem Gewinn. Es ist einer. Gleichzeitig ist es eine Falle für Organisationen, die Adoption ausschließlich als Seek-Optimierung verstehen.
Was diese Falle besonders tückisch macht, ist die Designlogik konversationeller KI-Systeme. Sie sind darauf ausgelegt, den Turing-Test in jeder Interaktion zu bestehen: Antworten zu generieren, die sich von einem kompetenten menschlichen Experten nicht unterscheiden lassen. Eine direkte Konsequenz dieser Logik ist, dass das System nie die Qualität der Anfrage zurückspiegelt. Es antwortet auf den wahrgenommenen Intent, nicht auf die Güte der Frage. Wer einen schlechten Prompt formuliert, bekommt eine gefällige Antwort — aber kein Signal, dass die Frage schlecht war. Das erzeugt zwei Effekte gleichzeitig: einen starken Haben-Wollen-Effekt, weil jede Interaktion sich anfühlt wie ein Gespräch mit einem kompetenten Experten, und eine falsche Reifegrad-Bestätigung, weil Nutzungsrate und Zufriedenheit gut aussehen, während echte Kompetenz ausbleibt. Sense-Kompetenz entsteht klassischerweise durch Reibung und Korrektur. Die Turing-Test-Logik konversationeller KI-Systeme entfernt genau diese Reibung strukturell.
Der kritische Schritt bleibt Sense. Ist diese Antwort richtig für meinen Kontext? Was ist die Annahme dahinter? Wo liegt die Grenze des KI-Wissens? Stimmt das Ergebnis mit dem überein, was ich aus eigener Erfahrung kenne? Das sind Urteilsleistungen, die nicht durch Prompting-Schulungen entstehen und nicht durch Nutzungsfrequenz allein wachsen. Sie entstehen durch echte Anwendung, durch Reflexion und durch den Austausch mit anderen. Die kognitionswissenschaftliche Grundlage dafür, warum KI-Konsum ohne aktive Verarbeitung wenig Lernen produziert, hat Shift/HR aufgearbeitet: Lernen durch Abrufen — was die Kognitionsforschung für L&D heute bedeutet.
Was die meisten Adoptionsstrategien ausblenden: Klassische Einführungsansätze setzen fast ausschließlich beim Seek an. Bessere Prompts, strukturierte Workflows, Feature-Schulungen. Das ist notwendig, deckt aber nur den Teil der Wissensarbeit ab, den KI ohnehin bereits übernimmt. Wer nur Seek adressiert, baut Mitarbeitende auf, die KI schnell bedienen können, aber nicht einschätzen, ob die Ergebnisse gut sind. Sense-Kompetenz entsteht nicht durch Nutzung allein. Sie entsteht durch Diskurs.
Genau dort öffnet sich die Verbindung zur nächsten Ebene. Der Share-Schritt der PKM ist nicht nur Wissensverteilung. Er ist der Mechanismus, durch den individuelle Sense-Kompetenz sichtbar und kollektiv lernbar wird.
Die kollektive Ebene: von individueller Kompetenz zu Teamlernen
Individuelle PKM summiert sich nicht automatisch zu kollektivem Lernen. Wenn jedes Teammitglied seinen eigenen KI-Assistenten optimiert, entsteht lokaler Effizienzgewinn. Was gute Prompts in welchem Kontext ergeben, welche Outputs kritisch geprüft werden sollten, was zuverlässig funktioniert und was nicht — das bleibt im Kopf einzelner Personen und sickert selten in die Organisation.
John Cutler (Dotwork) beschreibt drei Reifegrade kollektiver KI-Nutzung, die diesen Übergang strukturieren. Im ersten Modus, Pure Single-Player, wird KI individuell genutzt und Outputs bleiben beim Einzelnen. Im zweiten, Shared-Context Solo, wird individuelle KI-Arbeit sichtbar gemacht, sodass andere darauf aufbauen können. Im dritten, Multiplayer, arbeiten Teams aktiv mit geteilten Artefakten, bauen KI-Arbeit gemeinsam weiter und iterieren kollektiv. Der Sprung von Stufe eins zu drei passiert nicht durch mehr Tools. Er passiert durch geteilte Artefakte und einen gemeinsamen Diskurs über die Qualität von KI-Outputs. Mehr dazu in Quergelesen #001 — Was kollektive digitale Arbeit noch ausbremst.
Was diesen Diskurs erst möglich macht, ist psychologische Sicherheit. Amy Edmondsons Forschung zu High-Performance-Teams belegt: Teams, die Fehler offen benennen und Fragen stellen können, lernen messbar schneller als Teams unter Bewertungsdruck. Unter KI-Bedingungen bekommt das eine spezifische Bedeutung. Traut sich jemand zu zeigen, dass sein KI-Output schwach war? Kann man einen misslungenen Prompt als Lernmoment in die Gruppe einbringen, ohne als inkompetent zu gelten? Entsteht ein Gespräch über die Güte von KI-Ergebnissen — oder bleibt jeder mit seinen Outputs allein?
Dieser Qualitätsdialog ist der Mechanismus, durch den individuelle Sense-Kompetenz zur kollektiven Intelligenz wird. Er ist auch der Mechanismus, der am häufigsten fehlt. Nicht weil Teams ihn nicht wollen, sondern weil die Bedingungen dafür nicht geschaffen werden. Führung, die diesen Dialog aktiv einlädt und modelliert, ist eine der zentralen Adoptionsaufgaben der KI-Ära.
Wie das in der Praxis skaliert, hat Pearson demonstriert: 400 AI Ambassadors in zwölf Monaten, aufgebaut über ein Community-Modell, das dezentrale Experimente sichtbar macht. Aus Einzelanwendern wurden Multiplikatoren, aus individuellen Experimenten kollektive Lernpfade. Das ist der Share-Schritt der PKM auf Organisationsebene. Er funktionierte, weil eine Infrastruktur für Sichtbarkeit und Austausch vorhanden war.
Die organisationale Ebene: Bedingungen schaffen statt Tools deployen
Weder individuelle PKM noch kollektives Lernen entstehen in einem organisationalen Vakuum. Beide brauchen Bedingungen, die Organisationen aktiv schaffen müssen. Das ist die Verschiebung, die sich gegenüber früheren Adoptionswellen am stärksten bemerkbar macht: Die Verantwortung für Rahmenbedingungen liegt höher als je zuvor, und sie liegt nicht allein bei IT oder HR.
Dr. Andreas Stiehler (WorkplaceTrendRadar) beschreibt das als grundlegende Verschiebung der Adoptionslogik: KI-Reife entsteht durch echtes Experimentieren unter realen Bedingungen, nicht durch Pflichtschulungen in kontrollierten Lernumgebungen. Wer Adoption durch strukturierte Einweisung erzeugen will, denkt noch in der Logik der Software-Rollouts vergangener Jahrzehnte. KI braucht Erkundungsraum, Fehlertoleranz und Reflexionszeit. Erst unter diesen Bedingungen wächst die Sense-Kompetenz, die individuelle Nutzung von Konsum zu echtem Urteilsvermögen macht.
Cerys Hearsey (Postshift) ergänzt das mit dem Konzept kollektiver Pathways: Einzelexperimente schaffen lokalen Wert, aber erst wenn sie als verbundene Lernpfade sichtbar werden, entsteht organisationale Lernfähigkeit. Das setzt Infrastruktur voraus: Formate für Austausch, gemeinsame Artefakte, Mechanismen die Erkenntnisse übertragbar machen. Ainsleigh Walker (EcoVadis) hat beim Digital Work FORUM 2026 gezeigt, wie das konkret aussieht: Wissen wird erst nutzbar, wenn es Struktur bekommt, konkret über ein Knowledge-Champions-Modell, das dezentrale KI-Erfahrungen sichtbar und teilbar macht.
Wie sich dieselbe Frage für Corporate Learning und L&D-Funktionen stellt, zeigt Shift/HR: KI im Corporate Learning — was wir wissen und welche Fragen noch offen sind. Für Shift/Work-Kontexte stellt sich die analoge Frage auf Teamebene: Wer gestaltet die Bedingungen, unter denen kollektives Lernen mit KI entsteht?
Exkurs: Transformational Debt
Cerys Hearsey (Postshift) hat für das Defizit, das durch schlecht vorbereitete KI-Einführungen entsteht, einen präzisen Begriff geprägt: Transformational Debt. Ähnlich wie technische Schulden akkumuliert sich dieses Defizit und wird später teurer. Es entsteht, wenn Tools eingeführt werden, ohne die Bedingungen mitzugestalten: Prozessklarheit, Datenqualität, Führungskultur, Governance-Rahmen.
Der Begriff ist analytisch nützlich, weil er das Problem bei den Bedingungen verortet und nicht bei den Personen. Wer KI deployt, ohne PKM-Praxis zu entwickeln und kollektives Lernen zu ermöglichen, häuft dieses Defizit an. Sichtbar wird es erst, wenn ausbleibende Effekte, Frustration im Team und gescheiterte Folgeprojekte sich häufen.
Fazit: Drei Ebenen, ein Zusammenhang
KI-Adoption scheitert selten am Tool. Es scheitert daran, dass individuelle KI-Kompetenz nicht in kollektives Lernen überführt wird, und dass organisationale Bedingungen fehlen, unter denen beides entstehen kann. Die drei Ebenen hängen zusammen: Ohne Sense-Kompetenz auf der individuellen Ebene gibt es nichts Wertvolles zu teilen. Ohne Qualitätsdialog auf der kollektiven Ebene skaliert individuelle Reife nicht. Ohne Experimentierraum und kollektive Pathways auf der organisationalen Ebene bleiben beide ohne nachhaltige Wirkung.
Das ist kein vollständig neues Playbook. PKM war als Konzept schon in den Enterprise-2.0-Debatten dieser Community präsent. High-Performance-Team-Bedingungen waren in Teams-Rollouts relevant. Was sich verändert hat, ist die Gleichzeitigkeit der Anforderungen: Alle drei Ebenen müssen adressiert werden, von Anfang an und kontinuierlich, nicht sequenziell wie in früheren Wellen.
Was das auf der Kollaborationsebene konkret bedeutet, wenn individuelle KI-Kompetenz nicht auf das Team überträgt, beschreibt Der nächste Engpass der KI-Adoption liegt in der Zusammenarbeit. Den konzeptionellen Rahmen für die allgemeine Adoption-Frage liefert Was ist wichtig bei der Digital Work Adoption?. Die Shift/Work-Community verfolgt das weiter — beim Digital Work FORUM und in der täglichen Praxis.
Content Newsletter
Immer über die neuesten Beiträge informiert
- Zugang zu Freemium-Inhalten der Mediathek
- Drei Credits für Freischaltung von Premium-Inhalten
- Monatlicher Content-Newsletter mit Premium-Inhalten
- Zugang zu geschlossener Linkedin-Gruppe
- Besondere Plattform-Angebote über Shift/Work Updates
- Kostenlos für immer!
Wir legen großen Wert auf sachliche und unabhängige Beiträge. Um nachvollziehbar zu machen, unter welchen Rahmenbedingungen unsere Inhalte entstehen, geben wir folgende Hinweise:
- Partnerschaften: Vorgestellte Lösungsanbieter können Partner oder Sponsoren unserer Veranstaltungen sein. Dies beeinflusst jedoch nicht die redaktionelle Auswahl oder Bewertung im Beitrag.
- Einsatz von KI-Tools: Bei der Texterstellung und grafischen Aufbereitung unterstützen uns KI-gestützte Werkzeuge. Die inhaltlichen Aussagen beruhen auf eigener Recherche, werden redaktionell geprüft und spiegeln die fachliche Einschätzung des Autors wider.
- Quellenangaben: Externe Studien, Daten und Zitate werden transparent kenntlich gemacht und mit entsprechenden Quellen belegt.
- Aktualität: Alle Inhalte beziehen sich auf den Stand zum Zeitpunkt der Veröffentlichung. Spätere Entwicklungen können einzelne Aussagen überholen.
- Gastbeiträge und Interviews: Beiträge von externen Autorinnen und Autoren – etwa in Form von Interviews oder Gastbeiträgen – sind klar gekennzeichnet und geben die jeweilige persönliche Meinung wieder.







