Digital Workplace Blog

Human–AI–Symbiose: Die neuen Fragen der Organisationsentwicklung

image-49984

In der Vorbereitung auf den Shift/Work Smart Work & Employee Communication SUMMIT habe ich mir verschiedene Studien zur Human–AI Collaboration vorgenommen – unterstützt von meinem „digitalen Assistenten“. Mich hat interessiert, wo die Forschung heute steht: Wie weit ist unser Verständnis, wenn es um die Zusammenarbeit zwischen Mensch und KI geht? Den Einstieg bot mir die Arbeit von Nguyen & Elbann, die in ihrem Beitrag „Understanding Human–AI Augmentation in the Workplace“ einen Überblick über wissenschaftliche Erkenntnisse geben, die noch stark auf der Diskussion der Augmentation aufsetzen – also der Unterstützung menschlicher Arbeit durch den gezielten Einsatz von KI.

Doch mit dem Aufkommen von Agentic AI verschiebt sich das Thema. Wir sprechen nicht mehr nur über Systeme, die unterstützen, sondern über solche, die eigenständig agieren, priorisieren und Entscheidungen vorbereiten oder treffen. Der Mensch wird in dieser Logik zum „Governor“ – verantwortlich, aber nicht mehr in jeder Situation unmittelbar beteiligt. Genau hier entsteht ein neues Spannungsfeld: das Augmentation–Automation-Paradoxon. Je autonomer Systeme werden, desto dringlicher müssen wir klären, wie Kontrolle, Verantwortung und Vertrauen in diesem neuen Miteinander funktionieren.

Diese Entwicklung verändert Organisationen tiefgreifend. Agentic AI greift nicht nur in Prozesse ein, sondern in die Art, wie wir zusammenarbeiten, führen und lernen. Während Tools wie Microsoft Teams unsere Kommunikation strukturiert haben, bringen agentische Systeme eine neue Qualität in die Organisation: Sie handeln, sie reagieren, sie entwickeln eigene Dynamiken. Damit wird Zusammenarbeit zu einem Aushandlungsprozess – zwischen Mensch, System und Struktur.

Bevor wir aber über Lösungen sprechen, sollten wir die richtigen Fragen stellen. Und genau das möchte ich gemeinsam mit euch auf dem Smart Work & Employee Communication SUMMIT tun.

Wenn Systeme zu Kolleg:innen werden – wie müssen wir Zusammenarbeit dann denken?

In vielen der Arbeiten – etwa bei Yousefi et al. oder Dellermann et al. – wird deutlich, dass wir in eine Phase eintreten, in der KI-Systeme nicht mehr nur Werkzeuge sind, sondern Teil von Teams werden. Sie analysieren, empfehlen, entscheiden und interagieren zunehmend selbstständig. Das klingt nach Effizienzgewinn, weckt aber auch Zweifel. Denn wir alle kennen die Beispiele halluzinierender Sprachmodelle, verzerrter Datengrundlagen oder fehlerhafter Analysen – wenn Systeme auf dieser Basis Entscheidungen treffen, stellt sich die Frage: Wo bleibt die Kontrolle?

Im Kern geht es um die Robustheit von Modellen und Algorithmen – und das Vertrauen, das wir ihnen entgegenbringen. Vertrauen darf dabei nicht mit Gutgläubigkeit verwechselt werden. Es braucht klare Governance-Regeln, Überprüfbarkeit und verlässliche Guardrails. Weber et al. betonen, dass Vertrauen in KI nicht individuell, sondern organisatorisch entsteht – durch Transparenz, nachvollziehbare Feedback-Mechanismen und klare Verantwortlichkeiten. Doch je komplexer die Systeme, desto schwerer wird es, diese Transparenz aufrechtzuerhalten. In der Praxis entstehen dort, wo KI eigentlich entlasten soll, neue Unsicherheiten – weil zu viel Spielraum bleibt und die Systeme beginnen, unkontrollierbar zu werden.

Damit rückt die Frage in den Mittelpunkt, wie wir Zusammenarbeit definieren, wenn nicht mehr alle Beteiligten menschlich sind. Rollen wie AI Interaction Lead oder Team Orchestrator klingen futuristisch, markieren aber ein reales Problem: Wir wissen noch nicht, wie Verantwortlichkeit in hybriden Teams funktioniert. Wenn Entscheidungen zwischen menschlicher Intuition, algorithmischer Logik und organisatorischen Rahmenbedingungen ausgehandelt werden, verschwimmen klassische Hierarchien und Zuständigkeiten.

Ob diese neuen Arbeitsformen tatsächlich produktiver machen oder nur zusätzliche Komplexität schaffen, bleibt offen. Wie verhindern wir, dass Agenten zu Abstimmungsschleifen führen, statt die Arbeit zu vereinfachen? Welche Art von Governance brauchen wir, damit sie zu verlässlichen Kolleg:innen werden – und nicht zu Black Boxes im Alltag? Genau diese Fragen sind dann auch Gegenstand unserer ersten Diskussionsrunde auf dem Smart Work SUMMIT.

Neue Kompetenzen, neue Führung – aber auch neue Überforderung

In vielen Diskussionen zur KI-Transformation erlebe ich, dass die Faszination für Technologie oft größer ist als das Verständnis ihrer Nutzung – und der Menschen, die sie anwenden sollen. Bei der Einführung von Microsoft Teams war die Dringlichkeit klar. Bei KI ist sie diffuser – und doch wesentlich größer. Denn mit dem Aufkommen von Agentic AI verschiebt sich die Frage von ob zu wie schnell.

Nguyen & Elbann fordern dabei eine erweiterte Form der Augmentationskompetenz: die Fähigkeit, mit KI zu interagieren, sie kritisch zu hinterfragen und situativ einzubinden. Es reicht längst nicht mehr, Tools zu verstehen – man muss auch ihr Verhalten deuten und ihre Grenzen kennen. Viele Unternehmen haben darauf bereits mit Adoption- und Enablement-Programmen reagiert, die aus den Erfahrungen mit Microsoft Teams entstanden sind. Überall etabliert sind sie bislang nur dort, wo die Bedeutung von systematischem Change Management verstanden wurde. Hier muss jetzt nachgelegt werden – um Fähigkeiten zu vermitteln, die den Umgang mit Systemen ermöglichen, die nicht nur unterstützen, sondern selbstständig handeln.

Gleichzeitig entstehen in Organisationen neue Brüche. Während über die offizielle KI-Einführung noch diskutiert wird, etablieren sich im Alltag längst Schatten-KI-Anwendungen – weil SaaS-Tools überall verfügbar sind. Der Microsoft Work Trend Index 2025 beschreibt diese Kluft treffend: Viele Mitarbeitende fühlen sich von der Geschwindigkeit überrollt, während Führungskräfte glauben, der Wandel gehe zu langsam. Das Ergebnis ist ein wachsendes Spannungsfeld zwischen Technologie-Tempo und organisationaler Lernfähigkeit.

In der Praxis fehlt häufig noch das kritische Handeln. „Mach mal schnell mit KI“ ist zum Standardsatz geworden – auch dort, wo die Anwendung wenig Sinn ergibt. In Anlehnung an den neuen Begriff des AI Slop nennt Lee Bryant dieses Phänomen „Workslop“: Aktionismus ohne Einbettung in Prozesse, getrieben vom Gefühl, man müsse „etwas mit KI“ machen. Doch genau das verschärft das Automation–Augmentation-Paradoxon (Raisch & Krakowski): Je autonomer Systeme werden, desto mehr Verantwortung braucht es – nicht weniger. Führung wird damit zur Moderation zwischen Mensch und Maschine, zwischen Tempo und Reflexion.

Jetzt entscheidet sich, ob Organisationen KI als Werkzeug oder als Partner begreifen. Wer heute keine Lernräume, Reflexionszyklen und klare Verantwortlichkeiten schafft, läuft Gefahr, morgen die Kontrolle über seine eigenen Systeme zu verlieren. Wie lässt sich Orientierung geben, ohne Überforderung zu erzeugen? Wie gelingt Führung in einem Umfeld, in dem Maschinen mitentscheiden? Und wie lässt sich Vertrauen aufbauen, wenn Geschwindigkeit wichtiger scheint als Verstehen? Sei dabei, wenn wir diese Fragen auf der zweiten Diskussionsrunde beim Smart Work SUMMIT vertiefen.

Von Change zu Ko-Evolution

In den letzten Jahren haben wir viel über Change gesprochen – über Akzeptanz, Kommunikation, Befähigung. Doch mit Agentic AI stoßen klassische Change-Modelle an ihre Grenzen. Die Technologie entwickelt sich schneller, als Organisationen reagieren können. KI wird nicht eingeführt, sie entsteht – und verändert sich in Echtzeit. Damit wird Veränderung selbst zu einem kontinuierlichen Prozess. Organisationsentwicklung wird zur Ko-Evolution zwischen Mensch, System und Struktur.

Weber und Bryant beschreiben KI-Transformationen als emergent und iterativ. Ich würde sagen: Sie sind längst nicht mehr plan-, sondern nur noch begleitbar. Während Change früher auf Zielbilder und Meilensteine setzte, braucht es heute Feedback, Lernen und Anpassung im laufenden Betrieb. Die Einführung von Agentic AI verlangt, Lernfähigkeit als Organisationsprinzip zu verstehen. Dellermann spricht in diesem Zusammenhang von Hybrid Intelligence – einem Zusammenspiel, in dem Menschen und Systeme voneinander lernen und gemeinsam Wert schaffen.

Das verändert Verantwortung. Organisationen können KI nicht „fertig“ implementieren – sie müssen lernen, mit ihr zu leben: mit Fehlern, Eigenlogiken und Lernzyklen. Statt Sicherheit zu simulieren, braucht es psychologische Sicherheit: Räume, in denen Experimentieren erlaubt ist und Teams über Fehleinschätzungen sprechen, bevor sie zu Systemfehlern werden.

Jetzt geht es nicht mehr um die Frage, ob sich Organisationen verändern, sondern wie schnell sie lernen können, sich mitzuverändern. Governance darf dabei kein Bremsklotz sein, sondern muss den Rahmen schaffen, in dem Experimentieren möglich bleibt. Lernen wird damit nicht zur Maßnahme, sondern zur Überlebensstrategie. Auch dies wollen wir auf dem Smart Work & Employee Communication SUMMIT weiterdenken.

Fazit: Jetzt ist der Moment des Handelns

Die Diskussion um Agentic AI ist kein Zukunftsthema mehr – sie trifft Unternehmen heute mitten in ihren Strukturen. Es reicht nicht, auf die nächste technologische Welle zu warten. Die Systeme handeln bereits, und wer sie nicht versteht, wird von ihrer Dynamik überrollt.

Jetzt braucht es Führung, die nicht nur entscheidet, sondern moderiert. Kommunikation, die Orientierung gibt, statt zu beschwichtigen. Und Lernräume, in denen Experimentieren kein Risiko, sondern Teil der Strategie ist. Organisationen, die das begreifen, gestalten den Wandel aktiv – alle anderen werden von ihm gestaltet.

Auf dem Shift/Work Smart Work & Employee Communication SUMMIT wollen wir genau das diskutieren: Wie schaffen wir Vertrauen, Governance und Lernfähigkeit in einer Arbeitswelt, in der Agenten mitentscheiden? Wie gelingt Zusammenarbeit, wenn Mensch und System sich gegenseitig beeinflussen – und voneinander lernen müssen?

Ich freue mich auf den Austausch, die unterschiedlichen Perspektiven und die gemeinsame Suche nach Antworten auf die vielleicht wichtigste Frage unserer Zeit: Wie gestalten wir Arbeit, wenn Intelligenz plötzlich geteilt wird?


Verwendete Quellen und Referenzen

Transparenzhinweis:
Wir legen großen Wert auf sachliche und unabhängige Beiträge. Um nachvollziehbar zu machen, unter welchen Rahmenbedingungen unsere Inhalte entstehen, geben wir folgende Hinweise:
  • Partnerschaften: Vorgestellte Lösungsanbieter können Partner oder Sponsoren unserer Veranstaltungen sein. Dies beeinflusst jedoch nicht die redaktionelle Auswahl oder Bewertung im Beitrag.
  • Einsatz von KI-Tools: Bei der Texterstellung und grafischen Aufbereitung unterstützen uns KI-gestützte Werkzeuge. Die inhaltlichen Aussagen beruhen auf eigener Recherche, werden redaktionell geprüft und spiegeln die fachliche Einschätzung des Autors wider.
  • Quellenangaben: Externe Studien, Daten und Zitate werden transparent kenntlich gemacht und mit entsprechenden Quellen belegt.
  • Aktualität: Alle Inhalte beziehen sich auf den Stand zum Zeitpunkt der Veröffentlichung. Spätere Entwicklungen können einzelne Aussagen überholen.
  • Gastbeiträge und Interviews: Beiträge von externen Autorinnen und Autoren – etwa in Form von Interviews oder Gastbeiträgen – sind klar gekennzeichnet und geben die jeweilige persönliche Meinung wieder.

Suche

Themen der IOM Plattform

Hybrid & Remote Work Transformation
Digital Work & Employee Experience
Digital Work Skillset & Mindset
Adoption & Enablement
Future Management & Leadership
Digital Workplace Technologien

Aktuelle News & Eventinfos zum Wandel der Arbeit & der Organisation. Jetzt abonnieren!