Kolumne

KI reduziert Arbeit nicht – sie intensiviert sie: Warum Unternehmen eine „AI Practice„ brauchen

Generative KI steigert nicht nur die Produktivität – sie intensiviert Arbeit und erhöht die Belastung. Neue Studien zeigen: Mehr Tempo führt oft zu mehr Aufgaben, mehr Fragmentierung und mehr kognitivem Druck. Unternehmen brauchen deshalb eine bewusste „AI Practice“, um Effizienzgewinne nicht in einen Burnout-Treiber zu verwandeln.

Illustration zur Arbeitsintensivierung durch KI umgesetzt durch einen grafisch dargestellten Kopf in dem viele Zahnräder ineinander arbeiten.

02.03.2026

Während Führungskräfte weltweit darauf hoffen, dass mehr Mitarbeiter Generative KI nutzen, um Produktivitätsgewinne zu realisieren, zeigen neue Erkenntnisse und Studieneine unbequeme Wahrheit: KI-Tools reduzierten Arbeit nicht, sondern sie intensivierten sie konsistent.  Die zentrale Erkenntnis aller Untersuchungen und Befragungen: KI machte „mehr tun" möglich, zugänglich und intrinsisch belohnend – doch diese enthusiastische Adoption führte zu einer stillen, selbstverstärkenden Spirale der Arbeitsintensivierung. Die versprochenen Zeitgewinne durch Automatisierung verwandelten sich nicht in Entlastung, sondern in die Fähigkeit und implizite Erwartung, noch mehr Aufgaben gleichzeitig zu bewältigen. Für Führungskräfte bedeutet dies: Ohne bewusste Intervention droht die KI-Einführung nicht zu mehr Produktivität bei gleichbleibender Belastung zu führen, sondern zu höherer Arbeitsintensität bei gleichzeitig steigenden Risiken für Burnout, Entscheidungsqualität und langfristige Nachhaltigkeit.

Es gibt drei Hauptformen der Arbeitsintensivierung, die sich wechselseitig verstärken. 

Erstens: Ausweitung des Verantwortungsbereichs. Weil KI Wissenslücken schließen konnte, übernahmen Mitarbeiter zunehmend Aufgaben, die zuvor anderen Abteilungen gehörten. Produktmanager begannen Code zu schreiben, Forscher übernahmen Engineering-Tasks, und Individuen versuchten Arbeiten, die sie früher outgesourct, delegiert oder ganz vermieden hätten. KI bot einen „kognitiven Boost", reduzierte Abhängigkeit von anderen und ermöglichte sofortiges Feedback. Das führt praktisch immer zu einer bedeutsamen Erweiterung des Job-Scopes, oft ohne dass zusätzliche Headcount oder formale Rollenerweiterungen dies rechtfertigten. Die Kehrseite: Engineers verbrachten mehr Zeit damit, KI-generierten oder KI-assistierten Code von Kollegen zu reviewen, zu korrigieren und anzuleiten. Diese Oversight-Anforderungen entstanden oft informell in Slack-Threads oder schnellen Desk-Konsultationen und addierten sich zu erheblicher zusätzlicher Arbeitslast.

Zweitens: Fragmentierung der Arbeitszeit. Weil KI das Beginnen einer Aufgabe so einfach machte – es reduzierte die Reibung einer leeren Seite oder eines unbekannten Startpunkts –, schlüpften Mitarbeiter kleine Arbeitsmengen in Momente, die zuvor Pausen gewesen wären. Viele prompteten KI während des Mittagessens, in Meetings oder während des Wartens auf Datei-Uploads. Manche beschrieben, einen „letzten schnellen Prompt" vor dem Verlassen des Schreibtischs zu senden, sodass die KI arbeiten konnte, während sie weg waren. Der konversationelle Stil des Promptings (näher am Chatten als an formaler Aufgabendurchführung) machte es einfach, Arbeit in den Abend oder frühen Morgen auszudehnen, ohne bewusste Absicht. Diese Handlungen fühlten sich selten wie „mehr Arbeit" an, doch über Zeit produzierten sie einen Arbeitstag mit weniger natürlichen Pausen und kontinuierlicherer Involvierung. Die Grenze zwischen Arbeit und Nicht-Arbeit verschwamm. Einige Mitarbeiter realisierten erst im Nachhinein, dass Downtime keine echte Erholung mehr bot, weil KI das „immer nur ein bisschen mehr" so leicht zugänglich gemacht hatte.

Drittens: Multithreading und erhöhte kognitive Belastung. KI ermöglichte einen neuen Arbeitsrhythmus, in dem Mitarbeiter mehrere aktive Threads gleichzeitig managten – manuell Code schreibend, während KI eine Alternative generierte, mehrere Agenten parallel laufen ließen oder langverschobene Tasks wiederbelebten, weil KI sie „im Hintergrund handeln" konnte. Sie taten dies teilweise, weil sie einen „Partner" fühlten, der ihnen half, durch ihre Workload zu navigieren. Während dieses Gefühl eines Partners ein Momentum-Gefühl ermöglichte, war die Realität kontinuierliches Aufmerksamkeitswechseln, häufiges Checken von KI-Outputs und eine wachsende Zahl offener Tasks. Dies erzeugte kognitive Last und ein Gefühl des ständigen Jonglierens, selbst während die Arbeit produktiv fühlte. Über Zeit berichteten Mitarbeiter, mehr gleichzeitig zu tun (und mehr Druck zu fühlen) als vor der KI-Nutzung, obwohl die Zeitersparnis durch Automatisierung Druck hätte reduzieren sollen.

All dies produzierte einen selbstverstärkenden Zyklus: KI beschleunigte bestimmte Tasks, was Erwartungen für Geschwindigkeit erhöhte. Höhere Geschwindigkeit machte Mitarbeiter stärker von KI abhängig. Erhöhte Abhängigkeit weitete den Scope dessen aus, was Mitarbeiter versuchten, und ein weiterer Scope expandierte weiter die Quantität und Dichte der Arbeit. Mehrere Teilnehmer bemerkten, dass sie zwar produktiver fühlten, sich aber nicht weniger beschäftigt fühlten und in manchen Fällen beschäftigter als zuvor. Die vermeintlichen Produktivitätsgewinne maskierten stille Workload-Kriecheffekte und wachsende kognitive Belastung, während Mitarbeiter mehrere KI-unterstützte Workflows jonglierten. Organisationen könnten dies kurzfristig als klaren Gewinn sehen – schließlich geschieht die Expansion freiwillig und wird oft als angenehme Experimentation gerahmt. Doch die Forschung offenbart Risiken. Langfristig kann Überarbeit Urteilsvermögen beeinträchtigen, Fehlerwahrscheinlichkeit erhöhen und es für Organisationen schwerer machen, echte Produktivitätsgewinne von unhaltbarer Intensität zu unterscheiden. Die kumulative Wirkung ist Fatigue, Burnout und ein wachsendes Gefühl, dass Arbeit schwerer abzuschalten ist, besonders da organisationale Erwartungen für Geschwindigkeit und Responsiveness steigen.

Die Lösung: Eine „AI Practice" etablieren.

Statt passiv zu reagieren, wie KI-Tools Arbeitsplätze umgestalten, sollten Individuen und Unternehmen eine „AI Practice" adoptieren – ein Set intentionaler Normen und Routinen, die strukturieren, wie KI genutzt wird, wann es angemessen ist zu stoppen, und wie Arbeit in Reaktion auf neugewonnene Capability expandieren sollte und sollte nicht. Ohne solche Practices ist die natürliche Tendenz KI-assistierter Arbeit nicht Kontraktion, sondern Intensivierung – mit Implikationen für Burnout, Entscheidungsqualität und langfristige Nachhaltigkeit. Die Forscher schlagen drei konkrete Praktiken vor: 

Erstens: Entscheidungspausen einbauen. Während Tasks sich beschleunigen und Grenzen verschwimmen, profitieren Mitarbeiter von kurzen, strukturierten Momenten, die Tempo regulieren – geschützte Intervalle, um Alignment zu assessieren, Annahmen zu überdenken oder Information zu absorbieren, bevor sie vorwärts bewegen. Diese Pausen würden Arbeit nicht insgesamt verlangsamen, sondern die stille Akkumulation von Overload verhindern, die entsteht, wenn Beschleunigung unkontrolliert bleibt. Beispiel: Eine Entscheidungspause könnte erfordern, vor Finalisierung einer Hauptentscheidung ein Gegenargument und einen expliziten Link zu organisationalen Zielen, was das Aufmerksamkeitsfeld gerade genug weitet, um gegen Drift zu schützen.

Zweitens: Sequencing statt ständiger Reaktion. Während KI konstante Aktivität im Hintergrund ermöglicht, profitieren Organisationen von Normen, die agil organisieren, wann und wie Arbeit vorangehen soll, nicht nur wie schnell. Dies inkludiert Batching nicht-urgenter Notifications, Halten von Updates bis natürliche Breakpoints und Schützen von Fokus-Fenstern, in denen Mitarbeiter vor Interruptions abgeschirmt sind. Statt auf jeden KI-generierten Output zu reagieren, sobald er erscheint, ermutigt Sequencing, Arbeit in kohärenten Phasen voranzubringen. Wenn Koordination in dieser Weise gepaст ist, erleben Mitarbeiter weniger Fragmentierung und weniger kostspielige Kontextwechsel, während Teams Overall-Throughput aufrechterhalten.

Drittens: Zeit und Raum für Listening und menschliche Verbindung schützen. Während KI mehr solo, self-contained Arbeit ermöglicht, profitieren Organisationen davon, Zeit und Raum für Zuhören und menschliche Verbindung zu schützen. Kurze Gelegenheiten, mit anderen zu connecten; ob durch Brief Check-ins, geteilte Reflexionsmomente oder strukturierten Dialog. All das hilft, Perspektive wiederherzustellen. Jenseits von Perspektive unterstützt sozialer Austausch Kreativität. KI bietet eine einzelne synthetisierte Perspektive, aber kreative Einsicht hängt von Exposition gegenüber multiplen menschlichen Viewpoints ab. Durch Institutionalisierung von Zeit und Raum für Listening und Dialog verankern Organisationen Arbeit erneut in sozialem Kontext und helfen, die depletierenden, individualisierenden Effekte schneller KI-vermittelter Arbeit zu countern.

Für Personalentwicklung und Führungskräfte sind die Implikationen klar: Die erfolgreiche Integration von KI erfordert mehr als technisches Training. Sie verlangt die Kultivierung von Erfahrung, Lernen und Intuition im Umgang mit KI-Tools. Mitarbeiter müssen lernen zu erkennen, wann KI-Nutzung in unhaltbare Intensivierung kippt, wann Pausen trotz scheinbarer Produktivität notwendig sind, und wie sie zwischen echter Effizienzsteigerung und bloßer Arbeitsverdichtung unterscheiden. Diese metakognitive Kompetenz – zu wissen, wann man der KI vertrauen, wann man sie hinterfragen und wann man bewusst stoppen sollte, entwickelt sich nur durch reflektierte Praxis und organisationale Unterstützung. Das Versprechen Generativer KI liegt nicht nur darin, was sie für Arbeit tun kann, sondern wie durchdacht sie ins tägliche Rhythmus integriert wird. Die zentrale Frage für Organisationen ist nicht, ob KI Arbeit verändern wird, sondern ob sie aktiv diese Veränderung gestalten oder sie stillschweigend gestalten lassen. Ohne bewusste „AI Practice" droht der Produktivitätstraum zum Intensitätsalbtraum zu werden.