Agentische Systeme verlagern Entscheidungen in technische Strukturen. Die Kernfrage ist: Wer legt die Regeln fest – und wie sichern wir Mitbestimmung, Transparenz und Verantwortung?
Digitale Assistenten, die Mails schreiben, Analysen erstellen oder Termine koordinieren, sind längst Alltag. Doch eine neue Entwicklung verändert die Arbeitswelt: Systeme, die nicht nur unterstützen, sondern eigenständig agieren – verhandeln, priorisieren, optimieren. Entscheidungen entstehen nicht mehr primär im Dialog zwischen Menschen, sondern in technischen Infrastrukturen, die Menschen nur noch abnicken.
Diese Verschiebung wirft Fragen auf, die über Effizienz und Produktivität hinausgehen. Es geht um Macht, Verantwortung und Mitbestimmung – und darum, wie Arbeit künftig organisiert wird. Doch wie tiefgreifend ist dieser Wandel wirklich? Und aus wessen Perspektive?
Die gewerkschaftliche Sicht: Mitbestimmung in der Infrastruktur
Für Beschäftigtenvertretungen liegt die entscheidende Veränderung nicht darin, dass digitale Agenten Entscheidungen vorbereiten, sondern wo diese vorstrukturiert werden. Wenn Systeme bestimmen, welche Optionen „vernünftig“, „effizient“ oder „realistisch“ wirken, verlagert sich Mitbestimmung von der konkreten Tätigkeit hin zur Gestaltung der Entscheidungslogiken.
Der oft kritisierte Klick auf „Freigeben“ ist dabei nicht zwangsläufig ein Akt der Entmündigung. Er kann Verantwortung bedeuten – vorausgesetzt, es ist klar:
– Nach welchen Kriterien entstehen Vorschläge?
– Welche Alternativen wurden verworfen?
– Sind Abweichungen möglich oder folgenlos?
Digitale Agenten können Ungleichheiten abbauen
Gewerkschaftlich zugespitzt lautet das Problem nicht „KI ersetzt menschliche Arbeit“, sondern: Autonomie wandert von der Ausführung zur Systemgestaltung – ohne dass dort kollektive Rechte existieren.
Digitale Agenten sind jedoch nicht nur Bedrohung. Sie können Ungleichheiten abbauen, indem sie weniger durchsetzungsstarken Beschäftigten sprachliche, analytische oder organisatorische Hilfen bieten. Entscheidend ist, ob diese Systeme transparent, überprüfbar und verhandelbar sind. Die politische Aufgabe besteht weniger im Nein zur Technik als im Ja zu Einsichts-, Mitgestaltungs- und Vetorechten auf Systemebene.
Die unternehmerische Sicht: Neue Führungsarbeit statt Machtverlust
Unternehmen sehen die Entwicklung nüchterner. Für sie sind agentische Systeme keine Revolution, sondern eine Weiterentwicklung bestehender Steuerungslogiken. Controlling, Kennzahlen und Workflow-Software bereiten Entscheidungen seit Jahrzehnten vor. Neu sind vor allem Geschwindigkeit, Reichweite und Automatisierung.
Agenten ersetzen keine Führung, sie verschieben sie. Operative Kleinstentscheidungen werden automatisiert, während Führung sich stärker auf Ziele, Rahmenbedingungen und Prioritäten konzentriert. Entscheidungen vorzubereiten, gilt hier nicht als Entmachtung, sondern als Voraussetzung für Skalierbarkeit in komplexen Organisationen.
- Wegweisende Technologietrends dominieren Unternehmensagenden
- Wie wird KI die Wirtschaft wirklich beeinflussen?
- KI: Deutschland im weltweiten Vergleich im Rückstand
- „Die Auswirkungen von KI werden noch größer“
- KI: Deutschland zwischen Innovation und Regulierung
Entfremdung durch Automatisierung
Auch die Sorge vor „unsichtbarer Macht“ teilen viele Unternehmen nur bedingt. Intransparente Systeme sind für sie kein Vorteil, sondern ein Risiko – rechtlich, reputativ oder operativ. Fehlentscheidungen skalieren schneller, Haftungsfragen werden komplexer. Deshalb besteht ein Eigeninteresse an erklärbaren, auditierbaren Systemen – ein möglicher Berührungspunkt mit Beschäftigtenvertretungen.
Entfremdung durch Automatisierung ist aus dieser Sicht kein technologisches Schicksal, sondern eine Frage von Qualifizierung, Rollengestaltung und Beteiligung. Digitale Agenten können monotone Aufgaben reduzieren – oder Entscheidungsdruck und Verantwortung erhöhen. Beides ist möglich, nichts davon unvermeidlich.
Die technische Sicht: Optimierung statt Verhandlung
Technisch betrachtet braucht es Präzision. Viele Darstellungen überschätzen den Stand agentischer Systeme. Was heute wie „Verhandlung“ wirkt, ist meist Optimierung innerhalb klar definierter Zielkonflikte. Digitale Agenten handeln keine Interessen aus, sie berechnen Lösungen auf Basis vorgegebener Parameter.
Die Macht liegt nicht „beim digitalen Agenten“, sondern bei:
– der Zieldefinition,
– der Auswahl der Trainingsdaten,
– dem Design der Schnittstellen.
Schlecht gestaltete Mensch-Maschine-Interaktion
Die oft beschriebene „Leerstelle“ entsteht weniger durch KI selbst als durch schlecht gestaltete Mensch-Maschine-Interaktion. Systeme, die nur Zustimmung abfragen, ohne Alternativen zu zeigen, erzeugen das Gefühl des Abnickens. Technisch ist das kein Naturgesetz, sondern ein Designproblem.
Es wäre sachlicher, nicht vom Verlust des „kreativen Kerns“ zu sprechen, sondern von einer Verschiebung: Digitale Agenten übernehmen erste Iterationen, Menschen bewerten, kontextualisieren und entscheiden in Grenzfällen. Ob das als Entwertung oder Aufwertung empfunden wird, hängt von der Gestaltung und dem organisatorischen Rahmen ab.
Die Kernfrage: Wer definiert die Regeln?
Über alle Perspektiven hinweg kristallisiert sich eine zentrale Frage: Wer legt die Regeln fest, nach denen Entscheidungen vorbereitet werden – und wer kann diese Regeln sichtbar, veränderbar und verhandelbar machen?
Hier treffen sich gewerkschaftliche Forderungen nach Kontrolle und Rechten, unternehmerische Interessen an Verlässlichkeit und Haftung sowie technische Notwendigkeiten von Transparenz und Robustheit. Die eigentliche Auseinandersetzung dreht sich wenige um einzelne Tools als um Infrastrukturen: Plattformen, Standards, Datenflüsse und Rechenleistung.
Digitale Agenten werden die Arbeit organisieren. Entscheidend ist nicht, ob, sondern unter welchen Bedingungen. Ob der Klick auf „Freigeben“ ein Akt der Entmündigung oder eine bewusste Entscheidung bleibt, ist keine technische, sondern eine politische und organisationale Frage.

