Zum Inhalt gehen

Agentic AI Governance: Wenn Maschinen zu Akteuren werden 

Moritz von Negenborn
16.10.2025
capgemini-invent

Eine KI-Coding Plattform ignoriert Anweisungen, löscht eigenständig eine Produktionsdatenbank und erzeugt falsche Nutzerdaten. Solche Vorfälle zeigen, warum strenge Kontrollmechanismen und menschliche Aufsicht bei autonomen KI-Agenten unerlässlich sind.

Mit Agentic AI erleben wir zurzeit den Übergang der KI von reagierenden zu agierenden Systemen. Wir bewegen uns weg von Werkzeugen, die den Menschen unterstützen, hin zu Akteuren, die eigenständig handeln und Ziele verfolgen können. Diese Entwicklung bringt viele Chancen mit sich, bedeutet aber auch, dass die Überwachung und Governance solcher Systeme neue Herausforderungen mit sich bringt und es nicht ausreicht, bestehende AI Governance-Strukturen einfach auf agentische Systeme zu erweitern.

Im Gegensatz zu klassischen KI-Systemen, verfolgen agentische Systeme ihre Ziele autonom, sind flexibel in ihrer Zielerreichung und können mit weiteren Agenten oder Systemen kooperieren. Beispiele für solche Systeme entstehen zurzeit in nahezu allen Bereichen der Gesellschaft, von Software-Agenten, die Geschäftsprozesse steuern, bis zum vollautomatisierten Urlaubsplaner. Die Fähigkeiten solcher Agenten versprechen hohe Effizienzgewinne, bergen aber auch entsprechende Risiken, durch erhöhte Unvorhersehbarkeit, reduzierte menschliche Interaktion und komplexe Wechselwirkungen durch die Kooperation mehrerer Agenten.

AI Governance für traditionelle KI-Systeme zielt darauf ab, Systeme sicher, transparent, wertebasiert und compliant mit regulatorischen Anforderungen zu entwickeln. Dafür reicht es nicht, nur die Daten und Technologie der Systeme zu analysieren, sondern es braucht einen umfassenden Blick auf das Unternehmen entlang Kerndimensionen wie der strategischen Ausrichtung, der Prozesslandschaft, der Kultur und des Risikomanagements.

Abbildung 1: Agentic AI Governance Framework

Die oben gezeigten Dimensionen sind für die Governance von Agentic AI ebenso relevant wie für traditionelle AI Governance. Es bedarf allerdings in nahezu allen Bereichen eines Shifts in der Herangehensweise, um sicherzustellen, dass auch agentische KI-Systeme sicher, vertrauenswürdig und transparent arbeiten.

Der entscheidende zu beachtende Aspekt bei Agentic AI ist, dass es nicht wie bei traditionellen KI Systemen, nur um die Modelle und deren Ausgaben geht, sondern auch eine Governance des Betriebs und des Ökosystems dieser Agenten notwendig ist.

Um ein solches System sicher, compliant und vertrauenswürdig zu betreiben, reicht es also nicht, nur auf das zugrundeliegende Modell und den Output zu schauen, sondern auch darauf, was es tut, wann und wie.

Im Folgenden gehen wir exemplarisch auf die notwendigen Shifts in den am stärksten betroffenen Dimensionen ein, um aufzuzeigen, welcher Änderungen oder Anpassungen es bedarf, um auch Agentic AI-Systeme abzudecken:

Organisation und Prozesse:

  1. Agentenzentrierte Verantwortung: Einzelpersonen oder Teams sind für menschliche Aufsicht, Tool-Nutzung und Auswirkungen eines Agenten verantwortlich.
  2. Klare Entscheidungsgrenzen: Festlegung, welche Entscheidungen Agenten autonom treffen dürfen und welche eskaliert werden müssen.
  3. Multi-Agenten-Überwachung: Kontrollmechanismen, um Kooperationen zwischen Agenten zu beobachten und Kettenreaktionen zu verhindern.
  4. Eskalationsprotokolle: Teamübergreifende Abläufe, um Probleme schnell und bereichsübergreifend zu lösen.

Risikomanagement:

  1. Neue Risikokategorien: Neben Bias, Fairness und Genauigkeit auch Missbrauch von Autonomie, kaskadierende Fehler, Agentenzusammenarbeit (Collusion) und Zielabweichungen (Alignment Drift).
  2. Risiken bei Tooleinsatz: Kontrollmechanismen, ob Agenten regelkonforme, verantwortungsbewusste und nachvollziehbare Entscheidungen bei der Nutzung von Werkzeugen treffen.
  3. Schutzmechanismen: Einführung von Kill-Switches und Sandboxing, um gefährliche Situationen frühzeitig zu stoppen.

Daten & Technologie:

  1. Zugriffs- und Toolkontrollen: Klare Vorgaben zum Zugang zu Werkzeugen, APIs und Systemberechtigungen, die Agenten zur Verfügung stehen, inkl. Steuerung der Multi-Agenten-Interaktion.
  2. Audit-Trails: Unveränderbare Protokolle der Agenten-Handlungen und der Toolaufrufe für vollständige Nachvollziehbarkeit.
  3. Monitoring erweitern: Erkennen von Verhaltensanomalien, ungewöhnlicher Agentenmuster, verpasster Eskalationen oder unbeabsichtigter Schleifen.

Agentic AI verändert nicht nur die Technik, sondern auch die Art und Weise, wie wir Verantwortung denken müssen. Sie eröffnet enorme Chancen – von effizienteren Prozessen bis zu innovativen Problemlösungen. Gleichzeitig fordert sie uns heraus, unsere Governance-Modelle neu zu denken. Letztlich geht es darum, eine Partnerschaft zwischen Mensch und Maschine zu formen, in der beide Akteure Verantwortung tragen und gemeinsam handeln können – für eine Zukunft, in der autonome Systeme nicht nur leistungsfähig, sondern auch vertrauenswürdig sind. Der Schlüssel liegt in einem proaktiven Ansatz: Wir müssen Agenten gestalten, die innerhalb ethischer, rechtlicher und gesellschaftlicher Grenzen handeln, und gleichzeitig Mechanismen entwickeln, die menschliche Kontrolle dort sichern, wo sie notwendig ist.


Unsere Experten

Lars Bennek

Lars Bennek

Senior Manager | Legal Engineering Lead Germany, Capgemini Invent
Als Ingenieur, Jurist und Wirtschaftsinformatiker bringt Lars Bennek an den Schnittstellen von Recht, Organisation und Technologie interdisziplinäre Expertise in Projekte zur datengetriebenen Bewältigung komplexer strategischer Herausforderungen. Zu seinen Schwerpunktthemen gehören AI & Data Governance, Datenschutz, Datenstrategie und Explainable AI. 
Moritz von Negenborn

Moritz von Negenborn

Manager | AI Governance & Legal Engineering Germany, Capgemini Invent
Mit seinem Hintergrund in Informatik und Human-Centered AI verbindet Moritz von Negenborn technologische Expertise mit einem tiefen Verständnis für die gesellschaftlichen und wirtschaftlichen Auswirkungen von KI. Mit langjähriger Berufserfahrung in AI Governance, Responsible AI und Projektmanagement sorgt er dafür, dass KI-Projekte nicht nur technisch robust, sondern auch verantwortungsvoll und zukunftsfähig umgesetzt werden.

    Weitere Blogposts

    Blog-Updates per Mail?

    Abonnieren Sie unseren Newsletter und erhalten Sie alle zwei Monate eine Auswahl der besten Blogartikel.