Eine KI-Coding Plattform ignoriert Anweisungen, löscht eigenständig eine Produktionsdatenbank und erzeugt falsche Nutzerdaten. Solche Vorfälle zeigen, warum strenge Kontrollmechanismen und menschliche Aufsicht bei autonomen KI-Agenten unerlässlich sind.

Mit Agentic AI erleben wir zurzeit den Übergang der KI von reagierenden zu agierenden Systemen. Wir bewegen uns weg von Werkzeugen, die den Menschen unterstützen, hin zu Akteuren, die eigenständig handeln und Ziele verfolgen können. Diese Entwicklung bringt viele Chancen mit sich, bedeutet aber auch, dass die Überwachung und Governance solcher Systeme neue Herausforderungen mit sich bringt und es nicht ausreicht, bestehende AI Governance-Strukturen einfach auf agentische Systeme zu erweitern.

Im Gegensatz zu klassischen KI-Systemen, verfolgen agentische Systeme ihre Ziele autonom, sind flexibel in ihrer Zielerreichung und können mit weiteren Agenten oder Systemen kooperieren. Beispiele für solche Systeme entstehen zurzeit in nahezu allen Bereichen der Gesellschaft, von Software-Agenten, die Geschäftsprozesse steuern, bis zum vollautomatisierten Urlaubsplaner. Die Fähigkeiten solcher Agenten versprechen hohe Effizienzgewinne, bergen aber auch entsprechende Risiken, durch erhöhte Unvorhersehbarkeit, reduzierte menschliche Interaktion und komplexe Wechselwirkungen durch die Kooperation mehrerer Agenten.

AI Governance für traditionelle KI-Systeme zielt darauf ab, Systeme sicher, transparent, wertebasiert und compliant mit regulatorischen Anforderungen zu entwickeln. Dafür reicht es nicht, nur die Daten und Technologie der Systeme zu analysieren, sondern es braucht einen umfassenden Blick auf das Unternehmen entlang Kerndimensionen wie der strategischen Ausrichtung, der Prozesslandschaft, der Kultur und des Risikomanagements.

Abbildung 1: Agentic AI Governance Framework

Die oben gezeigten Dimensionen sind für die Governance von Agentic AI ebenso relevant wie für traditionelle AI Governance. Es bedarf allerdings in nahezu allen Bereichen eines Shifts in der Herangehensweise, um sicherzustellen, dass auch agentische KI-Systeme sicher, vertrauenswürdig und transparent arbeiten.

Der entscheidende zu beachtende Aspekt bei Agentic AI ist, dass es nicht wie bei traditionellen KI Systemen, nur um die Modelle und deren Ausgaben geht, sondern auch eine Governance des Betriebs und des Ökosystems dieser Agenten notwendig ist.

Um ein solches System sicher, compliant und vertrauenswürdig zu betreiben, reicht es also nicht, nur auf das zugrundeliegende Modell und den Output zu schauen, sondern auch darauf, was es tut, wann und wie.

Im Folgenden gehen wir exemplarisch auf die notwendigen Shifts in den am stärksten betroffenen Dimensionen ein, um aufzuzeigen, welcher Änderungen oder Anpassungen es bedarf, um auch Agentic AI-Systeme abzudecken:

Organisation und Prozesse:

  1. Agentenzentrierte Verantwortung: Einzelpersonen oder Teams sind für menschliche Aufsicht, Tool-Nutzung und Auswirkungen eines Agenten verantwortlich.
  2. Klare Entscheidungsgrenzen: Festlegung, welche Entscheidungen Agenten autonom treffen dürfen und welche eskaliert werden müssen.
  3. Multi-Agenten-Überwachung: Kontrollmechanismen, um Kooperationen zwischen Agenten zu beobachten und Kettenreaktionen zu verhindern.
  4. Eskalationsprotokolle: Teamübergreifende Abläufe, um Probleme schnell und bereichsübergreifend zu lösen.

Risikomanagement:

  1. Neue Risikokategorien: Neben Bias, Fairness und Genauigkeit auch Missbrauch von Autonomie, kaskadierende Fehler, Agentenzusammenarbeit (Collusion) und Zielabweichungen (Alignment Drift).
  2. Risiken bei Tooleinsatz: Kontrollmechanismen, ob Agenten regelkonforme, verantwortungsbewusste und nachvollziehbare Entscheidungen bei der Nutzung von Werkzeugen treffen.
  3. Schutzmechanismen: Einführung von Kill-Switches und Sandboxing, um gefährliche Situationen frühzeitig zu stoppen.

Daten & Technologie:

  1. Zugriffs- und Toolkontrollen: Klare Vorgaben zum Zugang zu Werkzeugen, APIs und Systemberechtigungen, die Agenten zur Verfügung stehen, inkl. Steuerung der Multi-Agenten-Interaktion.
  2. Audit-Trails: Unveränderbare Protokolle der Agenten-Handlungen und der Toolaufrufe für vollständige Nachvollziehbarkeit.
  3. Monitoring erweitern: Erkennen von Verhaltensanomalien, ungewöhnlicher Agentenmuster, verpasster Eskalationen oder unbeabsichtigter Schleifen.

Agentic AI verändert nicht nur die Technik, sondern auch die Art und Weise, wie wir Verantwortung denken müssen. Sie eröffnet enorme Chancen – von effizienteren Prozessen bis zu innovativen Problemlösungen. Gleichzeitig fordert sie uns heraus, unsere Governance-Modelle neu zu denken. Letztlich geht es darum, eine Partnerschaft zwischen Mensch und Maschine zu formen, in der beide Akteure Verantwortung tragen und gemeinsam handeln können – für eine Zukunft, in der autonome Systeme nicht nur leistungsfähig, sondern auch vertrauenswürdig sind. Der Schlüssel liegt in einem proaktiven Ansatz: Wir müssen Agenten gestalten, die innerhalb ethischer, rechtlicher und gesellschaftlicher Grenzen handeln, und gleichzeitig Mechanismen entwickeln, die menschliche Kontrolle dort sichern, wo sie notwendig ist.