Zum Inhalt gehen
Trusted AI Web-banner
Solution

Trusted AI

Im vergangenen Jahr hat der Einsatz von generativer KI (Gen AI) in verschiedenen Branchen und Funktionen wie Kundenbetrieb, Marketing und Vertrieb, Softwareentwicklung sowie Forschung und Entwicklung erheblich zugenommen. In einer Welt, in der 50 Prozent der geschäftlichen oder organisatorischen Entscheidungen potenziell von KI getroffen werden, müssen Unternehmen daran arbeiten, Vertrauen aufzubauen.

Laut unserer jüngsten Studie erlauben 97 Prozent der globalen Unternehmen ihren Mitarbeitern, generative KI in irgendeiner Form zu nutzen. Während große Sprachmodelle und agentenbasierte KI-Systeme ein unglaubliches Potenzial haben, werden die Verzerrungen in ihren Trainingsdaten und die Robustheit von Sicherheitsbeschränkungen zunehmend in Frage gestellt.

Der Aufstieg von Basismodellen geht mit Vertrauensproblemen einher. Werden diese vernachlässigt, führt dies zu finanziellen Verlusten und Geschäftsrisiken.

Zusammenhangslose Evaluierungen und Tests, mangelnde Überwachung von Inhalten oder das Fehlen konsistenter Benchmarks können zu nicht vertrauenswürdigen Lösungen führen.

Um Gen AI im großen Maßstab effektiv einsetzen zu können, müssen Unternehmen die Leitplanken aus einer operativen und nicht aus einer lösungsspezifischen Perspektive betrachten und gleichzeitig sicherstellen, dass ein spezifischer Rahmen für den Geschäftskontext und die Domäne festgelegt wird.

Trust is bigger than one question, it’s a multi-dimensional problem, so you need to think about trust in a specific context.”

Capgemini in the Forrester Wave™: AI services, Q2 2023

Capgemini ist der richtige Partner für Unternehmen, die mit der Einführung von KI geschäftliche Veränderungen antizipieren.

Unser Ansatz

Vom Chief Procurement Officer (CPO) bis hin zum operativen Support – jeder im Unternehmen spielt eine Rolle beim Einsatz vertrauenswürdiger KI und hat seine eigenen spezifischen Herausforderungen.

Bei Capgemini sind wir der Meinung, dass Frameworks speziell auf diese Herausforderungen und Kriterien zugeschnitten sein müssen. Aus diesem Grund versucht unser Multi-Framework-Ansatz keine „Einheitslösung“ zu sein, sondern die unterschiedlichen Rollen und Geschäftsszenarien in verschiedenen Frameworks zu berücksichtigen.

Um sicherzustellen, dass ein Unternehmen über vertrauenswürdige, rechtskonforme, ethische und verantwortungsvolle KI verfügt, müssen alle Beteiligten ihren individuellen Beitrag zu einem schlüssigen Gesamtkonzept leisten. Dies ist nur möglich, wenn Trusted AI auf die Unternehmensführung, die technische Umsetzung und den Betrieb angewendet wird.
Unser Trusted AI for Procurement Framework unterstützt CPOs beispielsweise bei der Bewertung von Modellanbietern und Finanzmanagement-Tools. Die fehlerfreie Überprüfung von KI-Anbietern, ihren Methoden und Datenquellen ist notwendig, um sicherzustellen, dass nur validierte Anbieter im Unternehmen zugelassen werden. Unser Trusted AI for Cybersecurity konzentriert sich auf die Bewertung von Bedrohungen und deckt die Gefahren von Trojanerangriffe auf sowie die erforderlichen Sicherheitsupdates für die Benutzeridentifizierung und delegierte Berechtigungen ab. Somit können sowohl Probleme bei der Einführung von KI als auch die Nutzung von KI für industrielle Social-Engineering-Angriffe verhindert werden.
Unser Trusted AI Business Model and Strategy befasst sich mit dem Change Management, das in Organisationen durch die Einführung von künstlicher Intelligenz erforderlich wird. Ziel ist es, ein neues Geschäftsmodell zu schaffen, in dem Manager in der Lage sind, KI als Teammitglied zu integrieren und Verantwortung für die Ergebnisse zu übernehmen, während der Erfolg des Unternehmens sichergestellt wird.
Als Basis dient hierzu das Prinzip Trusted AI for Purpose, einschließlich Trusted AI for Safety Critical Systems und Trusted AI for Enterprise sowie paket- und technologiespezifische Varianten. Verschiedene Regeln und Details stellen sicher, dass KI unabhängig von der verwendeten Plattform vertrauenswürdig ist.
Es lässt sich festhalten, dass jeder im Unternehmen eine Rolle zu spielen hat, damit künstlichen Intelligenz vertraut werden kann.

    RAISE – Reliable AI Solution Engineering

    Reliable AI Solution Engineering (RAISE) ist ein operationeller Accelerator, der branchenübergreifend Werte schafft.

    EU AI Act compliance

    The EU AI Act: Aufbau eines soliden, rechtmäßigen und ethischen Ansatzes

      Unsere Expert*innen

      Sarah Engel

      Director | Enterprise Data & Analytics, Capgemini Invent
      Sarah Engel ist Direktorin für KI bei Capgemini Invent und berät Kunden bei Innovationsprojekten, insbesondere zu KI-Strategie und KI-Governance. Sarah ist Co-Autorin eines Buches über Skalierung und Vetrauen von KI, und ist Referentin sowie Trainerin für Gen AI und vertrauenswürdige KI. Sie ist Mitglied des Advisory Boards für das Studienprogramm „AI for Society“ und promoviert im Bereich „Organizational AI Governance“. Sarah hat Abschlüsse in Kognitionswissenschaften (B.Sc.) und Neuroinformatik (M.Sc.).