Zum Inhalt gehen
DTR_Speaker-Banner_1920x480_Nicolas-Economou-1

Die Rolle von Grundsätzen, Normen und Vorschriften bei der Schaffung digitaler Ethik verstehen

Nicolas Economou, H5

Nicolas Economou ist Geschäftsführer von H5, einem Technologie- und Beratungsunternehmen für Rechtsautomatisierung. Er war ein Pionier bei der Förderung der Anwendung wissenschaftlicher Methoden, der Automatisierung und der künstlichen Intelligenz im Rechtswesen und bei der Entwicklung solider Normen für deren vertrauenswürdige Anwendung. Er ist Vorsitzender sowohl der The Future Society’s Law Initiative als auch des Rechtsausschusses der IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. Er war Vorsitzender des Rechtsausschusses des 2018 und 2019 in Dubai stattfindenden Global Governance of AI Roundtable auf dem World Government Summit. Er ist auch Mitglied des Council on Extended Intelligence (CXI), einer gemeinsamen Initiative des MIT Media Lab und der IEEE-SA.

Das Capgemini Research Institute sprach mit Nicolas, um mehr über die Rolle von Prinzipien, Standards und Vorschriften bei der ethischen und vertrauenswürdigen Entwicklung und dem Einsatz von KI zu erfahren.


DEFINITION ETHISCHER KI

Wie definieren Sie Ethik in der KI?

Die Ethik ist eine seit langem bestehende akademische Disziplin, die Möglichkeiten bietet, über unser Verhalten nachzudenken. Sie bietet Wege zur rationalen Debatte, zur kritischen Bewertung von Alternativen und zu Entscheidungen, die eine moralische Grundlage haben. Digitale Ethik ist die Anwendung solcher Methoden auf die Herausforderungen, die die KI mit sich bringt. Es ist auch wichtig zu erkennen, was Ethik nicht ist: Sie ist weder ein allgemeingültiges Gesetz, das einfach die perfekte Antwort liefert, noch ist sie eine einfache “Check-the-Box”-Übung zur Einhaltung von Vorschriften.

Eine weitere wichtige Überlegung ist, dass es verschiedene Arten von Ethik gibt. Betrachten wir die Berufsethik: Anwälte zum Beispiel halten sich an bestimmte Regeln des beruflichen Verhaltens. Das ist lobenswert und wichtig, aber die Ethik eines Unternehmens oder einer Gesellschaft kann sich in gewisser Weise von der Ethik des Anwaltsberufs unterscheiden. Die juristische Ethik mag mit der Aushöhlung unserer Privatsphäre vereinbar sein, solange wir unsere Rechte rechtlich abgetreten haben. Aber auf gesellschaftlicher Ebene nimmt die Aushöhlung der Privatsphäre andere ethische Dimensionen an.

Wir sollten auch nicht vergessen, dass algorithmische Systeme amoralisch sind. Damit will ich nicht sagen, dass sie unmoralisch sind. Ich meine, dass sie keinen moralischen Kompass haben. Dennoch können sie Entscheidungen treffen, die weitreichende moralische Konsequenzen haben. Daraus ergibt sich eine besondere Verantwortung für Unternehmen, nicht nur ihre rechtlichen Verpflichtungen zu erfüllen, sondern auch eine digitale Ethik zu entwickeln und umzusetzen, d. h. eine institutionelle Perspektive, wie moralische Probleme im Zusammenhang mit Daten, Algorithmen und den sie umgebenden Praktiken bewertet und angegangen werden können.

Nehmen wir zum Beispiel personenbezogene Daten: Es kann Verwendungen solcher Daten geben, die legal sind, aber bestimmte geschäftliche, markenbezogene oder gesellschaftliche Folgen haben, die ein Unternehmen veranlassen könnten, bestimmte legale, aber ethisch problematische Verwendungen zu vermeiden.

DEFINITION VON TRANSPARENZ IN DER KI UND DER AKTUELLE STAND DER DINGE

Welche Rolle spielt Ihrer Meinung nach die Transparenz bei der KI?

Die IEEE Global Initiative hat hervorragende Arbeit geleistet, indem sie Grundsätze für die ethische Gestaltung und den Betrieb von KI verkündet hat. Eines dieser Schlüsselprinzipien ist Transparenz. Transparenz ist nicht nur ein Thema, das im internationalen KI-Governance-Dialog im Vordergrund steht, sondern hat auch eine intuitive Anziehungskraft: “Wenn ich unter die Decke sehen kann, kann ich auch das System verstehen”. Aber ich denke, dass dieser vorherrschende Fokus und diese intuitive Anziehungskraft einige Gefahren verbergen können.

Eine dieser Gefahren besteht darin, dass Transparenz als unzureichender Ersatz für das dienen kann, was man wirklich wissen will. Bei der Herstellung von Arzneimitteln beispielsweise sagt die Transparenz des Herstellungsprozesses eines Medikaments nichts darüber aus, ob das Medikament bei der Behandlung einer Krankheit wirksam ist – klinische Studien tun dies. Ähnlich verhält es sich bei der Herstellung von Autos: Sie werden nicht wissen, ob das Auto sicher ist, bis Sie es einem Crashtest unterziehen. In diesen beiden Beispielen kann Transparenz – oder Transparenz allein – nicht die Antwort geben, die Sie wirklich wollen.

Transparenz ist zwar sehr wichtig, aber ich befürchte, dass sie, wenn man sie als Allheilmittel betrachtet, wozu sie manchmal neigt, auch gewisse Herausforderungen mit sich bringt.

Könnten Sie näher auf die Bedenken eingehen, die Sie gegen eine übermäßige Konzentration auf Transparenz haben?

Abgesehen von dem eben angesprochenen Problem gibt es meiner Meinung nach noch zwei weitere Bedenken:

Zum einen geht es um die Kosten für die Herstellung von Transparenz auf gesellschaftlicher Ebene. Könnten die Gerichte beispielsweise umfassende Überprüfungen der einzelnen soziotechnischen Systeme und Algorithmen in den ihnen vorliegenden Fällen durchführen, wenn Transparenz das einzige ihnen zur Verfügung stehende Instrument wäre? Sicherlich werden solche Prüfungen in einigen Fällen unverzichtbar sein. Aber es ist wichtig, innezuhalten und darüber nachzudenken, ob und wann – um meine frühere Analogie zu verwenden – ein einfacher Crashtest vielleicht eine bessere Antwort bietet als eine vollständige Überprüfung eines Herstellungsprozesses.

Ich befürchte auch, dass ein übermäßiger Fokus auf Transparenz die Diskussion auf die Eliten beschränken könnte, die in der Lage sind, Algorithmen zu verstehen, und so die digitale Kluft vertieft. Was wir brauchen, sind allgemein verständliche und zugängliche Maßstäbe für die Zweckmäßigkeit von KI-Systemen, ähnlich wie – wenn Sie mir gestatten, die gleiche Analogie erneut zu verwenden – die Bewertungen von Autounfällen. Solche Maßstäbe können die Bürger stärken. Um diese Maßstäbe zu erreichen, ist ein komplementäres Denken zu demjenigen erforderlich, das der Transparenz zugrunde liegt.

Wie beurteilen Sie den aktuellen Stand der Dinge in Bezug auf Ethik und Transparenz in Unternehmen?

Die Unternehmen haben damit zu kämpfen, weil es sich um eine so komplexe Herausforderung handelt. Außerdem gibt es derzeit keine einheitlichen Standards, für die sich Unternehmen entscheiden und deren Einhaltung sie zertifizieren können. Ich denke, dass die digitale Ethik in Unternehmen im Laufe der Zeit mindestens drei Elemente umfassen wird: erstens eine Charta der digitalen Ethik, die von den Unternehmen veröffentlicht wird; zweitens eine Reihe von Standards, deren Einhaltung die Unternehmen bestätigen können (die IEEE entwickelt solche Standards); und drittens Prüfmechanismen. Eine gute Analogie zu diesem letzten Punkt ist die Finanzprüfung: Wir vertrauen darauf, dass Unternehmen in der Lage sind, solide Bilanzen zu erstellen, aber es sind die Wirtschaftsprüfer, die bescheinigen, inwieweit diese Bilanzen den Zusicherungen der Unternehmen entsprechen.

VORSCHRIFTEN UND NORMEN IN DER KI

Könnten Sie uns mehr über die IEEE-Prinzipien der Effektivität, Kompetenz, Verantwortlichkeit und Transparenz erzählen und wie diese mit der Vertrauenswürdigkeit zusammenhängen?

Meiner persönlichen Ansicht nach sind diese vier Grundsätze einzeln notwendig und gemeinsam ausreichend, um zu bestimmen, inwieweit KI-gestützten Prozessen vertraut werden sollte. Sie sind auch global anwendbar, aber kulturell flexibel, da sie alle evidenzbasiert und nicht normativ sind. Sie können dazu beitragen, die faktische Grundlage zu schaffen, die Unternehmen, Compliance-Beauftragte, Risikobeauftragte und Anwaltskanzleien benötigen, um zu entscheiden, ob einem bestimmten Einsatz von KI vertraut werden kann, um ihre Compliance-Verpflichtungen und ihre digitale Ethik einzuhalten.

Effektivität

Ein wesentlicher Bestandteil des Vertrauens in eine Technologie ist das Vertrauen darauf, dass sie den Zweck erfüllt, für den sie gedacht ist. Welche empirischen Belege gibt es dafür? Nehmen wir zum Beispiel den Datenschutz, der heutzutage ein so heißes Thema ist. KI wird zunehmend eingesetzt, um personenbezogene Daten in den riesigen Datenbeständen von Unternehmen zu identifizieren, um die Einhaltung von Regelungen wie der GDRP und bald auch des kalifornischen CCPA zu unterstützen. Welche Beweise haben Sie als Beschaffungs- oder Compliance-Abteilung dafür, dass das KI-System, das Sie anschaffen wollen, tatsächlich die personenbezogenen Daten findet, die Sie schützen sollen? Sagen Sie einer Aufsichtsbehörde: “Ich habe einer Marketing-Behauptung vertraut”, reicht nicht aus. Oder bei KI-Anwendungen für die Personalabteilung: Welche Beweise haben Sie dafür, dass die Anwendung wirksam ist, um Voreingenommenheit zu vermeiden?

Kompetenz

Eine zweite wesentliche Komponente des informierten Vertrauens in ein technologisches System, insbesondere in ein System, das uns in tiefgreifender Weise beeinflussen kann, ist das Vertrauen in die Kompetenz des/der Betreiber(s) der Technologie. Wir vertrauen Chirurgen oder Piloten unser Leben an, weil wir wissen, dass sie strenge Akkreditierungsstandards erfüllt haben, bevor sie den Operationssaal oder das Cockpit betreten dürfen. In Bezug auf KI gibt es derzeit keine solchen Standards für die Kompetenz der Anwender. Im Hinblick auf die Einhaltung von Gesetzen und Vorschriften ist dies nicht vertretbar. Dieser Bereich ist ein weiteres Schwerpunktthema unserer Arbeit bei der IEEE Global Initiative.

Rechenschaftspflicht

Eine dritte wesentliche Komponente des informierten Vertrauens in ein technologisches System ist die Zuversicht, dass es im Bedarfsfall möglich ist, die Verantwortung unter den beteiligten menschlichen Akteuren aufzuteilen, von der Entwicklung bis zum Einsatz und Betrieb. Ein Modell für die Entwicklung und den Einsatz von KI, bei dem die Menschen nicht zur Verantwortung gezogen werden können, wird auch wichtige Formen der Abschreckung gegen schlecht durchdachtes Design, unüberlegte Übernahme und unangemessene Nutzung von KI vermissen lassen.

Transparenz

Ein letztes Schlüsselelement des informierten Vertrauens ist die Transparenz. Ohne angemessene Transparenz gibt es keine Grundlage für das Vertrauen darauf, dass eine bestimmte Entscheidung oder ein bestimmtes Ergebnis des Systems (oder seiner Betreiber) erklärt, nachvollzogen oder gegebenenfalls korrigiert werden kann. Ich bin der Meinung, dass eine wirksame Umsetzung des Transparenzprinzips sicherstellen sollte, dass die entsprechenden Informationen an die entsprechenden Interessengruppen weitergegeben werden, um den entsprechenden Informationsbedarf zu decken. Insbesondere im Hinblick auf die Rechts- und Compliance-Funktionen bin ich der Ansicht, dass diese vier Grundsätze, wenn sie ordnungsgemäß umgesetzt werden, den Beteiligten die Möglichkeit geben, zu entscheiden, inwieweit sie darauf vertrauen können, dass die KI bestimmte Ziele erreicht oder ihre institutionellen ethischen Grundsätze einhält.

Erwarten Sie eine Regulierung der ethischen Nutzung von KI und wie sehen Sie die Durchsetzung dieser Regulierung?

Wie in so vielen anderen technologischen Bereichen wird sich eine Kombination aus industriegetriebenen Bemühungen und Regulierung durchsetzen. Das Gleichgewicht zwischen diesen beiden wird wahrscheinlich vom gesellschaftlichen Kontext abhängen. Die EU-Kommission hat eine KI-Regulierungsagenda, ebenso wie der Europarat, der auch ein Zertifizierungsprogramm für KI-Anwendungen in der Gesetzgebung angekündigt hat. Gleichzeitig entwickeln Fachgremien der Industrie, wie das IEEE, KI-Standards. Wesentlich ist für mich, dass die Mechanismen evidenzbasiert sind, insbesondere im Hinblick auf die gerade diskutierten Prinzipien, ohne die kein Vertrauen entstehen kann.

Wie stellen wir sicher, dass sich Unternehmen an diese Standards halten, wenn sie erst einmal feststehen? Gäbe es Anreize für Unternehmen, sich an ethische Praktiken in der KI zu halten? Wenn ja, welche Art von Anreizen wären das?

Eine Kombination aus Regulierung und marktbasierten Anreizen wird sich durchsetzen. Denken Sie an kritische gesellschaftliche Funktionen wie das Verkehrswesen oder die Medizin: Die Einhaltung von Standards wird oft durch Vorschriften erzwungen. Eine Regulierung wird meiner Meinung nach auch in Bereichen notwendig sein, in denen das Machtgefälle zwischen Bürgern und Unternehmen zu groß ist. Wenn wir in den USA beispielsweise Datenschutzvereinbarungen per Mausklick akzeptieren, um einen Online-Dienst in Anspruch zu nehmen, ist diese Zustimmung nicht das Zeichen eines mündigen Verbrauchers, sondern nur ein Beweis für den Verlust unserer Handlungsfähigkeit. Aber solide Standards – die ich gerne als “Währung des Vertrauens” bezeichne – wie die, die von der IEEE entwickelt werden, können die Einhaltung bewährter Praktiken beschleunigen, weil der Markt natürlich zu Produkten und Dienstleistungen tendiert, die vertrauenswürdige Standards erfüllen.

UMSETZBARE SCHRITTE FÜR ETHISCHE KI

Welche Maßnahmen können Unternehmen heute ergreifen, um ethische KI zu entwickeln und einzusetzen?

Der erste Schritt besteht darin, einen Prozess zu definieren. Was bedeutet es, digitale Ethik umzusetzen? Sie müssen definieren, wofür Sie als Unternehmen stehen – Ihre Markenwerte – und dann eine Methodik entwickeln, um zu bewerten, inwieweit Ihr Einsatz von KI diese Werte derzeit erfüllt (oder nicht erfüllt). Sie sollten auch die Auswirkungen von KI auf die verschiedenen Stakeholder (Mitarbeiter, Kunden, Aktionäre, Gesellschaft) berücksichtigen. Anhand einer solchen Analyse der Lücken und der Auswirkungen auf die Stakeholder können Sie beurteilen, wo Sie stehen, und definieren, wo Sie hinwollen. Um Ihre Ziele zu erreichen, müssen Sie eine Methodik entwickeln, die die Ethik als Mechanismus für kritisches Denken und Entscheidungsfindung einbezieht. Dabei ist es meines Erachtens wichtig, dass Sie sich überlegen, welche Fachkenntnisse Sie haben und welche Fachkenntnisse Sie sich eventuell noch aneignen müssen, z. B. in der Disziplin der Ethik oder bei der Operationalisierung von Grundsätzen, wie sie von der IEEE vorgeschlagen werden.

Auf komplexe ethische Fragen gibt es oft nicht die eine richtige Antwort. Aber Sie sollten eine Antwort haben, hinter der Sie stehen können, und über Mechanismen verfügen, mit denen Sie nachweisen können, dass Ihre Behauptungen tatsächlich ein getreues Abbild Ihrer Tätigkeiten sind. In diesem Zusammenhang hat die IEEE ein Ethik-Zertifizierungsprogramm für autonome und intelligente Systeme (ECPAIS) ins Leben gerufen, das Unternehmen dabei helfen soll, konkrete Nachweise dafür zu erbringen, dass sie bei der Nutzung von KI bestimmte Standards für Verantwortlichkeit, Transparenz usw. erfüllen.