Studie AI & Ethics: 9 von 10 Unternehmer sehen ethische Defizite bei Nutzung von künstlicher Intelligenz

Publish date:

Autor: Magdalena Pozzi
  • Verbraucher fordern neue Regulierungen für KI und sind bereit, bei positiven KI-Erfahrungen mehr zu kaufen
  • Unternehmensführung, Datenwissenschaftler und HR/Marketing bei der Umsetzung von ethischen KI-Strategien gefragt

Wien, 5. Juli 2019 – Ethische Grundsätze [1] gewinnen für das Vertrauen der Öffentlichkeit in die Künstliche Intelligenz (KI) eine immer bedeutendere Rolle. Das zeigt die neue Studie des Capgemini Research Institute „Why adressing ethical Questions in AI will benefit Organizations” für die 1.580 Führungskräfte von Großunternehmen aus zehn Ländern sowie über 4.400 Verbraucher aus sechs Ländern befragt wurden. Verbraucher, Mitarbeiter und Bürger belohnen demnach ethisches Verhalten, sanktionieren aber auch zweifelhafte Praktiken. Als ethisch empfundene KI-Interaktionen steigern Kaufbereitschaft und Loyalität der Verbraucher gegenüber Unternehmen.

Einhaltung ethischer Grundsätze beeinflusst das Verhalten der Verbraucher
62 Prozent der befragten Verbraucher vertrauen Unternehmen mehr, wenn KI-basierte Interaktionen als ethisch wahrgenommen werden. Positive Erfahrungen würden 61 Prozent mit Freunden und Familie teilen, 59 Prozent würden eine höhere Loyalität gegenüber dem Unternehmen empfinden. Jeweils 55 Prozent geben an, sie würden in dem Fall mehr Produkte kaufen sowie gute Bewertungen in den sozialen Medien geben. Ethische Probleme [2] bei der KI-Interaktion, etwa fehlende Zustimmung zur Datennutzung oder intransparente und verzerrte Ergebnisse, haben negative Auswirkungen: 41 Prozent der Konsumenten würden sich beschweren, 36 Prozent eine Erklärung verlangen. Ein Drittel würde den Kontakt zum Unternehmen abbrechen.

Unternehmen sehen ethische Fragestellungen bei ihren KI-Systemen
In allen befragten Ländern glauben Führungskräfte aus knapp neun von zehn Unternehmen, dass die Nutzung von KI innerhalb der letzten zwei bis drei Jahre ethische Fragen aufgeworfen habe. Zu den Vorkommnissen zählen im Gesundheitswesen etwa das Erheben persönlicher Patientendaten ohne vorherige Zustimmung sowie ein übermäßiges Vertrauen in nicht transparente, maschinell getroffene Entscheidungen bei Banken und Versicherungen. 53 Prozent der Führungskräfte finden es wichtig sicherzustellen, dass KI-Systeme ethisch und transparent sind. 41 Prozent geben an, dass sie den Einsatz von ethisch problematischen KI-Systemen wahrscheinlich beenden würden oder dies bereits getan haben. Als wichtigste Gründe für ethische Defizite von KI-Systemen nennen Führungskräfte den Druck, KI-Systeme schnell einzuführen sowie Ressourcenmangel und fehlende Berücksichtigung ethischer Standards bei der Einführung von KI-Systemen. Für Datenwissenschaftler sind fehlende Richtlinien und Daten die größten Hindernisse, der zeitliche Druck kommt an vierter Stelle.

Verbraucher erwarten neue Regulierungen
Mit 47 Prozent gibt knapp die Hälfte der Befragten an, mindestens zwei Mal innerhalb der letzten zwei bis drei Jahre mit ethisch unzureichenden KI-Anwendungen konfrontiert worden zu sein. Wenn Leistungen KI-unterstützt sind, befürwortet die Mehrheit mehr Transparenz (74 Prozent) und möchte wissen, ob eine KI sie fair und diskriminierungsfrei behandelt (72 Prozent). Drei Viertel der Befragten, beziehungsweise 70 Prozent in Deutschland, sind der Ansicht, dass es weitere Regulierungen für Unternehmen zum KI-Einsatz geben sollte.

Die Öffentlichkeit ist zunehmend offen für KI-basierte Services, ist sich aber auch der möglichen ethischen Auswirkungen bewusst. Unternehmen stehen an einem Scheideweg: Es wird deutlich, dass es nicht allein um Vorschriften und Compliance geht, sondern ethische Grundsätze vorteilhaft für das eigene Geschäft sein können„, so Andreas Hornich, Head of Insights and Data bei Capgemini in Österreich. „Hierauf aufbauend sollten Unternehmen die passenden Strukturen und einen Wertekanon schaffen, um ethische Aspekte angemessen zu berücksichtigen und darauf achten, dass dies auch während der Entwicklung von KI-Systemen geschieht. Wird KI anschließend eingesetzt, ist es mindestens genauso wichtig, alle Beteiligten über die Interaktionen mit KI umfassend zu informieren und sie zu befähigen, bewusst mit ihr umzugehen.

Organisationen müssen auf eine ethische KI-Strategie fokussieren
Um die Bedenken zu adressieren und vom Vertrauensbonus eines ethischen KI-Einsatzes zu profitieren, empfiehlt Capgemini einen dreiteiligen Strategieansatz für eine ethische KI, der alle beteiligten Interessengruppen berücksichtigt.

  1. Managementebene, weitere Führungskräfte und für Vertrauen und Ethik zuständige Personen: Etablierung einer Strategie und eines Verhaltenskodex in Bezug auf KI als grundlegende Basis; Entwicklung von Richtlinien für einen akzeptable KI-Einsatz durch Mitarbeiter und Anwendungen; Verlässliche KI-Systeme und die Umsetzung von Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; Aufbau von Teams mit hoher Diversität, um eine umfassende Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.
  2.  Personalabteilung, Marketing, Kommunikation, Kundenservice und weitere Teams mit Kontakt zu Kunden und Mitarbeitern: Gewährleistung, dass KI-Anwendungen nach ethischen Prinzipien eingesetzt werden; fortlaufende Aufklärung und Informierung beteiligter Personen, um Vertrauen in KI-Systeme zu schaffen und ihnen mehr Entscheidungsfähigkeit und Kontrolle zu ermöglichen. Vertrauensbildung, indem durch KI hervorgerufene Probleme aktiv intern und extern bekanntgemacht werden.
  3. Leiter sowie IT-, KI- und Datenteams: KI-Systeme transparent und verständlich umsetzen; Sicherstellung eines umfassenden Datenmanagements, um das Risiko tendenziöser, Ergebnisse verfälschender Daten zu reduzieren; Nutzung technischer Werkzeuge, um Ethik in der KI zu verankern.

Luciano Floridi, Director of Digital Ethics Labs, Oxford Internet Institute dazu: „Die klassische Art Vertrauen zu gewinnen, lässt sich auch bei KI-Interaktionen in drei Worten zusammenfassen: Transparenz, Verantwortlichkeit und Befähigung: Transparenz, damit Menschen sehen, was man tut; Verantwortlichkeit, weil man die Verantwortung übernimmt für das, was man tut; und Befähigung, indem man die Verantwortung dafür übernimmt, dass es anderen möglich ist zu sagen, ob man das richtige getan hat oder etwas nicht gut war.

Die vollständige Studie ist hier kostenlos zum Download verfügbar.

Untersuchungsmethodik
Für die Studie wurden 1.580 Führungskräfte von Großunternehmen mit über einer Milliarde US-Dollar Jahresumsatz aus zehn Ländern (Deutschland, China, Frankreich, Indien, Italien, Niederlande, Spanien, Schweden, Großbritannien und USA) befragt. Diese setzen sich aus drei Gruppen zusammen: General Management/Strategie/Corporate, IT/KI/Data Science/Analytics und HR/ Marketing. Zudem wurden 4.400 Verbraucher aus sechs Ländern (USA, China, Großbritannien, Frankreich, Deutschland, Niederlande) befragt. Jeder der Befragten hatte in der Vergangenheit bestimmte Formen einer KI-Interaktion, so dass sie Fragen zu Ethik, Vertrauen und Transparenz bezüglich KI beantworten konnten. Das Capgemini Research Institute führte weiterhin umfassende Interviews mit mehr als 20 Wissenschaftlern, Branchenexperten und Unternehmern durch.

Über Capgemini
Capgemini ist einer der weltweit führenden Anbieter von Management- und IT-Beratung, Technologie-Services und Digitaler Transformation. Als ein Wegbereiter für Innovation unterstützt das Unternehmen seine Kunden bei deren komplexen Herausforderungen rund um Cloud, Digital und Plattformen. Auf dem Fundament von 50 Jahren Erfahrung und umfangreichem branchenspezifischen Know-how hilft Capgemini seinen Kunden, ihre Geschäftsziele zu erreichen. Hierfür steht ein komplettes Leistungsspektrum von der Strategieentwicklung bis zum Geschäftsbetrieb zur Verfügung. Capgemini ist überzeugt davon, dass der geschäftliche Wert von Technologie durch Menschen entsteht. Die Gruppe ist ein multikulturelles Unternehmen mit über 200.000 Mitarbeitern in mehr als 40 Ländern, das 2018 einen Umsatz von 13,2 Milliarden Euro erwirtschaftet hat.

Mehr unter https://www.capgemini.com/at-de/. People matter, results count.

Über das Capgemini Research Institute
Das Capgemini Research Institute ist Capgeminis hauseigener Think-Tank in digitalen Angelegenheiten. Das Institut veröffentlicht Forschungsarbeiten über den Einfluss digitaler Technologien auf große Unternehmen. Das Team greift dabei auf das weltweite Netzwerk von Capgemini-Experten zurück und arbeitet eng mit akademischen und technologischen Partnern zusammen. Das Institut hat Forschungszentren in Großbritannien, Indien und den USA.

 

[1]
Die „Ethik von KI“ bezieht sich darauf, inwieweit Zielsetzung, Gestaltung und Verwendung von Künstlicher Intelligenz nach ethischen Grundsätzen erfolgen. Die Bewertung erfolgt anhand folgender Dimensionen:

  • Transparenz: Funktionsweise ist klar, konsistent und nachvollziehbar
  • Überprüfbarkeit: Ermöglicht Dritten, den Dateninput zu bewerten und sicherzustellen, dass Ergebnisse vertrauenswürdig sind
  • Erklärbarkeit: Fähigkeit, die Funktionsweise in verständlicher Sprache zu erklären
  • Interpretierbarkeit: Möglichkeit zu erkennen, dass Ergebnisse bei verändertem Dateninput variieren können
  • Unvoreingenommenheit („Bias“) und Fairness: Eliminiert oder reduziert Diskriminierung bestimmter Nutzer durch vorurteilsbehaftete, tendenziöse Datensätze, die zu voreingenommenen Ergebnissen führen, die sich durch Algorithmen verfestigenden können

[2]
Hierzu zählen unter anderem: Die Verarbeitung personenbezogener Daten ohne vorherige Einwilligung; intransparente und nicht zurückzuverfolgende Entscheidungsfindungen mittels Machine Learning; diskriminierende Entscheidungen, Preisgestaltungen und Angebote aufgrund tendenziöser, vorurteilsbehafteter Daten und/oder fehlerhaften Algorithmen; Verwendung erhobener Daten für weitere Zwecke als ursprünglich intendiert; etc.

PM_Studie_KI_und_Ethik_Capgemini...

Dateigröße: 143,21 KB File type: PDF

Ethics in AI Infographic

Dateigröße: 823,72 KB File type: PDF