Künstliche Intelligenz: Wie halten wir’s mit Recht und Ethik!?

Publish date:

Beim Einsatz Künstlicher Intelligenz wird zunehmend auch über den rechtlichen Rahmen und ethische Dimensionen diskutiert. Womit künftig zu rechnen ist und was Kunden tatsächlich interessiert, erläutert KI-Experte Fabian Schladitz.

Fabian Schladitz, Capgemini

Wenn Unternehmen überlegen, intelligente Technologien wie Natural Language Processing, Machine Learning und Bilderkennung einzusetzen, spielen rechtliche Rahmen eine untergeordnete Rolle – das ergab die IT-Trends-Studie 2019. Doch es ist absehbar, dass der Einsatz Künstlicher Intelligenz (KI) reglementiert werden wird. Die Bundesregierung will im Rahmen ihrer KI-Strategie Gesetze anpassen und Standards und Normen etablieren. Zugleich ist KI im öffentlichen Bewusstsein angekommen und für Konsumenten werden ethische und rechtliche Aspekte zunehmend wichtiger.

Kurzum, Unternehmen sollten frühzeitig reagieren, um rechtlichen Anforderungen langfristig zu entsprechen und das Vertrauen der Kunden zu sichern, da dieses für den Geschäftserfolg noch wichtiger wird.

Quelle: Capgemini IT-Trends Studie 2019

Transparenz beim KI-Einsatz ist für Kunden zentral

Verbraucher wissen zunehmend, dass ihre Daten durch KI bearbeitet oder Anfragen von mehr oder minder klugen Chatbots beantwortet werden. Ethische Aspekte für das Vertrauen in Unternehmen werden somit wichtiger. Die Studie Why adressing ethical Questions in AI will benefit Organizations verdeutlicht die Auswirkungen auf das Geschäftsumfeld: Demnach schenken Kunden Unternehmen mehr Vertrauen und kaufen mehr von ihnen, wenn sie positive KI-Erfahrungen machen. Umgekehrt beschweren sie sich oder brechen den Kontakt zum Unternehmen gleich ganz ab, wenn KI-Praktiken als ethisch fragwürdig empfunden werden.

Zudem fordern jeweils drei Viertel der Verbraucher mehr Transparenz – eine Grundvoraussetzung für den ethischen KI-Einsatz – und neue Regularien. Hier gibt es also Handlungsbedarf, zumal Führungskräfte aus neun von zehn Unternehmen schon ethisch fragliche KI-Nutzungen beobachtet haben.

Quelle: Capgemini KI-Ethik Studie

Was heute schon gilt: KI ist dokumentationspflichtig

Die gesellschaftliche Diskussion um Entscheidungen künstlicher Intelligenzen ist noch lange nicht abgeschlossen. Doch unabhängig von künftigen Regulierungen müssen bereits heute Algorithmen aufbewahrt sowie Entscheidungen künstlicher Intelligenzen nachvollziehbar sein und dokumentiert werden – sprich die Überprüfbarkeit gewährleistet sein.

KIs sollen keinen „Bias“ haben, also nicht diskriminieren. Da sie meist anhand historischer Daten trainiert werden, sollten diese vorab überprüft werden. Inzwischen gibt es mathematische Verfahren, um Trainingsdaten semiautomatisch zu testen. Gleichzeitig sollten Entscheider sich vor Augen halten, dass der bisher menschliche Sachbearbeiter unbewusst diskriminiert haben könnte und ein „genau wie bisher“ nicht richtig sein muss.

Quelle: Capgemini KI-Ethik Studie

Was kommen könnte: Anpassungen der KI aufgrund von Gesetzen

Darüber hinaus müssen sich die Entscheidungen an geltendes Recht halten. Das bedeutet, dass die KI bei Gesetzesänderungen angepasst werden muss. Je einfacher die Entscheidung ist, desto weniger Aufwand entsteht. Komplexere Systeme müssen nach tiefgreifenden Veränderungen aber eventuell komplett neu und mit entsprechendem Aufwand aufgesetzt werden. Es wird derzeit auch vereinzelt diskutiert, die Einspruchsfristen gegen Entscheidungen einer KI zu verlängern, um das Vertrauen in die Technologie zu stärken.

Worüber diskutiert wird: TÜV für lernende KI-Systeme

Lernende Systeme, die anhand externer Daten trainiert werden, können manipuliert werden. Ein Beispiel: In der automatischen Bilderkennung, wo unsichtbares Rauschen und andere Abweichungen dazu führen, dass die KI etwas vollkommen anderes als dargestellt erkennt. Prominent vorgeführt wurde dies mit Teslas Autopilot, der sich durch Aufkleber auf dem Seitenstreifen verwirren ließ.

KI wird zwar von Menschen trainiert, die Entscheidungskriterien sind aber oftmals unbekannt. Daher ist es schwer, alle denkbaren Manipulationsversuche vorauszusehen und zu blockieren. Dementsprechend ist zu erwarten, dass solche Systeme besonderen Sicherheitsauflagen unterworfen werden. Einige Wissenschaftler fordern eine Art regelmäßiger TÜV-Untersuchungen.

Was Unternehmen tun sollten: ethische Rahmenbedingungen für KI festlegen

Abgesehen von rechtlichen Auflagen sollten Unternehmen frühzeitig klären, zu welchem Zweck KI in ihrem Unternehmen eingesetzt werden soll. Denn die Ergebnisse der „Ethics in AI“ Studie zeigen, dass Mitarbeiter den KI-Einsatz ähnlich wie die Verbraucher beurteilen. Werte und Richtlinien geben Sicherheit und ermöglichen ihnen KI-Anwendungen zu entwickeln und anzuwenden, ohne für jeden Anwendungsfall individuell entscheiden zu müssen oder gar einen moralischen Konflikt zu verursachen. Besonders gefragt sind hier drei Unternehmensbereiche:

  • Die Führungs- und Managementebene, um unternehmensweit eine Strategie und einen Verhaltenskodex in Bezug auf KI zu initiieren
  • Teams mit Kundenkontakt, etwa HR, Marketing und Kundenservice, um einen transparenten und ethischen Prinzipien entsprechenden KI-Einsatz gegenüber dem Kunden sicherzustellen und ihn gleichzeitig umfassend (auf Wunsch) zu informieren
  • IT-, KI- und Datenteams, um die Qualitätsanforderungen an Daten und KI-Systeme sicherzustellen und den Einsatz zu dokumentieren

Fazit

KI nicht nur aus der Technologieperspektive betrachten, frühzeitig handeln, langfristig profitieren – so könnte die komprimierte Empfehlung an Unternehmen lauten. Wer seine KI-Nutzung nicht langfristig an Vorschriften und Compliance ausrichtet und Änderungen der Regularien frühzeitig antizipiert, der gefährdet seinen Geschäftserfolg. Gleiches gilt seit jeher für die Kundenbedürfnisse und damit zunehmend auch für ethische Grundsätze, wenn Interaktionen mit KI einen nachhaltigen Mehrwert liefern sollen. Wie bereiten Sie Ihr Unternehmen auf KI vor, haben Sie die oben beschriebenen Anforderungen bereits einkalkuliert? Schreiben Sie mir!

Treffen Sie mich beim Voice Entscheiderforum

Erfahren Sie mehr über unsere Studie zu KI und Ethik oder treffen Sie mich beim Voice Entscheiderforum vom 18. – 20. Sep 2019 in Berlin. Ich freue mich auf den Austausch mit Ihnen!

Die wichtigsten Erkenntnisse der Studie hier (per Klick) zum Download:

Weitere Posts

Künstliche Intelligenz

Künstliche Intelligenz im Gesundheitswesen: Die Krankenversicherung der Zukunft

Lisa Neumann
Date icon Juni 21, 2019

KI bietet gesetzlichen Krankenversicherungen und ihren 70 Millionen Versicherten neue...

Künstliche Intelligenz

Künstliche Intelligenz: wer braucht eigentlich einen KI-Beauftragten?

Fabian Schladitz
Date icon Juni 14, 2019

Künstliche Intelligenz (KI) bietet viele Chancen, ihr Einsatz zieht aber auch weitreichende...

AI

Künstliche Intelligenz – wir brauchen eine nachhaltige Lösung

Thorsten Schmidt
Date icon Mai 22, 2019

Wir brauchen eine Künstliche Intelligenz, die nachhaltig, ethisch und menschenbezogen ist....

cookies.

Mit dem Fortsetzen des Besuchs dieser Website akzeptieren Sie die Verwendung von Cookies.

Für mehr Informationen und zur Änderungen der Cookie-Einstellungen auf Ihrem Computer, lesen Sie bitte Privacy Policy.

Schließen

Cookie Information schließen