Befangene künstliche Intelligenz: Warum auch Bots in Schubladen denken

Publish date:

KI-Systeme sind nicht per se analytisch und neutral. Sie denken und bewerten in denselben Schubladen, wie die Menschen, die sie schaffen – mit Konsequenzen.

RSS-Feed abonnieren

Vorurteile sind einer der größten Makel des Menschen, und ein hartnäckiges obendrein. Egal wie alt wir sind, wie viel wir wissen oder zu wissen glauben, unser Denken ist geprägt von Stereotypen und sie schleichen sich ein in alles was wir tun. Kein Mensch kommt ihnen aus, auch nicht diejenigen, die Programme für maschinelles Lernen (ML) und künstliche Intelligenz (KI) entwickeln. Und ihre Kreationen fallen nicht weit vom Stamm.

Die objektive Neutralität von KI-Systemen ist also eine Illusion. Aber warum ist das so? Warum gibt es keinen vorurteilsfreien Bot? Die Antwort ist einfach: Maschinen verstehen die Welt nicht per se, sondern nur in den Bahnen, die ihre Entwickler ihnen legen. Ein Computersystem kann so intelligent sein wie es will, es weiß immer nur das, was sein Algorithmus ihn aus den Daten abzuleiten befähigt.

Verzerrte Datensätze

Aber Datensätze sind fehleranfällig – leider. Jeder Datensatz ist in die eine oder andere Richtung hin verzerrt, z.B. weil er auf Basis vorgefasster Annahmen erstellt wurde, weil das zugrundliegende Modell tendenziöse Züge hat, weil der Algorithmus auf Basis einer stereotypischen Betrachtung verfasst wurde oder die Datensätze schlichtweg unvollständig sind. All das verzerrt die Wirklichkeit, die der vorliegende Datensatz in der Lage ist zu repräsentieren.

Es kann aber auch vorkommen, dass bestimmte Personengruppen in den Datensätzen gar nicht auftauchen. Meist passiert das unabsichtlich, aber es hat Konsequenzen: Wenn eine solche Verzerrung zu Diskriminierung oder (Racial) Profiling führt, z.B. aufgrund von Geschlecht, ethnischer Zugehörigkeit oder entlang anderer sozialer Identitäten, ist das Grund zur Sorge. Vor allem wenn soziale oder biologische Eigenschaften die Grundlage für errechnete Wahrscheinlichkeiten bilden oder Prognosen liefern, wirft das ethisch große Fragen auf. Joy Buolamwini vom MIT entdeckte zum Beispiel, dass Frauen mit dunkler Haut von einer Gesichtserkennungssoftware nur sehr schlecht erkannt werden – und zwar von einer Software, die bereits auf dem Markt verfügbar ist.

„Daten über Menschen kodieren standardmäßig auch Vorannahmen über Menschen. Sich dessen bewusst zu werden, ist ein guter Anfang (….).“

Ben Packer et al. (Google AI)

Welche Erkenntnis ziehen wir also aus alledem? Wenn wir Algorithmen einsetzen, um Entscheidungen für andere Menschen und über andere Menschen zu treffen, müssen wir die zugrundliegenden Daten intensiv überprüfen. Aber was, wenn Sie die Software von der Stange und bereits fertig einkaufen?

Die Katze im Sack

Nehmen wir moderne Bilderkennungssoftware als Beispiel: Die Software funktioniert inzwischen hervorragend. Bei der Erkennung von Alltagsgegenständen schneidet die Maschine sogar besser ab als der Mensch. Und warum? Weil sie umfassend geschult und mit Millionen vielleicht sogar Milliarden Beispielen getestet wurde. Dennoch macht sie Fehler, genau wie auch der Mensch. Google Photos hat z.B. dunkelhäutige Menschen als Gorillas identifiziert – ein sehr unangenehmer Fehler, der einen entsprechend großen Eklat ausgelöst hat.

Kaufen Sie also eine Software, dann profitieren Sie von der Größe des Erfahrungsschatzes, den das Programm beim Anbieter und bei Vorgängern in Summe gesammelt hat. Das ist großartig, weil es KI-Projekte schneller voranbringt, wenn die Systeme nicht mehr aufwändig von der Pike auf geschult werden müssen. So viel zum Vorteil. Der große Nachteil ist: Sie wissen nicht, wie und was die Software gelernt hat und welche Vorurteile mit dem System frei Haus mitgeliefert werden. Der Lieferant wird es ihnen wohl kaum sagen bzw. sagen können – und die Software erst recht nicht.

Sie kaufen also die Katze im Sack, alle Fähigkeiten und Fehler kommen frei Haus inklusive. Wenn Sie Ihre KI-Software zum Einsatz bringen, prüfen Sie bitte ganz genau, dass sie nicht diskriminiert, benachteiligt, oder bevormundet. Ansonsten schreiben sich die Medienberichte über Sie ganz von selbst – und es werden keine guten sein.

Weitere Posts

Artificial Intelligence

Artificial Intelligence and the Destruction of the Flying Goose Paradigm

Kai Broek
Date icon November 16, 2018

What happens to the global workforce if AI flatlines jobs everywhere in the world?

Artificial Intelligence

Mehr als ein „Versprechen“? 5 Hebel für eine erfolgreiche Industrie 4.0 Transformation

Jochen Bechtold
Date icon Oktober 19, 2018

Seit mehr als fünf Jahren ist das „Versprechen Industrie 4.0“ nun im Markt. Stand heute ist...

Application Management

DevOps unverzichtbar für Business-zentriertes Application Management

Alfred Aue
Date icon September 26, 2018

Höhere Komplexität erfordert engere Zusammenarbeit und Automatisierung

cookies.

Mit dem Fortsetzen des Besuchs dieser Website akzeptieren Sie die Verwendung von Cookies.

Für mehr Informationen und zur Änderungen der Cookie-Einstellungen auf Ihrem Computer, lesen Sie bitte Privacy Policy.

Schließen

Cookie Information schließen