Befangene künstliche Intelligenz: Warum auch Bots in Schubladen denken

Publish date:

KI-Systeme sind nicht per se analytisch und neutral. Sie denken und bewerten in denselben Schubladen, wie die Menschen, die sie schaffen – mit Konsequenzen.

RSS-Feed abonnieren

Vorurteile sind einer der größten Makel des Menschen, und ein hartnäckiges obendrein. Egal wie alt wir sind, wie viel wir wissen oder zu wissen glauben, unser Denken ist geprägt von Stereotypen und sie schleichen sich ein in alles was wir tun. Kein Mensch kommt ihnen aus, auch nicht diejenigen, die Programme für maschinelles Lernen (ML) und künstliche Intelligenz (KI) entwickeln. Und ihre Kreationen fallen nicht weit vom Stamm.

Die objektive Neutralität von KI-Systemen ist also eine Illusion. Aber warum ist das so? Warum gibt es keinen vorurteilsfreien Bot? Die Antwort ist einfach: Maschinen verstehen die Welt nicht per se, sondern nur in den Bahnen, die ihre Entwickler ihnen legen. Ein Computersystem kann so intelligent sein wie es will, es weiß immer nur das, was sein Algorithmus ihn aus den Daten abzuleiten befähigt.

Verzerrte Datensätze

Aber Datensätze sind fehleranfällig – leider. Jeder Datensatz ist in die eine oder andere Richtung hin verzerrt, z.B. weil er auf Basis vorgefasster Annahmen erstellt wurde, weil das zugrundliegende Modell tendenziöse Züge hat, weil der Algorithmus auf Basis einer stereotypischen Betrachtung verfasst wurde oder die Datensätze schlichtweg unvollständig sind. All das verzerrt die Wirklichkeit, die der vorliegende Datensatz in der Lage ist zu repräsentieren.

Es kann aber auch vorkommen, dass bestimmte Personengruppen in den Datensätzen gar nicht auftauchen. Meist passiert das unabsichtlich, aber es hat Konsequenzen: Wenn eine solche Verzerrung zu Diskriminierung oder (Racial) Profiling führt, z.B. aufgrund von Geschlecht, ethnischer Zugehörigkeit oder entlang anderer sozialer Identitäten, ist das Grund zur Sorge. Vor allem wenn soziale oder biologische Eigenschaften die Grundlage für errechnete Wahrscheinlichkeiten bilden oder Prognosen liefern, wirft das ethisch große Fragen auf. Joy Buolamwini vom MIT entdeckte zum Beispiel, dass Frauen mit dunkler Haut von einer Gesichtserkennungssoftware nur sehr schlecht erkannt werden – und zwar von einer Software, die bereits auf dem Markt verfügbar ist.

„Daten über Menschen kodieren standardmäßig auch Vorannahmen über Menschen. Sich dessen bewusst zu werden, ist ein guter Anfang (….).“

Ben Packer et al. (Google AI)

Welche Erkenntnis ziehen wir also aus alledem? Wenn wir Algorithmen einsetzen, um Entscheidungen für andere Menschen und über andere Menschen zu treffen, müssen wir die zugrundliegenden Daten intensiv überprüfen. Aber was, wenn Sie die Software von der Stange und bereits fertig einkaufen?

Die Katze im Sack

Nehmen wir moderne Bilderkennungssoftware als Beispiel: Die Software funktioniert inzwischen hervorragend. Bei der Erkennung von Alltagsgegenständen schneidet die Maschine sogar besser ab als der Mensch. Und warum? Weil sie umfassend geschult und mit Millionen vielleicht sogar Milliarden Beispielen getestet wurde. Dennoch macht sie Fehler, genau wie auch der Mensch. Google Photos hat z.B. dunkelhäutige Menschen als Gorillas identifiziert – ein sehr unangenehmer Fehler, der einen entsprechend großen Eklat ausgelöst hat.

Kaufen Sie also eine Software, dann profitieren Sie von der Größe des Erfahrungsschatzes, den das Programm beim Anbieter und bei Vorgängern in Summe gesammelt hat. Das ist großartig, weil es KI-Projekte schneller voranbringt, wenn die Systeme nicht mehr aufwändig von der Pike auf geschult werden müssen. So viel zum Vorteil. Der große Nachteil ist: Sie wissen nicht, wie und was die Software gelernt hat und welche Vorurteile mit dem System frei Haus mitgeliefert werden. Der Lieferant wird es ihnen wohl kaum sagen bzw. sagen können – und die Software erst recht nicht.

Sie kaufen also die Katze im Sack, alle Fähigkeiten und Fehler kommen frei Haus inklusive. Wenn Sie Ihre KI-Software zum Einsatz bringen, prüfen Sie bitte ganz genau, dass sie nicht diskriminiert, benachteiligt, oder bevormundet. Ansonsten schreiben sich die Medienberichte über Sie ganz von selbst – und es werden keine guten sein.

Weitere Posts

Artificial Intelligence

How Shared Service Organizations rethink their way of doing business

Max Scheuermann
Date icon September 17, 2018

Shared Service Organizations rethink their way of doing business – From transactional...

IT-Trends

Künstliche Intelligenz: Angriff auf die Unpünktlichkeit

Stefan Sack
Date icon September 11, 2018

Ganz gleich, wie kurz die Reise ist: Von A nach B kann viel passieren – und schon wird es...

Cybersecurity

Schwerpunkt Commerce: Datensicherheit als USP

Dr. Paul Lokuciejewski
Date icon September 6, 2018

Ein sicherer Einkauf ist ein Pfund, mit dem Händler wuchern können.

cookies.

Mit dem Fortsetzen des Besuchs dieser Website akzeptieren Sie die Verwendung von Cookies.

Für mehr Informationen und zur Änderungen der Cookie-Einstellungen auf Ihrem Computer, lesen Sie bitte Privacy Policy.

Schließen

Cookie Information schließen