Künstliche Intelligenz und Machine Learning: Wer trägt hier eigentlich die Verantwortung?

Publish date:

Menschen machen sich abhängig von Maschinen. Aber wer hat in Zukunft eigentlich das letzte Wort?

RSS-Feed abonnieren

Reinoud Kaasschieter, Capgemini

Diesen Sommer fuhr ich an einen Ort, an dem ich noch nie zuvor war. Normalerweise verlasse ich mich bei Autofahrten immer auf die Ansagen meines Navis. Aber eines Tages schaltete ich, mutig wie ich war, das System aus und überließ mich ganz meinem guten alten Orientierungssinn. So viel vorweg: Ich hab mein Ziel erreicht, meine Urinstinkte scheinen noch intakt. Aber gleichzeitig wurde mir auch bewusst, wie abhängig wir doch mittlerweile von den Computern sind, die Entscheidungen für uns treffen.

Wer hat das letzte Wort?

Wann sind Sie eigentlich stur und suchen sich Ihre eigene Route? Vermutlich nicht auf unbekanntem Terrain. Dort, wo ich wohne, entscheide ich mich ganz oft gegen vorgeschlagene Routen. Aber nur, weil ich die Situation in meiner Gegend kenne. Weil ich weiß, welche Ampeln immer rot sind, welche Straßen wann verstopft sind und wo welche Baustellen stattfinden.

Und noch können wir unseren Routenhelfer einfach ignorieren und unser eigenes Ding machen. Aber in Zukunft, wenn wir ausschließlich in autonomen Autos sitzen, werden wir das System nicht so einfach überschreiben können. Wer hat dann das letzte Wort? Werden wir vollkommen abhängig sein vom Algorithmus und seinen Entscheidungen?

Wer mehr weiß, gewinnt?

Wir können computergestützte Entscheidungen nur kritisch bewerten, wenn wir mindestens den gleichen Kenntnisstand über das betreffende Thema haben, wie z. B. hier die Straßenverhältnisse. Nur dann können wir unsere eigenen Entscheidungen über die des Algorithmus stellen. Und manchmal müssen wir das sogar.

Nehmen wir mal ein Beispiel, bei dem es um Leben und Tod geht: IBM Watson for Oncology schlägt Onkologen Diagnosen und Behandlungsmethoden auf Grundlage medizinischer Befunde und der Vorgeschichte des Patienten vor. Und IBM Watson scheint sehr gut zu sein in medizinischer Beratung. Nichtsdestotrotz muss der menschliche Experte, in diesem Fall der Arzt, sich immer auch kritisch mit den Vorschlägen der KI auseinandersetzen. Und zwar nicht nur, weil der Computer einerseits falsch liegen könnte, auch weil die menschliche Auseinandersetzung mit den maschinellen Ergebnissen zentral für den KI-Lernprozess ist. Ohne Feedback aus der realen Welt kann die Maschine nicht lernen und sich verbessern – es ist genauso wie beim Menschen.

„(….) selbst die am stärksten automatisierten Systeme verlassen sich auf Experten und Manager, um Regeln zu erstellen und zu pflegen und die Ergebnisse zu überwachen.“
Thomas H. Davenport und Jeanne G. Harris, MIT

Komplettieren oder ersetzen?

Laut IBM sind die besten Business Cases für AI diejenigen, bei denen der Computer mehr weiß als der Mensch. Hier kann AI den Menschen unterstützen und Entscheidungen verbessern.

Aber es gibt aber auch eine starke Tendenz dahin, Menschen nicht zu komplettieren, sondern ganz zu ersetzen. Nämlich immer dann, wenn Computer bessere und zuverlässigere Entscheidungen treffen. Aber das ist ein ganz gefährliches Spiel. Denn ist diese Linie erst einmal überschritten, dann sind Computer über allen Zweifel erhaben und alles, was sie entscheiden, steht außer Frage.

So, nun können wir Entscheidungswege des Computers zwar rekonstruieren, indem wir uns den Code anschauen. Aber in der beginnenden Ära von Machine Learning und künstlicher Intelligenz ist der Code rollierend und die Lernbasis ist oft noch schwammig. Nachzuvollziehen, welche Entscheidungsregel hier am Werk ist, wird dadurch ungleich schwerer.

 „Jetzt wird es seltsam. Niemand kann antworten, weil niemand versteht, wie diese Systeme (….) ihre Ergebnisse erzeugen.“
(Clive Thomson, Wired)

Künstliche Intelligenz ist eine Blackbox

Die Haftbarkeit von Computern, ihren Lieferanten, Programmierern und Eigentümern ist seit langem Gegenstand rechtlicher Diskussionen. Interessant für mich ist allerdings nicht nur die rechtliche Frage, sondern die der Verantwortung. Wir müssen das Warum der Entscheidung kennen, um einzuschätzen, ob sie fair und gerechtfertigt ist. Aber: Gerade KI-Systeme sind oft eine Blackbox und geben ihre Rechnung nicht so gerne preis, denn im Prinzip ist das ja das große Betriebsgeheimnis.  Wenn aber die Künstliche Intelligenz die Verantwortung für ihre Entscheidungen übernehmen soll, dann erfordert das ein hohes Maß an Offenheit von den Organisationen, die sie einsetzen.

Wenn sich Organisationen ihren KI-Systemen ein bisschen mehr in die Karten blicken lassen, dann können sie das auch gut zu ihrem Vorteil ummünzen. Intransparente Prozesse machen den Menschen misstrauisch, das Gegenteil schafft hingegen schafft Akzeptanz und Vertrauen.

Dazu drei Vorschläge:

  1. IBM Watson legt dem Anwender sehr detailliert offen, wie Schlussfolgerungen zustande kommen. Das finde ich sehr richtig und wichtig. IBM gibt hier Transparenz über die angewandten Regeln und Entscheidungen, so dass für alle Nutzer sichtbar wird, welche Informationen entscheidend waren. Auf dieser Basis können wir die Logik dahinter besser diskutieren und verargumentieren. Kommt der Computer zu falschen Annahmen, können wir ihn korrigieren und verbessern – als Teil des Lernprozesses.
  2. Eine weitere Idee wäre, dass künstliche Intelligenzen ihre Algorithmen veröffentlichen müssen, und zwar über die angewandten Regeln und Vorschriften hinaus. Beim maschinellen Lernen müssen wir wissen, welche Werte und Moralvorstellungen bei der Entwicklung des Systems verwendet wurden. Mike Ananny, Assistenzprofessor für Kommunikation und Journalismus an der University of Southern California, sagt, dass wir eine breite Interpretation von ‚Algorithmus‘ brauchen: „Die sozialen, kulturellen, politischen und ethischen Kräfte, die mit ihnen verwoben sind“, sind Teil des großen Ganzen. Weil diese Systeme durch ihre Entscheidungsbefugnis Macht über ihre Nutzer ausüben, muss diese Macht auch transparent sein.
  3. Die Robotik braucht eine Notbremse. Mittlerweile können Maschinen Entscheidungen ganz autonom treffen und ausführen. Sind diese falsch oder dysfunktional, müssen wir immer in der Lage sein, die Geräte abzuschalten. Zum Beispiel im Aktienhandel werden die meisten Geschäfte über selbstständige Computer abgewickelt. Sie fällen Entscheidungen teilweise im Bruchteil einer Sekunde, für Menschen unmöglich zu überwachen. Das Risiko dabei: die Computer könnten starke Kurseinbrüche verursachen, die wiederum eine ganze Finanzwelt in die Krise stürzen könnten.

Künstliche Intelligenz ermöglicht es uns, bessere und schnellere Entscheidungen zu treffen – aber das ist zu kurz gedacht. Wir müssen uns auch mit den negativen Folgen von Entscheidungsunterstützungssystemen befassen: Wo sich die Systeme irren können, wie das unser Leben beeinflussen wird und wie wir künstliche Intelligenzen dafür zur Verantwortung ziehen können.

Weitere Posts

Application Management

DevOps unverzichtbar für Business-zentriertes Application Management

Alfred Aue
Date icon September 26, 2018

Höhere Komplexität erfordert engere Zusammenarbeit und Automatisierung

Artificial Intelligence

How Shared Service Organizations rethink their way of doing business

Max Scheuermann
Date icon September 17, 2018

Shared Service Organizations rethink their way of doing business – From transactional...

IT-Trends

Künstliche Intelligenz: Angriff auf die Unpünktlichkeit

Stefan Sack
Date icon September 11, 2018

Ganz gleich, wie kurz die Reise ist: Von A nach B kann viel passieren – und schon wird es...

cookies.

Mit dem Fortsetzen des Besuchs dieser Website akzeptieren Sie die Verwendung von Cookies.

Für mehr Informationen und zur Änderungen der Cookie-Einstellungen auf Ihrem Computer, lesen Sie bitte Privacy Policy.

Schließen

Cookie Information schließen