Computer Vision mit Deep Learning, Part II: Modelle und Fallbeispiele

Publish date:

Künstliche Intelligenz kann sehen und Abstraktionsvermögen aufbauen. Und das mittlerweile so gut, dass autonome Maschinen bereits heute auf offener Straße unterwegs sind und Supermärkte anfangen, Kassen durch Kameras zu ersetzen. Finden auch Sie Ihr ideales Anwendungsfeld.

RSS-Feed abonnieren

Sogenannte Convolutional Neural Networks, kurz CNNs, machen es möglich. Sie erlauben dem KI-System, Muster und Objekte auf Bildern zu erkennen und ihre Bedeutung zu abstrahieren. Wie das funktioniert, habe ich in meinem letzten Blogartikel genauer erklärt.

Für die maschinelle Bilderkennung markiert das ein ganz neues, vielversprechendes Level an Genauigkeit – mit unzähligen neuen Anwendungsfällen. Aber: Nicht für jeden sind die passenden Use Cases im eigenen Umfeld einleuchtend. Dieser Artikel soll Ihnen dabei helfen, mit einer Gegenüberstellung der beiden grundlegenden Ansätze: Objekterkennung und Klassifikation, mit ihren jeweiligen Stärken und Schwächen.

Objekterkennung versus Klassifizierung

Die Aufgabe eines Klassifikationsmodells ist es, einem Bild eine oder mehrere ausgewählte Kategorien zuzuordnen. So wie hier auf dem Foto: Was wir sehen, ist eine Straßenkreuzung. Das System ordnet dem Bild Konzepte oder Dinge zu, die es zu erkennen glaubt.

Bei der Objekterkennung hingegen sucht das System das Bild nach bestimmten Merkmalen ab. Sobald es ein bekanntes gefunden hat, gibt es dessen Objektklasse sowie die Position im Bild als Ergebnis zurück. Durch diesen Ansatz können viele Objekte (von verschiedenen oder der gleichen Klasse) oder auch mal gar keine im Bild gefunden werden. Ein großer Pluspunkt dieser Methode ist die exakte Lokalisierung. Kennen wir nämlich den Bildausschnitt, in dem das Objekt gefunden wurde, können wir diesen Abschnitt detaillierter betrachten und auch Objekte auf dem Bild in Relation zueinander setzen. Nehmen wir beispielsweise ein Bild der Frontalkamera eines autonomen Fahrzeuges. In diesem Fall kann es über Leben und Tod entscheiden, ob eine Person auf oder neben der Fahrbahn erkannt wird, ob diese sich auf die Fahrbahn zu- oder wegbewegt.

 

Stärke und Schwäche zugleich

Die Stärke der Objekterkennung gegenüber der Klassifikation ist ihre Flexibilität, potentiell eines oder mehrere beziehungsweise gar keine Objekte zu erkennen. Vergleicht man die beiden Beispiele oben, sieht man deutliche Unterschiede im Detailgrad der Ergebnisse. Diese Stärke ist aber zugleich auch Schwäche, denn die Objekterkennung kann nur physische Dinge bzw. eindeutig sichtbare, trennscharfe Formen im Bild ausmachen. Die Objekte, nach denen das System das Bild absucht, müssen dafür immer explizit gelernt werden. Und auch muss, anders als bei der Klassifikation, eine Gesamtbewertung aus den Ergebnissen mithilfe einer Regel abgeleitet werden: Nehmen wir an, ein Bild zeigt einen Fußgänger, der unvorsichtig die Fahrbahn betritt. Einem Klassifikationsmodell kann man beispielsweise antrainieren, dass die gezeigte Situation gefährlich ist. Bei einer Objekterkennung liegt es uns an uns, dies aus den Ergebnissen anhand einer Regel abzuleiten, z. B. Person + Fahrbahn = Gefahr.

Im Gegensatz dazu bewertet die Klassifikation das Bild als Ganzes. Dadurch kann es auch abstraktere Konzepte oder Szenen einordnen. Es ist z. B. möglich, einem Klassifikationsmodell anzutrainieren, realistische von expressionistischen Gemälden zu unterscheiden. Die Objekterkennung könnte das nicht so ohne Weiteres leisten, schließlich können wir die Unterschiede beider Strömungen nicht einfach auf einige wenige, im Bild sichtbare und wiederkehrende Merkmale reduzieren – mal abgesehen von der Signatur des Künstlers. Im folgenden Bild können zum Beispiel von einem Klassifikationsmodell auch die Konzepte „Zusammengehörigkeit“ und „Liebe“ erkannt werden. Ein Ergebnis, welches sich mit Objekterkennung nicht erreichen lässt, da es keine eindeutigen, visuell sichtbaren Bildmerkmale dafür gibt.

Fallbeispiele im Schnelldurchlauf

Wir kennen die Stärken und Schwächen der beiden Ansätze, doch in der Realität stehen wir gar nicht vor der Wahl. Wir müssen uns nicht entscheiden, sondern können mehrere Modelle hinter- oder nebeneinander schalten und so die Lösungen für die unterschiedlichsten Probleme finden. Wir können beispielsweise mithilfe der Objekterkennung den Ausschnitt des Bildes erkennen, der uns relevant erscheint, und ihn mithilfe eines weiteren Modells im Detail analysieren.

Die Anwendungsfälle, die sich dadurch ergeben, sind zahllos. Hier im Schnelldurchlauf ein paar Beispiele: Bei Qualitätskontrollen, z. B. in der diskreten Produktion, kann die Objekterkennung zunächst fehlende oder falsch montierte Teile erfassen. Die strukturell beschädigten Produkte findet das System schließlich mithilfe der Klassifikation. Denn das Klassifikationssystem hat aus Trainingsbildern gelernt, zwischen guter und schlechter Qualität zu unterscheiden, selbst wenn Qualität gar nicht an spezifischen Merkmalen festzumachen ist.

Gehen wir weiter: In Logistik und Handel z. B. kann die Objekterkennung Produktlieferungen oder Regale auf Vollständigkeit überprüfen und schauen, ob Schäden bestehen. Versicherungsschäden können mit der Klassifikationsmethode in verschiedene Schweregrade kategorisiert oder als kritisch bewertet werden. In Kombination mit der entsprechenden Technik (z. B. Drohnen) wäre es sogar möglich, Sachkapital automatisiert aber dennoch weitreichend zu kontrollieren und teure Überraschungen im Vorfeld zu vermeiden, z. B. im Falle von öffentlicher Infrastruktur wie Straßen, Brücken, Tunnel, Schienen, Flughäfen, usw.

Aber auch interne Prozesse profitieren: Selbst die Einordnung gescannter Dokumente, welche auf den „ersten Blick“ möglich ist, aber immer noch vom Sachbearbeiter einzeln geöffnet, beurteilt und weitergeschickt werden müssen, ist durch das Training eines Klassifikationsmodells möglich.

In diesem Artikel habe ich die Liste kurz gehalten, aber ich bin mir sicher: Anwendungen en mass werden Sie selbst finden, wenn Sie sich einfach mal in Ihrem Unternehmen umsehen. Behalten Sie meine Artikel im Hinterkopf und fragen Sie sich:

  • Was könnte nicht alles auf den „ersten Blick“ erledigt werden?
  • Was ließe sich alles automatisieren, würde man das bisherige System zum Sehen befähigen?
  • Wie könnten Mitarbeiter durch sehende Systeme entlastet, unterstützt oder gar geschützt werden?

Geben Sie sich einen Moment lang Zeit und Sie werden sehen: Möglichkeiten gibt es überall.

Weitere Posts

Artificial Intelligence

Mehr als ein „Versprechen“? 5 Hebel für eine erfolgreiche Industrie 4.0 Transformation

Jochen Bechtold
Date icon Oktober 19, 2018

Seit mehr als fünf Jahren ist das „Versprechen Industrie 4.0“ nun im Markt. Stand heute ist...

Application Management

DevOps unverzichtbar für Business-zentriertes Application Management

Alfred Aue
Date icon September 26, 2018

Höhere Komplexität erfordert engere Zusammenarbeit und Automatisierung

Artificial Intelligence

How Shared Service Organizations rethink their way of doing business

Max Scheuermann
Date icon September 17, 2018

Shared Service Organizations rethink their way of doing business – From transactional...

cookies.

Mit dem Fortsetzen des Besuchs dieser Website akzeptieren Sie die Verwendung von Cookies.

Für mehr Informationen und zur Änderungen der Cookie-Einstellungen auf Ihrem Computer, lesen Sie bitte Privacy Policy.

Schließen

Cookie Information schließen