Ein neues Google-Werkzeug gibt Einblicke in den Entscheidungsprozess einer Künstlichen Intelligenz während einer Bildanalyse. Die Visualisierungen würden in einer Kunstausstellung wohl nicht weiter auffallen.

Googles KI-Forscher wollen Licht ins Dunkel der KI-Blackbox bringen. Dafür entwickeln sie ein Werkzeug, das visualisiert, wie eine Künstliche Intelligenz zum Beispiel den Unterschied zwischen Katze und Hund zu verstehen lernt.

In Googles Beispiel-Analyse untersuchen die künstlichen Neuronen Schlappohr- und Spitzohrfaktoren, die jeweils mit einem Zahlenwert belegt werden. So hat beispielsweise ein Beagle einen deutlich höheren Schlappohrfaktor als ein Golden Retriever.

Ein sehr geringer Schlappohrfaktor in Kombination mit einem hohen Spitzohrfaktor deutet wiederum auf eine Katze hin. Laut Google hat die im Beispiel verwendete Bildanalyse-KI Googlenet zahlreiche solcher Ohr-Detektoren, mit denen sie bis zu 100 verschiedene Hunderassen zuverlässig erkennen kann.

Beim Schlappohrfaktor trumpft der Beagle groß auf. Bild: Google

Beim Schlappohrfaktor trumpft der Beagle groß auf. Bild: Google

Nachvollziehbare Entscheidungen sollen KI-Akzeptanz fördern

Dass Menschen besser verstehen, wie ein KI-System Entscheidungen fällt, könnte zu ihrer Akzeptanz beitragen. Die Google-Forscher sehen hier Nachholbedarf.

Interessant ist die Google-Analyse zum Beispiel, falls ein selbstfahrendes Auto einen Unfall verursacht. Die Methode könnte womöglich nachvollziehbar machen, an welcher Stelle das Auto eine visuelle Information falsch verarbeitete und so den Fahrfehler produzierte.

Vor wenigen Tagen wurde bekannt, dass Google das US-Militär im “Projekt Maven” mit KI-Verfahren für die Bildauswertung von Drohnenmaterial unterstützt, um Ziele automatisiert zu identifizieren. In diesem Szenario hängen von der Nachvollziehbarkeit von KI-Entscheidungen wahrscheinlich Menschenleben ab.

Allerdings gibt es KI-Forscher wie Facebooks Yann Lecunn oder den Biomediziner und Computerwissenschaftler Vijay Pande, die dazu bereit sind, einen intransparenten Entscheidungsprozess einer Künstlichen Intelligenz hinzunehmen, wenn dafür die Ergebnisse stimmen. Schließlich sei auch die Entscheidungsfindung eines Menschen nicht vollends nachvollziehbar, lautet ihre Argumentation.

Google dokumentiert das Verfahren für die KI-Analyse in einem ausführlichen Artikel mit interaktiven Infografiken. Wer tiefer ins Thema einsteigen möchte, sollte sich diese nicht entgehen lassen.

Weiterlesen über Künstliche Intelligenz:


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast: E3 2018 - war es das mit VR? | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.