2

IoT-Erfinder Ashton: Künstliche Intelligenz ist nicht intelligent

von Matthias Bastian15. Oktober 2017

Der britische Tech-Forscher Kevin Ashton gilt als Erfinder des Begriffs “Internet der Dinge”. Den Begriff Künstliche Intelligenz möchte er hingegen lieber nicht verwenden.

Im Interview mit der Frankfurter Allgemeinen Zeitung beschreibt Ashton den aus seiner Sicht wahrscheinlichen Werdegang des Internets der Dinge. Immer bessere Sensoren sollen immer präzisere Daten sammeln: “Erst im Rückblick wird einem bewusst, welches Ausmaß die Transformation tatsächlich hat”, sagt Ashton.

Manuell kann die Menschheit diese Datenmengen nicht beherrschen, für die Interpretation braucht es Algorithmen. Zwar seien lernende Maschinen notwendig, so Ashton, als Künstliche Intelligenz wolle er die mathematischen Gleichungen aber nicht bezeichnen. Bei der Interpretation der Daten ginge es nur um eine Mustererkennung. Entscheidend seien die Menschen hinter den KI-Systemen.

“Menschen programmieren Software, die eigentlich nur nach Regelmäßigkeiten, Unregelmäßigkeiten und Korrelationen sucht. Aber die Algorithmen selbst müssen immer noch von Menschen entwickelt werden. […] Als intelligent würde ich die Software allerdings nicht bezeichnen”, sagt Ashton.

KI-Angst: Elon Musk und Stephen Hawking liegen falsch

Entsprechend kritisiert Ashton, dass Tech-Milliardär Elon Musk oder der bekannte Physiker Stephen Hawking mit ihren Warnungen vor den Gefahren der Künstlichen Intelligenz unnötige Panik verbreiten.

“Elon ist ein großartiger Unternehmer, aber er ist kein Computerwissenschaftler. Ähnlich verhält es sich mit Stephen Hawking. Er ist ein phantastischer Physiker, aber kein Informatiker. Ich denke, beide liegen falsch”, sagt Ashton. Beide spielten mit der “Urangst vor dem Kontrollverlust” und beschwörten neue Monster herauf.

Die größere Gefahr sei, dass Menschen sich “zu sehr auf Algorithmen verlassen und vergessen, dass diese nichts weiter als Werkzeuge für Ziele sind, die wir festlegen.”

Ähnlich äußert sich Googles KI-Chef John Giannandrea, der Fantasien über Killer-Roboter für Unsinn hält. Er warnt jedoch speziell vor Vorurteilen in Datensätzen, mit denen die lernenden Maschinen trainiert werden.

“Es ist wichtig, dass wir mit den Trainingsdaten sehr transparent umgehen und dass wir sie auf versteckte Vorurteile untersuchen, ansonsten bauen wir Systeme mit Vorurteilen”, sagt Giannandrea der Webseite MIT Technology Review.

Empfohlene Artikel: