0

Erst Go, jetzt Schach und Shogi: Googles Super-KI wird vielseitiger

von Matthias Bastian7. Dezember 2017

Googles selbstlernende Künstliche Intelligenz kann jetzt mehr als nur das Brettspiel Go: Innerhalb von 24 Stunden lernte die KI besser Go, Schach und Shogi spielen als jede andere Maschine.

Googles KI-System AlphaGo Zero perfektionierte erst vor wenigen Wochen das Brettspiel Go ohne menschliches Zutun. Allein mit dem Regelwerk ausgestattet, trainierte die KI gegen sich selbst: Eine gewonnene Partie wurde mit Punkten belohnt und das dabei erlangte Wissen für die nächste Go-Partie angewandt. Nach diesem Verfahren erreichte AlphaGo Zero innerhalb kürzester Zeit ein Leistungsvermögen, das Google als “übermenschlich” bezeichnet.

Jetzt setzten Künstliche-Intelligenz-Forscher aus Googles KI-Unternehmen Deepmind eine weiterentwickelte Version des Lernverfahrens erneut auf Go und zusätzlich auf Schach und dessen japanische Variante Shogi an.

Die neue Version heißt Alpha Zero, ohne Go. Die englische Null trägt die KI symbolisch im Namen, sie steht für die nicht mehr benötigte menschliche Eingabe, sobald der Lernprozess einmal in Gang gesetzt ist. Natürlich muss das neuronale Netz vorab konfiguriert und mit den Spielregeln gefüttert werden.

Die Forscher beschreiben, dass Alpha Zero Schach innerhalb von vier Stunden auf Weltklasse-Niveau beherrschte und problemlos einen fortschrittlichen Schach-Computer besiegen konnte. Für Shogi brauchte die KI nur zwei Stunden, um andere Computer hinter sich zu lassen. Die eigene Vorgänger-KI AlphaGo Zero schlug Alpha Zero nach acht Stunden Go-Training.

Allerdings ist der Energieaufwand für das Training noch immens: Laut Google kamen für das Lernverfahren 5000 Tensor Processing Units (TPU) der ersten Generation und weitere 64 der zweiten Generation zum Einsatz. TPUs sind Googles Spezialchips für Berechnungen in neuronalen Netzen. Das einmal trainierte Netz läuft dann relativ moderat mit vier TPUs.

Noch lange keine starke KI

Obwohl Googles KI-Ansatz offenbar recht einfach auf neue Anwendungsfälle übertragbar ist, handelt es sich beim aktuellen Experiment nicht um eine generelle Künstliche Intelligenz, sondern um unterschiedliche KI-Systeme, die auf dem gleichen Verfahren und ähnlichem Code beruhen. Die drei spezialisierten Systeme mussten für jedes Brettspiel neu konfiguriert werden.

Eine wenigstens angedeutet generelle Künstliche Intelligenz könnte alle drei Brettspiele auf Weltklasse-Niveau beherrschen und das erlernte Wissen zwischen den Brettspielen oder sogar auf neue Brettspiele übertragen.

Das bedeutet jedoch nicht, dass Googles neuestes KI-Stück irrelevant ist. Im Gegenteil: Ein hochentwickeltes KI-System, das sich relativ flexibel und sehr schnell übermenschliches Wissen in Spezialgebieten aneignen kann, klingt nach reichlich Potenzial für Veränderung.

Der nächste Schritt wäre, dass Google dieses Potenzial in Alltagssituationen unter Beweis stellt, die nicht so einfach zu simulieren sind und kein so klares Regelwerk bieten wie ein Brettspiel.

Die Google-Forscher möchten zunächst das extrem komplexe Online-Spiel Starcraft bezwingen, bei dem im Vergleich zu den bisherigen Brettspielen deutlich mehr Parameter beachtet werden müssen.

| Featured Image: Adrian Askew bei Flickr. Reflected Chess Pieces. Lizenziert nach CC BY 2.0.

Empfohlene Artikel: