Googles Künstliche-Intelligenz-Schwester Deepmind verkündet einen weiteren KI-Fortschritt: Künstliche Intelligenz, die im Team spielt – und menschlichen Teams keine Chance lässt.

Nur wenige Tage nachdem die Non-Profit-Organisation OpenAI einen Durchbruch beim KI-Teamwork vemeldet hat, rührt sich die Google-Schwester Deepmind zum selben Thema.

So wie OpenAI gelang es Deepmind-Forschern, eine Künstliche Intelligenz zu entwickeln, die im Team arbeitet. Laut Deepmind ist das KI-Teamwork ein “unfassbar schwieriges Problem”, da sich die Bedingungen permanent ändern, wenn KI-Agenten ihr Verhalten aneinander und aufeinander ausrichten.

Deepminds neue Spiele-KI “For The Win” ballert menschliche Teams weg

Deepmind nutzt wie OpenAI ein Computerspiel, um die Zusammenarbeit zwischen KI-Agenten zu trainieren und sie in Konkurrenz zu menschlichen Teams zu stellen.

Computer und Mensch bekämpften sich im Ego-Shooter “Quake III Arena” im sogenannten Spielemodus “Capture the Flag”. Bei diesem müssen vier Spieler in konkurrierenden Zweierteams eine Flagge aus der gegnerischen Basis stehlen und in die eigene tragen. Um auszuschließen, dass die KI die Spielumgebung auswendig lernt, fanden die Matches auf zufällig generierten Karten statt.

In einem Probeturnier gewann Deepminds Team-KI – die Forscher nennen sie FTW (For The Win) – alle Matches gegen menschliche Teams. Diese sammelten pro Match im Durchschnitt 16 Flaggen weniger ein. Ein gemischtes Mensch-KI-Team hat immerhin eine Siegchance von rund fünf Prozent gegen ein reines KI-Team.

In einer Umfrage nach dem Turnier sprachen menschliche Mitspieler laut Deepmind der Künstlichen Intelligenz ein besseres Teamwork zu als den Kollegen aus Fleisch und Blut.

Die Grafik zeigt FTWs-Lernkurve in Relation zu anderen KIs und menschlichen Spielern. Bild: Deempind

Die Grafik zeigt FTWs-Lernkurve in Relation zu anderen KIs und menschlichen Spielern über 450.000 Partien hinweg. Die Elo-Bewertung steht laut Deepmind in direktem Zusammenhang mit der Siegchance. Bild: Deempind

Bei FTWs Training zählte nur der Sieg

Die Deepmind-Forscher setzten wie OpenAI auf ein bestärkendes Lernverfahren, bei dem die Künstliche Intelligenz ohne Regeln und Vorwissen ins Training startet. Das einzige Belohnungssignal beim KI-Training war der Sieg. Auch Deepminds Super-KI für Go, Schach und Shogi lernte nach diesem Prinzip.

Laut Deepmind brauchten FTWs KI-Agenten fast 450.000 simulierte Matches, um das Niveau menschlicher Spieler zu übertreffen und Strategien fürs Teamwork mit anderen KI-Agenten oder Menschen zu entwickeln.

Nach circa 30.000 Matches verstanden die Agenten die grundlegenden Spielregeln. Weitere rund 320.000 Partien waren notwendig, um die Koordination, Navigation und spielspezifische Mechanismen zu lernen und zu üben. In der letzten Phase perfektionierte die KI das zuvor antrainierte Wissen.

Beim Lernprozess entwickelte sie aus sich heraus typisch menschliche Spielweisen: Sie belagerte entweder die Basis des Gegners (“Base Camping”), verteidigte die eigene (“Home Defence”) oder folgte gezielt dem Teamkollegen.

GIF

Deepmind spricht sogar davon, dass die Künstliche Intelligenz eine Intuition für das Spielkonzept entwickelt habe. Die Forscher wollen einzelne Neuronen im künstlichen Gehirn ausgemacht haben, die bei bestimmten Spielaktionen gezielt feuern, beispielsweise wenn der Gegner oder ein Teamkollege die Flagge einsammelt.

Details zur technischen Umsetzung stehen im Deepmind-Blog.

Weiterlesen über Deepmind:


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #115: Oculus Rift 2, Pimax Vorbestellstart, AWE 2018 | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.