Das mooresche Gesetz könnte Künstliche Intelligenz ausbremsen, glaubt Google-Ingenieur Cliff Young. Der Internetkonzern will mit eigenen KI-Chips dagegenhalten.

Laut Googles Softwareingenieur Cliff Young erreicht Künstliche Intelligenz eine “exponentielle Phase”. Gleichzeitig sei das Mooresche Gesetz, das stetige Verdopplung der Rechenleistung vorhersagt, nach Jahrzehnten zum Stillstand gekommen.

Neue Chips könnten kaum noch die Leistung und Effizienz erreichen, die aktuelle KI-Forschung benötige, so Young. Die neuronalen Netze würden immer größer. Aktuell verdopple sich der Bedarf nach Rechenleistung alle dreieinhalb Monate.

Youngs Schätzung wird durch eine kürzlich veröffentlichte Untersuchung der Non-Profit-Organisation OpenAI bestätigt oder bezieht sich darauf. Nach der Untersuchung verdoppeln KI-Systeme ihre Leistungsfähigkeit im Durchschnitt alle dreieinhalb Monate. Besonders in den letzten Monaten legte die KI-Geschwindigkeit zu.

Deep Learning sorgt für rasanten KI-Fortschritt

Der Grund für das rasante KI-Wachstum laut Young: „Deep Learning funktioniert.“ Die Durchbrüche in der Bilderkennung der letzten Jahre hätten verdeutlicht, wie effektiv das maschinelle Lernverfahren sei.

Google stelle seit fast fünf Jahren Künstliche Intelligenz an vorderste Stelle der Unternehmensstrategie, so Young. Mittlerweile seien die meisten Geschäftsmodelle und Projekte Googles auf KI ausgelegt. Googles Brain-Team – verantwortlich für die KI-Forschung – fordere immer „gigantischere Maschinen“.

Herkömmliche neuronale Netze hätten aktuell Hunderttausende, teils Millionen neuronale Verknüpfungen. Google Brain benötige jedoch Billionen davon. Denn je größer das neuronale Netzwerk, desto genauer die Ergebnisse, sagt Young.

Google entwickelt eigene KI-Chips

Aufgrund der hohen Anforderungen an die Rechenleistung entwickle Google nun einen eigenen KI-Chip – die sogenannte „Tensor Processing Unit“ (TPU). Der Chip wurde 2016 erstmals vorgestellt und ist mittlerweile in der dritten Generation verfügbar.

Googles erster KI-Chip wurde 2016 der Öffentlichkeit vorgestellt. Bild: Google

Google entwickle immer größere KI-Computer für immer mehr Rechenleistung, so Young. Aktuelle Konfigurationen würden bis zu 1.024 TPUs verbinden und so einen Supercomputer fürs maschinelle Lernen schaffen.

Google nutzt TPUs für eigene Projekte und stellt die Rechenleistung zusätzlich Kunden über die Cloud zur Verfügung. Damit konkurriert der Internetkonzern direkt mit Nvidias V100 GPUs, die häufig über die Cloud für maschinelle Lernanwendungen gemietet werden. Nach einem Testbericht aus dem April 2018 bietet Googles TPU-Cloud eine ähnliche Leistung bei einem geringeren Preis.

Neben Google arbeiten unter anderem Tesla und Alibaba an eigenen KI-Chips. Teslas Chips sollen das autonome Fahren steuern und die bisherige Nvidia-Hardware ersetzen.

Nvidias neue RTX-Grafikkarten haben erstmals eigene KI-Kerne integriert. Mit den Grafikkarten hält so die erste Generation dedizierter KI-Hardware Einzug in den Heimcomputer. Ein Bericht über die KI-Leistung der RTX-Karten steht hier.

| Bilder: eigene Screenshots / Google I/O 2017 , Via: ZDNet


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #115: Oculus Rift 2, Pimax Vorbestellstart, AWE 2018 | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.