Amazon kündigt eine verbesserte Infrastruktur für Künstliche Intelligenz an inklusive eigener KI-Chips. Die sollen KI-Training in der Cloud schnell und günstig machen.

Amazon Web Services stellt die neuen KI-Chips als Teil eines großen Updates seiner KI-Services vor. Der „Inferentia“ getaufte Prozessor soll ab 2019 über Amazons Cloud verfügbar sein und eine Leistung von „Hunderten Teraflops“ bieten. Zum Vergleich: Googles TPUv2-Chip von 2017 bietet eine Leistung von 180 Teraflops.

KI-Training in der Cloud

Amazon ist mit seinen spezialisierten Deep-Learning-Prozessoren nicht allein: Neben Nvidia und Intel entwickeln Google, Microsoft, Alibaba und Tesla jeweils eigene KI-Chips. Googles Softwareingenieur Cliff Young sagte kürzlich, Künstliche Intelligenz erreiche eine exponentielle Phase, in der „gigantische Rechenmaschinen“ benötigt würden.

Die Spezialchips in der Cloud sollen gezielt das Deep Learning beschleunigen, indem sie im Vergleich zu traditionellen Computer-Farmen mit herkömmlichen Prozessoren mehr Leistung bei geringerem Energieverbrauch und günstigeren Preisen bieten. Insbesondere Microsoft und Google konkurrieren mit Amazon auf dem Cloud-Computing-Markt für buchbare KI-Services.

Amazon SageMaker mit neuen Funktionen

Amazon kündigt ebenfalls neue Features für Amazon SageMaker an. SageMaker ist eine Plattform, über die Entwickler vorkonfigurierte maschinelle Lernmodelle in Amazons Cloud trainieren können. Neu ist unter anderem ein Modell, mit dem Text aus jedem Dokument extrahiert werden kann. Außerdem gibt es jetzt Zugriff auf Amazons eigenen Empfehlungsalgorithmus.

Weiterlesen über Künstliche Intelligenz:


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #121: VR-Wachstum, StarVR-Pleite und KI-Rendering | Alle Podcast-Folgen


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.