Amazon ‘ s neue GPU-powered-service zielt auf die VR, 3D-video-und remote-workstations

0
181

0

cloud.jpg

Amazon Web Services (AWS) hat eine neue Familie von high-performance-Nvidia-basierten GPU-instances.

Die neue “G3” – Instanzen sind powered by Nvidia Tesla M60 GPUs, und der Erfolg seines ehemaligen G2 Instanz, die hatte vier NVIDIA-Grid-GPUs und 1,536 CUDA-Kerne.

Wie bei G2, die 2013 in die neue G3-Instanzen Zielen auf Anwendungen, die enorme parallele Rechenleistung, wie zum Beispiel 3D-rendering und-Visualisierung, virtual reality, video-encoding, remote-Grafik-workstation-Anwendungen.

AWS bietet drei Geschmacksrichtungen der G3-Instanz, mit einer, zwei oder vier GPUs. Jede GPU hat 8 GB-GPU-Speicher, 2048 parallele Prozessorkerne und einen hardware-encoder, unterstützt bis zu 10 H. 265-streams und 18 H. 264-streams. AWS stellt fest, dass die G3-Instanzen Unterstützung der Nvidia GRID Virtuelle Arbeitsplatz und sind fähig, unterstützt vier 4K-Monitore.

AWS Forderungen der größten G3-Instanz, die g3.16large, hat die doppelte CPU-Leistung und acht mal den host-Speicher von seiner G2-Instanzen. Es verfügt über vier GPUs, 64 CPUs, 488GB RAM. Die virtuellen CPUs der Intel – Xeon-E5-2686v4 (Broadwell) Prozessoren. Seine größten G2 Instanz vorgestellten 60GB RAM.

On-demand-Preise für die G3-Instanzen sind $1.14 pro Stunde für g3.4xlarge, $2.28 pro Stunde für die g3.8xlarge, und $4.56 pro Stunde für die g3.16xlarge. Die Instanzen sind nur mit AWS-Elastic-Block-Storage, im Vergleich mit der G2-Instanzen, die mit SSD-Speicher.

Die G3-Instanzen verfügbar im Osten der USA (Ohio), USA Ost (N.-Virginia), USA West (Oregon), USA West (Nordkalifornien), AWS GovCloud (USA) und EU (Irland). AWS ist geplant, das Angebot auf weitere Regionen in den kommenden Monaten.

AWS hat weiterhin erweitern Ihr Angebot von GPU-instances, die im Laufe der Jahre. Zurück in 2013 war es pitching der G2-Familie für machine learning und molekulare Modellierung, aber diese Anwendungen sind jetzt versorgt mit seinem P2-Instanzen, die es im September gestartet.

Die größte P2-Instanz bietet 16 GPUs mit zusammen 192 GB Videospeicher. Zudem verfügen Sie über bis zu 732 GB host-Speicher und bis zu 64 vCPUs mit benutzerdefinierten Intel Xeon E5-2686 v4 Broadwell-Prozessoren.

“Heute, AWS bietet die breiteste Palette von cloud-instance-Typen unterstützen eine Vielzahl von workloads. Kunden haben uns mitgeteilt, dass mit der Fähigkeit zu wählen Sie die richtige Instanz für die richtige Arbeitslast ermöglicht es Ihnen, effizienter zu arbeiten und gehen schneller auf den Markt, weshalb wir weiter auf Innovation, um eine bessere Unterstützung jeglicher Aufwand”, sagte Matt Garman, Amazon EC2 vice president.

Microsoft hat auch schon meckern bis auf die GPU-Instanzen für Azure-Kunden. Das Unternehmen startete NC-Serie compute-fokussiert GPU-instances, die im letzten Jahr, mit bis zu vier Nvidia-Tesla-M60 GPUs und 244GB RAM mit 24 Kerne mit Intel Xeon E5-2690 v3 (Sandy Bridge) Prozessoren.

Im Mai kündigte die bevorstehende ND-Serie, die mit Nvidia Pascal-basierte Tesla-P40 GPUs und eine aktualisierte Aufstellung der NC-Serie Instanzen. Die größten ND-Serie verfügt über eine 24-CPUs, vier P40 GPUs und 448GB RAM. Die größte NC-Serie, die NC24rs_v2 verfügt über 24 CPUs, vier Tesla-P100 GPUs und 448 GB RAM.

0