Ab dem 1. Dezember können Azure-Kunden N-Series-VMs buchen, die Tesla K80 und M60 von Nvidia verwenden. FĂŒr Anfangt 2017 kĂŒndigt auch Google Cloud-Instanzen mit GPUs von Nvidia und AMD an.
Nach einer dreimonatigen Previewphase wird Microsoft zum 1. Dezember die Azure N Series mit GPUs allgemein anbieten. Google kĂŒndigt fĂŒr Anfang 2017 GPU-Instanzen fĂŒr die Cloud-Plattform an. Die Angebote zielen besonders auf Anwendungen in den Bereichen maschinelles Lernen und Predictive Analytics, aber es gibt auch Varianten fĂŒr Grafikvirtualisierung. Microsoft setzt ausschlieĂlich auf Nvidia-GPUs, wĂ€hrend Google auch mit AMD-Grafikchips starten will.
Azure-Instanzen fĂŒr HPC und Grafikvirtualisierung
Azure NC Virtual Machines verwenden die auf rechenintensive Anwendungen optimierte Tesla K80 GPUs und die CUDA-Plattform (Compute Unified Device Architecture). Um Jobs ĂŒber mehrere Instanzen auszufĂŒhren können Kunden zusĂ€tzlich RDMA (Remote Direct Memory Access) verwenden. Als Anwendungsbeispiel nennt der Blogbeitrag ML-Frameworks (machinelles Lernen) wie TensorFlow, Caffe und das ebenfalls von Microsoft stammende Cognitive Toolkit, (CNTK). Die AnkĂŒndigung zu Letzterem verwies bereits auf die seinerzeit noch in der Preview befindlichen Azure N Series.
Die NV Virtual Machines setzen auf die fĂŒr Grafikvirtualisierung zugeschnittenen Tesla M60 GPUs mit Nvidia GRID. Mit ihnen möchte Microsoft unter anderem Ingenieure, Wissenschaftler und Designer ansprechen, die ihre grafikintensiven Anwendungen ĂŒber Azure virtualisieren.
Sowohl die NC- als auch die NV-VMs existieren in drei Ausbaustufen von ein bis vier GPUs mit einem Speicherausbau zwischen 56 und 224 GByte. FĂŒr NC gibt es zusĂ€tzlich eine Infinband-Option.
Google auch mit AMD
Anders als Microsoft plant Google auch ein Angebot auf Basis der AMD FirePro S9300 x2. Bei den Nvidia-Varianten gibt es neben der Tesla K80s auch die im Sommer vorgestellte Tesla P100 mit Pascal-Grafikchips. Die GPU-Instanzen sollen Nutzer der Compute Engine und der Cloud ML Platform ansprechen. Letztere hat der Internetriese mit einer Ausrichtung auf Anwendungen im Bereich maschinelles Lernen im September gestartet.
Microsoft und Google greifen mit den Angeboten Amazon Web Services an, deren P2-Instanzen ebenfalls auf Nvidia Tesla K80 setzen und unter anderem fĂŒr maschinelles Lernen optimiert sind, und die mit G2-Instanzen ein Angebot fĂŒr grafikintensive Anwendungen haben. Alle drei Unternehmen zielen nicht nur mit ihren Cloud-Plattformen auf maschinelles Lernen, sondern haben passende Bibliotheken beziehungsweise Frameworks: TensorFlow entstand bei Google, Microsoft bietet das CNTK an, und Amazon hat im Mai die Deep Scalable Sparse Tensor Network Engine (DSSTNE, gesprochen „Destiny“) veröffentlicht.
Weitere Details stehen in den jeweiligen BlogbeitrÀgen von Microsoft und Google.