
Logo der Cloud Compute Engine. (Grafik: Google)
Google hat als erster Cloud-Anbieter mehrere Instanzen veröffentlicht, die Nvidias A100-Beschleuniger nutzen. Die Compute Engine A2 basiert auf Systemen von Nvidia, die Google mit Intel-Prozessoren kombiniert. Vorerst sind die Instanzen nur per privatem Alpha-Programm verfügbar, sie eignen sich für maschinelles Lernen – also Training sowie Inferencing – und für High Performance Computing (HPC).
Technische Basis der Compute Engine A2 sind die HGX-100-Plattformen von Nvidia im Vollausbau. Die kombinieren zwei per Switch verbundene Platinen mit je acht A100-Beschleunigern in SMX4-Bauweise. Folgerichtig bietet Google die Instanzen bis zu hin einer als A2-MegaGPU-16g bezeichneten Version an. Neben den Nvidia-Modulen gibt es bis zu 96 vCPU – genauer Cascade Lake von Intel – und bis zu 1,36 Terabyte Arbeitsspeicher. Die kleinste Version namens A2-HighGPU-1g nutzt einen A100-Beschleuniger mit zwölf vCPU und 85 Gigabyte RAM.
A100 als Server-Beschleuniger
Die A100, die nicht mehr zusätzlich Tesla heißen, sind Nvidias aktuelle Beschleuniger für Server. Sie basieren auf dem GA100-Grafikchip mit Ampere-Architektur und wurden im Mai 2020 vorgestellt. Bei vorherigen Generationen dauerte es teils sehr viel länger, bis Google oder ein anderer Anbieter die jeweiligen Beschleuniger in der eigenen Cloud verbaute und anbot – zwei Jahre bei Kepler, ein Jahr bei Pascal sowie fünf Monate bei Volta.
Beim GA100 hat sich Nvidia vor allem auf die für maschinelles Lernen wichtige Leistung konzentriert und die Tensor-Cores drastisch verbessert. Der mit 826 Quadratmillimetern riesige Sieben-Nanometer-Chip erreicht dadurch eine sehr hohe Leistung bei INT8- und FP16-Berechnungen; zudem können die A100-Beschleuniger dank 48 Gigabyte HBM2-Stapelspeicher viele Daten lokal vorhalten und schnell einladen. Neben dem Modell mit SMX4-Mezzanine-Modul hat Nvidia auch eine PCIe-Gen4-Steckkarte mit GA100 vorgestellt.
Autor des Artikels ist Marc Sauter.