Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Maschinelles Lernen: Google bietet jetzt Nvidia-Grafikkarten aus der Cloud an

Neuronale Netze beschleunigen durch den Einsatz von GPU. (Quelle: Shutterstock | Fotograf: Jirsak)

Künstliche Intelligenz bedarf enormer Rechenkapazitäten, je genauer und schneller sie reagieren und Ergebnisse liefern soll. In der Google-Cloud stehen jetzt Nvidia-GPUs zur Beschleunigung bereit.

Google beschleunigt Künstliche Intelligenz aus der Cloud

Ab sofort kann die Google-Cloud mit bis zu acht zusätzlichen Grafikkarten-Kernen (GPUs) ausgestattet werden, wie Google auf seinem offiziellen Blog mitteilt. GPUs eignen sich ausnehmend gut für die Abwicklung von Rechenoperationen im Bereich der Künstlichen Intelligenz und werden seit Jahren als Kerntechnologie für diesen Bereich der IT bezeichnet.

Wie sich Prozessor-Performance und Verarbeitungsgeschwindigkeit verhalten, zeigt Google sehr anschaulich mit diesem animierten GIF:

Google zeigt die Auswirkungen der GPU-Zuschaltung. (Illustration: Google)

Abgerechnet wird pro zugeschalteter GPU und minutengenau. In Europa kostet eine Stunde GPU-Power 0,77 US-Dollar. Das Zuschalten der GPU ist dabei bedarfsabhängig möglich. Während intensiver Trainingszyklen können beispielsweise für sechs Stunden acht GPU zugeschaltet werden, um schneller zu einem Ergebnis zu kommen. Im besten Fall benötigen wir vielleicht gar keine,  nur eine oder diese nur zeitweise, etwa zu bekannten Nutzungsspitzen unserer Anwendung.

Weil in anderen Betriebs-Modi wie beispielsweise dem Echtzeitbetrieb möglicherweise gar keine GPUs gebraucht werden, ist Googles neues Angebot wesentlich kostengünstiger, als wenn die Infrastruktur selbst aufgebaut wird – zumal es mehr Flexibilität ermöglicht.

Aktuell können lediglich GPU vom Typ Nvidia Tesla K80 gebucht werden. In Kürze sollen auch AMD FirePro und Nvidia Tesla K100 zur Verfügung stehen.

„Deep Learning” profitiert von GPU-Power. (Quelle: Shutterstock | Fotograf: Jirsak)

Wer auf Google Cloud Machine Learning (Cloud ML) auf Basis des Tensorflow-Frameworks arbeitet, muss sich über GPU-Unterstützung keine Gedanken machen. Hier bindet Google die GPU als integralen Bestandteil des Vollservices automatisch mit ein.

Auch wenn ihr Tensorflow nicht nutzt, ist das neue Angebot eventuell interessant, denn es unterstützt weitere Frameworks wie Theano, Torch, MXNet und Caffe sowie Nvidias CUDA, mit dessen Hilfe sich GPU-beschleunigte Anwendungen bauen lassen.

Künstliche Intelligenz is the new Black

Vor ein paar Wochen stellten wir euch einen Einsteigerartikel zum Thema Künstliche Intelligenz, auch als AI (Artificial Intelligence) bekannt, bereit. Alle im Zusammenhang mit der Erbringung von Intelligenzleistungen verwendeten Technologien, die bislang dem Menschen vorbehalten waren, finden sich unter dem Oberbegriff der AI wieder.

AI ist der Oberbegriff für eine Reihe von Technologien: Machine Learning, Deep Learning, Natural Language Processing (NLP) und künstliche neuronale Netze sind lediglich Teilgebiete der AI, teilweise sogar Teilgebiete innerhalb dieser Teilgebiete. Deep Learning ist der Teilbereich des maschinellen Lernens, der unser Leben in den nächsten Jahren am stärksten umkrempeln wird.

Deep Learning ist eine Lernmethode im Rahmen maschinellen Lernens. Unter Verwendung neuronaler Netze versetzt sich die Maschine selbst in die Lage, Strukturen zu erkennen, diese Erkennung zu evaluieren und sich in mehreren vorwärts wie rückwärts gerichteten Durchläufen selbstständig zu verbessern.

Der rasante Fortschritt, der in den letzten Jahren durch Deep Learning erreicht wurde, ist vor allem darauf zurückzuführen, dass es zum einen immer leistungsfähigere Hardware für die erforderlichen Rechenoperationen gibt, zum anderen aber auch immer größere Datenmengen unproblematisch für das initiale Training der neuronalen Netze zur Verfügung stehen.

Mit anderen Worten: Maschinelles Lernen braucht massive Rechenpower, die in der Lage ist, auch große Datenmengen innerhalb kürzester Zeit zu verarbeiten. Das ist besonders für das initiale Training wichtig, um eine auf Deep Learning basierende Anwendung überhaupt erst an den Start zu bekommen. Es sind hauptsächlich diese Anwendungsfelder, die Google ins Visier genommen hat.

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.