Schon seit mindestens 2019 soll Microsoft an einem eigenen KI-Chip werkeln, der sich etwa zum Training großer Sprachmodelle wie Open AIs GPT-4 eignen soll. Damit soll nicht zuletzt die Abhängigkeit von Nvidia-GPUs verringert werden, die vor dem Hintergrund des KI-Hypes der vergangenen Monate zuletzt immer knapper und damit teurer geworden sind.
Azure Maia 100: Erster KI-Chip von Microsoft
Jetzt hat Microsoft mit der GPU Azure Maia 100 einen eigenen KI-Chip vorgestellt. Dieser soll zur Erledigung von anspruchsvollen KI-Aufgaben in der hauseigenen Azure-Cloud zum Einsatz kommen – dazu gehört etwa auch der reibungslose Betrieb und das Training von ChatGPT und anderen KI-Technologien bei Microsoft-Partner OpenAI.
OpenAI hatte zuletzt den GPU-Mangel für Performance-Probleme bei ChatGPT verantwortlich gemacht. Wegen des Mangels an GPUs, allein in der Microsoft-Cloud soll OpenAI Tausende der KI-Chips belegen, hatte OpenAI laut darüber nachgedacht, selbst ins Chipgeschäft einzusteigen.
Gemeinsam mit OpenAI entwickelt
Darüber hinaus hieß es, dass OpenAI den bis dato sagenumwobenen Microsoft-Chip getestet haben soll. Diese Gerüchte bewahrheiteten sich jetzt. Microsoft hat laut OpenAI-Chef Sam Altman bei Design und Tests der Maia-Chips mit seinem Unternehmen zusammengearbeitet.
Der neue Chip sowie die auf KI ausgelegte Azure-Cloud-Infrastruktur sollen es ermöglichen, künftig noch leistungsfähigere KI-Modelle zu trainieren und diese für die Kund:innen günstiger zu machen, so Altman. Aktuell wird Maia 100 mit GPT 3.5 Turbo getestet, das ChatGPT, Bing-KI-Aufgaben und den Copilot von Github anfeuert.
Ist Maia so gut wie Nvidias H100?
Viele Details zur Maia-GPU hat Microsoft allerdings nicht verraten. So ist ein Vergleich mit den beliebten GPUs H100 und H200 von Nvidia sowie der AMD-Alternative MI300X schwierig. Klar ist bisher nur, dass Maia im Fünf-Nanometer-Verfahren gefertigt wird und über 105 Milliarden Transistoren verfügt. Da sind 30 Prozent weniger als bei AMDs MI300X, wie The Verge vorrechnet.
Die Maia-KI-Chips sollen im Jahr 2024 ihre Arbeit aufnehmen. Wie schnell sie zu einer Verbesserung der KI-Entwicklung und zu günstigeren Tools beitragen können, ist aber unklar. Für 2024 peilt Microsoft auch den Launch der ebenfalls frisch vorgestellten Azure-Cobalt-CPU an.
Cobalt-CPU für den Einsatz in der Azure-Cloud
Der Arm-basierte Chip kommt mit 128 Kernen. Die CPU soll ebenfalls in der Cloud zum Einsatz kommen und dort nicht nur mit hoher Performance, sondern auch mit einem geringen Energieverbrauch punkten. Aktuell testet Microsoft die Cobalt-CPU mit dem Betrieb von Microsoft Teams und SQL-Server.
Die Performance, so Microsoft, soll um 40 Prozent über vergleichbaren Systemen mit Arm-Servern liegen. Allerdings hält sich Microsoft auch hier bedeckt, was genaue Spezifikationen oder Benchmark-Tests angeht. Wir halten euch zu diesem Thema natürlich auf dem Laufenden.