Dynamik durch KI: Welche Trends die Halbleiterindustrie lenken werden
Amazon begann seine Bemühungen im Bereich eigener Rechenzentrumschips im Jahr 2015 mit der Übernahme des Startups Annapurna Labs. Google folgte 2018 mit seinen eigenen TPU, den Tensor Processing Units. Microsoft brachte schließlich im November 2023 seine ersten KI-Chips auf den Markt, während Meta im April eine neue Version seiner eigenen KI-Trainingschips vorgestellt hat. Dieser Trend könnte die Waage zu Ungunsten von Nvidia kippen. Aber Nvidia spielt nicht nur die Rolle des großen Konkurrenten: Unabhängig von ihren eigenen Bemühungen brauchen die Cloud-Giganten immer noch die Chips der Firma für ihre Rechenzentren. Das liegt zum Teil daran, dass ihre eigenen Herstellungsbemühungen nicht alle Bedürfnisse erfüllen können, aber auch daran, dass ihre Kunden erwarten, die Spitzenchips von Nvidia verwenden zu können.
„Hier geht es wirklich darum, den Kunden die Wahl zu lassen“, sagt Rani Borkar, die im Microsoft-Azure-Team für Hardware zuständig ist. Sie sagt, sie könne sich keine Zukunft vorstellen, in der Microsoft alle Chips für seine eigenen Cloud-Dienste baut. „Wir werden unsere starken Partnerschaften fortsetzen und Chips von allen Partnern einsetzen, mit denen wir aktuell zusammenarbeiten.“
Während die Cloud-Computing-Giganten versuchen, den Chipherstellern ein paar Marktanteile abzujagen, versucht Nvidia unterdessen auch das Gegenteil. Letztes Jahr startete der Konzern seinen eigenen Cloud-Service, damit Kunden Amazon, Google oder Microsoft umgehen und direkt Rechenzeit auf Servern mit den besten Nvidia-Chips erhalten können. In diesem dramatischen Kampf um Marktanteile wird es in den nächsten Monaten darum gehen, ob die Kunden die Chips der Big-Tech-Firmen als gleichwertig mit den fortschrittlichsten Chips von Nvidia betrachten, oder als deren kleine Geschwister.
Startups für den zukünftigen Chipmarkt
Trotz der Dominanz von Nvidia kommt eine Welle von Innovationen aus Startups, die Nvidia in bestimmten Segmenten des zukünftigen Chipmarktes überholen wollen. Diese Startups versprechen alle ein schnelleres KI-Training, aber sie haben unterschiedliche Vorstellungen davon, wie sie dorthin gelangen können, sei es etwa mit Quantentechnologie oder der Photonik.
Murat Onen, der 28-jährige Gründer des Chip-Startups Eva, das er im Rahmen seiner Doktorarbeit am MIT gegründet hat, sagt ganz unverblümt, wie es ist, jetzt ein Chip-Unternehmen zu gründen: „Der King of the Hill ist einfach Nvidia – und das ist die Welt, in der wir leben“, sagt er.
Viele der jungen Unternehmen wie Sambanova, Cerebras und Graphcore versuchen, die zugrunde liegende Architektur der Chips zu verändern. Ein KI-Prozessor muss derzeit ständig Daten zwischen verschiedenen Bereichen hin- und herschieben: Eine Information befindet sich im Speicherbereich, muss aber in den Verarbeitungsbereich gelangen, wo eine Berechnung durchgeführt wird. Schließlich muss sie zurück in den Speicherbereich. All das kostet Zeit und Energie.
Eine effizientere Gestaltung dieses Prozesses würde Kunden ein schnelleres und billigeres KI-Training ermöglichen – allerdings nur, wenn der Chiphersteller über eine ausreichend optimierte Software verfügt, die es einem KI-Unternehmen ermöglicht, nahtlos auf den neuen Chip umzustellen. Wenn sich die Umstellung als zu schwerfällig erweist, werden Firmen wie OpenAI, Anthropic oder Mistral wahrscheinlich bei den großen Chipherstellern bleiben. Das bedeutet, dass Unternehmen, die diesen Ansatz verfolgen (beispielsweise Sambanova), einen Großteil ihrer Zeit nicht nur auf das Chipdesign, sondern auch auf das Softwaredesign verwenden.
Umbau auf Transistorebene
Onen schlägt daher Änderungen auf einer tieferen Ebene vor. Anstelle herkömmlicher Transistoren, die über Jahrzehnte hinweg durch immer kleinere Abmessungen immer effizienter geworden sind, verwendet er ein neues Bauteil, einen sogenannten protonengesteuerten Transistor, der laut Onens Firma Eva speziell für die mathematischen Anforderungen des KI-Trainings entwickelt wurde. Er ermöglicht es einem System, Daten am selben Ort zu speichern und zu verarbeiten, was Zeit und Energie spart. Die Idee, ein solches Bauteil für KI-Logik zu verwenden, geht bereits auf die 60er-Jahre zurück, aber die Forschung konnte bislang nicht ermitteln, wie man es für das KI-Training einsetzen kann. Es fehlte am notwendigen Halbleitermaterial, das eine präzise Steuerung der Leitfähigkeit bei Raumtemperatur erlaubt.
Onen will die zentralen Probleme durch Optimierung gelöst haben. „Wir haben endlich das Material, das wir brauchen. Plötzlich ist ein solches Gerät kein Wissenschaftsprojekt mehr“, sagt er. Das gelang ihm bereits während seiner Doktorarbeit. Schließlich rechnete er alles noch einmal durch und gründete Eva.
Das Startup nimmt den Mund allerdings sehr voll. In einem Sektor, in dem so viele Gründer versprochen haben – und gescheitert sind -, die Vorherrschaft der führenden Chiphersteller zu stürzen, gibt Onen offen zu, dass es noch Jahre dauern wird, bis er weiß, ob das Design wie beabsichtigt funktioniert und ob Herstellungspartner bereit sein werden, es zu produzieren. Ein Unternehmen durch diese Ungewissheit zu führen, erfordert seiner Meinung nach Flexibilität und die Bereitschaft, die Skepsis anderer zu akzeptieren.
„Ich glaube, dass die Leute manchmal zu sehr an ihren Ideen hängen und sich dann irgendwie unsicher fühlen, ob es nicht doch noch etwas anderes gibt“, sagt er. Ihm gehe es genauso. Er suche ständig nach Menschen, die ihn hinterfragen.