Dynamik durch KI: Welche Trends die Halbleiterindustrie lenken werden
Die meisten unserer Interaktionen mit KI-Modellen wie ChatGPT finden derzeit über die Cloud statt. Das heißt: Wenn man den Chatbot bittet, ein Outfit auszusuchen, wird die Anfrage an die Server von OpenAI gesendet, woraufhin das dort untergebrachte Large Language Model sie verarbeitet und Schlussfolgerungen aus dem Prompt zieht, bevor eine Antwort zurückgesendet wird. Sich auf die Cloud zu verlassen, hat jedoch einige Nachteile: Zum einen ist ein Internetzugang erforderlich, zum anderen werden viele persönliche Daten an die KI-Konzerne weitergegeben, die sie selbst wiederum zum Training nutzen könnten. All das gilt als Datenschutzalbtraum.
Mehr KI im Edge-Computing
Aus diesem Grund gibt es ein großes Interesse am sogenannten Edge-Computing für KI, bei dem grundlegende Arbeiten des KI-Modells direkt auf dem Gerät des Nutzers, etwa einem Laptop oder Smartphone, erfolgen – unterstützt durch Server, die aber nicht mehr bei Firmen wie OpenAI stehen und weniger Informationen brauchen. Da die Branche zunehmend auf eine Zukunft hinarbeitet, in der KI-Modelle nahezu alles über uns wissen, besteht hier ein großer Bedarf. Der Traum: Edge-Computing-Systeme führen Modelle aus, ohne private Daten zu teilen. Für diese Chips gelten aber andere Anforderungen als für die Chips in den Rechenzentren: Sie müssen in der Regel kleiner, billiger und energieeffizienter sein.
Das US-Verteidigungsministerium finanziert zahlreiche Forschungsarbeiten zum schnellen, datensparsamen Edge-Computing. Im März hat die Forschungsabteilung des Ministeriums, die Defense Advanced Research Projects Agency (Darpa), eine Partnerschaft mit dem Chiphersteller Encharge AI angekündigt, um einen extrem leistungsstarken Edge-Computing-Chip für KI zu entwickeln. Encharge AI arbeitet an der Entwicklung eines Chips, der einen verbesserten Schutz der Privatsphäre ermöglicht und gleichzeitig mit sehr wenig Strom auskommt. Dadurch eignet er sich für militärische Anwendungen wie Satelliten und netzunabhängige Sensoreinrichtungen. Das Unternehmen rechnet damit, die ersten Chips im Jahr 2025 ausliefern zu können.
KI-Modelle werden für einige Anwendungen jedoch immer auf die Cloud angewiesen sein. Neue Investitionen und das Interesse an der Verbesserung des Edge-Computings könnten aber schnellere Chips und damit mehr KI in unsere Alltagsgeräte bringen. Wenn solche Edge-KI-Chips klein und billig genug sind, werden wir wahrscheinlich noch mehr intelligente Geräte in unseren Haushalten und an unseren Arbeitsplätzen sehen. Heute sind KI-Modelle meist auf Rechenzentren beschränkt.
„Viele der Herausforderungen, die wir dort sehen, werden überwunden werden“, sagt Naveen Verma, Mitbegründer von Encharge AI. „Ich erwarte, dass bald ein großer Fokus auf den Edge-Bereich gelegt wird. Ich denke, dass das entscheidend sein wird, um KI in wirklich großem Umfang zu nutzen.“
Große Summen für das KI-Training
In fast allen Branchen – vom Modekonzern bis zum Hersteller von Gartengeräten – zahlen Unternehmen bereits jetzt exorbitante Summen für die Erstellung und das Training eigener KI-Modelle für ihr Business. Beispiele hierfür sind Systeme, mit denen Mitarbeiter Dokumente scannen und zusammenfassen können, sowie externe Technologien wie virtuelle Agenten, die Kunden dann erklären, wie sie ihren kaputten Kühlschrank wieder zum Laufen bringen. Das bedeutet, dass die Nachfrage nach Cloud-Computing-Systemen zum Trainieren dieser Modelle in die Höhe schießt.
Die Unternehmen, die den Großteil dieser Rechenleistung bereitstellen, sind Amazon, Microsoft und Google. Seit Jahren träumen diese Tech-Giganten davon, ihre Gewinnspannen noch weiter zu erhöhen, indem sie Chips für ihre Rechenzentren selbst herstellen. Derzeit bedienen sie sich für teures Geld bei Firmen wie Nvidia, einem Giganten mit einem Beinahe-Monopol auf die modernsten KI-Trainingschips, dessen Unternehmenswert in die Höhe geschossen ist.