Nicht nur KI-Agenten und kleine Sprachmodelle: Diese KI-Trends für 2025 solltest du kennen
Es ist ein schwieriges Unterfangen, vorhersagen zu wollen, wie es im Bereich der Künstlichen Intelligenz weitergeht – wenn man bedenkt, wie schnell sich diese Branche entwickelt. Dennoch wollen die drei für KI zuständigen Redakteure der US-Ausgabe von MIT Technology Review es hier versuchen. Die besonders offensichtlichen Entwicklungen ignorieren sie dabei allerdings – darunter kleinere und effizientere Large Language Models (LLMs) sowie neuartige KI-Agenten.
1. Generative virtuelle „Spielplätze“
Wenn 2023 das Jahr der Bildgeneratoren war und 2024 das Jahr der KI-Videogeneratoren – was kommt dann als Nächstes? Wenn du auf generative virtuelle Welten (auch bekannt als Videospiele) getippt hast: herzlichen Glückwunsch! Einen winzigen Einblick in diese Technologie erhielten wir im Februar, als Google Deepmind ein generatives Modell namens Genie vorstellte, das ein simples Standbild in ein seitlich scrollendes 2D-Plattformspiel verwandeln kann, mit dem die Spieler interagieren können. Im Dezember stellte das Unternehmen dann Genie 2 vor, ein Modell, das ein Ausgangsbild in eine ganze virtuelle Welt verwandeln soll.
Andere Unternehmen arbeiten an ähnlichen Technologien. Im Oktober stellten die KI-Startups Decart und Etched einen inoffiziellen Minecraft-Hack vor, bei dem jedes Bild des Spiels während des Spielens in Echtzeit generiert wird. Und World Labs, ein von Fei-Fei Li mitbegründetes Startup, das ImageNet entwickelt hat – einen gigantischen Datensatz mit Fotos, der den Deep-Learning-Boom mitausgelöst hat – baut jetzt sogenannte Large World Models (LWMs).
Eine offensichtliche Anwendung für diese Systeme sind die erwähnten Videospiele. Diese frühen Experimente haben einen spielerischen Charakter, und generative 3D-Simulationen könnten verwendet werden, um Designkonzepte für neue Spiele zu erforschen und eine simple Skizze in eine spielbare Umgebung zu verwandeln. Dies könnte zu völlig neuen Arten von Spielen führen.
Solche generativen „Spielplätze“ könnten aber auch zum Trainieren von Robotern verwendet werden. World Labs möchte dazu die sogenannte räumliche Intelligenz entwickeln – die Fähigkeit von Maschinen, die Alltagswelt zu interpretieren und mit ihr zu interagieren. Doch den Robotikforschern fehlen gute Daten über reale Szenarien, mit denen sie eine solche Technologie trainieren könnten. Die Entwicklung großer virtueller Welten, in die dann eben virtuelle Roboter geschickt werden, um durch Versuch und Irrtum zu lernen, könnte hier Abhilfe schaffen. (Will Douglas Heaven)
2. Große Sprachmodelle, die „denken“
Die Aufregung war groß: Als OpenAI im September sein Modell „o1“ vorstellte, wurde damit, so Experten, ein Paradigmenwechsel für die Funktionsweise großer Sprachmodelle vorangetrieben: bessere Antworten, genauere Begründungen. Doch nur zwei Monate später hat das Unternehmen dieses Paradigma mit „o3“ in fast jeder Hinsicht übertroffen. Es ist ein Modell, das die gesamte Technologie LLM für immer verändern könnte, zumindest sieht es danach aus.
Die meisten Chatbots, einschließlich OpenAIs altes Flaggschiff GPT-4, spucken nur die erste Antwort aus, die ihnen „einfällt“. Manchmal ist sie richtig, manchmal nicht. Doch die neueren Modelle der Firmen sind darauf trainiert, ihre Antworten Schritt für Schritt abzuarbeiten und knifflige Probleme in eine Reihe von einfacheren Schritten zu zerlegen. Wenn ein Ansatz dabei nicht funktioniert, versuchen sie einen anderen. Diese Technik, die als „Reasoning“ bekannt ist, kann große Sprachmodelle viel genauer machen, insbesondere bei Mathematik-, Physik- und Logikproblemen.
Sie ist auch für KI-Agenten („agentic AI“) entscheidend. Im Dezember stellte Google Deepmind einen experimentellen neuen Web-Browsing-Agenten namens Mariner vor. Während einer Vorab-Demo, die das Unternehmen der US-Ausgabe von MIT Technology Review gab, schien die Software zunächst stecken zu bleiben. Megha Goel, eine Produktmanagerin des Unternehmens, hatte den Agenten gebeten, ein Rezept für Weihnachtsplätzchen zu finden, das so aussah wie das auf einem Foto, das sie dem System vorgegeben hatte. Mariner fand ein Rezept im Internet und begann dann auch schon, die Zutaten zu Goels Online-Einkaufskorb hinzuzufügen. Dann kam die KI zum Stillstand: Sie konnte sich nicht entscheiden, welche Mehlsorte sie wählen sollte. Goel beobachtete dann, wie Mariner seine Schritte in einem Chat-Fenster erklärte: „Das System sagt: Ich benutze die Zurück-Taste des Browsers, um zum Rezept zurückzukehren.“
Es war ein bemerkenswerter Moment. Anstatt gegen eine Mauer zu laufen, hatte der Agent die Aufgabe in einzelne Aktionen aufgeteilt und eine ausgewählt, die das Problem wirklich lösen konnte. Herauszufinden, dass man auf die Schaltfläche „Zurück“ klicken muss, mag einfach klingen, aber für einen gefühlt hirnlosen Bot ist das eine Art von Raketenwissenschaft. Und in dem Beispiel hat es funktioniert: Mariner kehrte zum Rezept zurück, bestätigte die Mehlsorte schließlich und fuhr fort, Goels Korb mit Plätzchenzutaten zu füllen. Sieg der KI.
Google Deepmind baut auch eine experimentelle Version von Gemini 2.0, seinem neuesten großen Sprachmodell, das diesen schrittweisen Ansatz zur Problemlösung verwendet, genannt Gemini 2.0 Flash Thinking. Doch OpenAI und Google sind hier nur die Spitze des Eisbergs. Viele Unternehmen sind dabei, große Sprachmodelle zu entwickeln, die ähnliche Verfahren verwenden und sie bei einer ganzen Reihe von Aufgaben besser zu machen – vom Erstellen von Kochrezepten bis zum Programmieren. Das Thema „Reasoning“ bleibt eine Topneuerung in der KI des Jahres 2025. (Will Douglas Heaven)
3. Hochkonjunktur für KI in der Wissenschaft
Eine der aufregendsten Anwendungen von KI ist die Beschleunigung von Entdeckungen im Bereich der Naturwissenschaften. Die vielleicht größte Bestätigung für dieses Potenzial kam im vergangenen Oktober, als die Königlich Schwedische Akademie der Wissenschaften den Nobelpreis für Chemie zur Hälfte an Demis Hassabis und John M. Jumper von Google Deepmind gab. Sie hatten die AlphaFold-Tools zur KI-gestützten Proteinfaltung entwickelt. Der Trend dürfte sich 2025 fortsetzen. Es wird mehr große KI-Datensätze und Modelle geben, die speziell auf die wissenschaftliche Forschung ausgerichtet sind. Proteine waren das erste perfekte Ziel, denn in diesem Bereich gab es bereits hervorragende Datensätze, auf die KI-Modelle trainiert werden konnten.
Die Jagd nach dem nächsten großen Ding hat in dem Sektor längst begonnen. Ein möglicher Bereich ist die Materialwissenschaft. Meta hat umfangreiche Trainingsdatensätze und KI-Modelle veröffentlicht, die Wissenschaftlern dabei helfen könnten, neue Materialien schneller zu entdecken. Im Dezember startete Hugging Face zudem zusammen mit dem Startup Entalpic das Open-Source-Projekt LeMaterial, das die Materialforschung vereinfachen und ebenfalls beschleunigen soll. Ihr erstes Projekt ist ein Trainingsdatensatz, der die wichtigsten vorhandenen Materialdatenbanken vereinheitlicht, bereinigt und standardisiert. Auch die Hersteller von KI-Modellen sind bestrebt, ihre generativen Produkte als Forschungswerkzeuge anzubieten. OpenAI hat sein neuestes o1-Modell von Wissenschaftler:innen testen lassen, um zu prüfen, wie es sie in der Forschung unterstützen könnte. Die Ergebnisse waren laut einem Nature-Paper ermutigend.
Ein KI-Tool zu haben, das ähnlich wie Forscher:innen arbeitet, ist eine der großen Träume des Technologiesektors. In einem im Oktober letzten Jahres veröffentlichten Manifest hob Anthropic-Gründer Dario Amodei die Wissenschaft, insbesondere die Biologie, als einen der Schlüsselbereiche hervor, in denen eine leistungsfähige KI helfen könnte. Amodei spekuliert, dass KI in Zukunft nicht nur eine Methode zur schlichten Datenanalyse sein könnte, sondern ein „virtueller Biologe, der alle Aufgaben eines Biologen übernimmt“. Von diesem Szenario sind wir aber noch ein gutes Stück entfernt. Aber 2025 könnten wir wichtige Schritte in diese Richtung gehen. (Melissa Heikkilä)
4. KI-Firmen im Bereich der nationalen Sicherheit
KI-Firmen, die bereit sind, ihre Werkzeuge für Grenzüberwachung, das Sammeln von Geheimdienstinformationen und andere Aufgaben der nationalen Sicherheit zur Verfügung zu stellen, können potenziell eine Menge Geld einbringen. Das US-Militär bereits eine Reihe von Initiativen gestartet, die zeigen, wohin die Reise geht. Da wäre etwa das Replicator-Programm, das, getrieben durch den Krieg in der Ukraine, eine Milliarde US-Dollar in kleine KI-Drohnen stecken will. Oder die „Artificial Intelligence Rapid Capabilities Cell“, eine Einheit, die KI in alle Bereiche von der Entscheidungsfindung auf dem Schlachtfeld bis zur Logistik einbringt. Die europäischen Streitkräfte stehen unter dem Druck, ihre Investitionen in solche Technologie zu erhöhen, ausgelöst durch die Sorge, dass die neue US-Regierung die Ausgaben für die Ukraine kürzen wird. Auch die zunehmenden Spannungen zwischen Taiwan und China belasten die Militärplanung.
Im Jahr 2025 werden diese Trends weiterhin ein Segen für Unternehmen der Verteidigungstechnologie wie Palantir, Anduril und andere sein, die jetzt schon aus geheimen Militärdaten Kapital schlagen, um KI-Modelle zu trainieren. Die tiefen Taschen der Verteidigungsindustrie könnten auch Mainstream-KI-Unternehmen dazu verleiten, sich anzuschließen. OpenAI kündigte im Dezember eine Partnerschaft mit Anduril für ein Programm zum Bekämpfen feindlicher Drohnen an und vollzog damit eine Abkehr von seiner Politik, nicht mit dem Militär zusammenzuarbeiten. Damit reiht sich die Firma in die Reihe von Microsoft, Amazon und Google ein, die seit Jahren mit dem Pentagon kooperieren.
Andere KI-Konkurrenten, die Milliarden für Training und Entwicklung neuer Modelle ausgeben, werden im Jahr 2025 stärker unter Druck geraten, sich ernsthafte Gedanken über ihre Einnahmesituation zu machen. Möglicherweise finden sie genügend Kunden außerhalb des Verteidigungssektors, die bereit sind, gutes Geld für KI-Agenten zu zahlen, die komplexe Aufgaben erledigen – oder kreative Branchen finden, die bereit sind, in die immer besser werdende Bild- und Videogeneratoren zu investieren.
Doch viele Startups werden auch zunehmend versucht sein, ihren Hut für lukrative Pentagon-Aufträge in den Ring zu werfen. Es ist zu erwarten, dass die KI-Unternehmen mit der Frage ringen werden, ob die Arbeit an Verteidigungsprojekten als Widerspruch zu ihren Werten zu sehen ist. Die Begründung von OpenAI für die Änderung seiner Haltung war, dass „Demokratien weiterhin die Führerschaft in der KI-Entwicklung übernehmen“ sollten, schrieb das Unternehmen und argumentierte weiter, dass die Bereitstellung seiner Modelle für das Militär dieses Ziel fördert. Im Jahr 2025 werden wir sehen, ob und wie andere dem Beispiel des KI-Riesen folgen. (James O’Donnell)
5. Nvidia bekommt endlich echte Konkurrenz
Während eines Großteils des derzeitigen KI-Booms war Jensen Huang der Mann, wollte man ein Startup führen, das sich an der Entwicklung eines eigenen KI-Modells versuchen wollte. Der CEO von Nvidia, dank des ganzen Hypes zwischenzeitlich das wertvollste Unternehmen des Planeten, trug maßgeblich dazu bei, dass seine Firma zum Marktführer bei GPU-Chips wurde, die zum Trainieren großer Sprachmodelle, Bildgeneratoren und Co. unerlässlich sind. Alles, was mit der sogenannten Inference zu tun hatte, befand sich technisch im Besitz von Nvidia.
Doch der Sektor wandelt sich. Zum einen haben große Konkurrenten wie Amazon, Broadcom, AMD und andere stark in neue KI-Chips investiert – und es gibt erste Anzeichen dafür, dass dies erstmals sinnhaft mit Nvidia-Hardware mithalten können. Eine wachsende Zahl von Startups greift Nvidia zudem aus einer neuen Ecke an. Statt zu versuchen, das Chipdesign von Nvidia einfach nur geringfügig zu verbessern, setzen Firmen wie Groq auf völlig neue Architekturen. Sie versprechen effizientere und effektivere Methoden des KI-Trainings. Im Jahr 2025 werden diese Experimente noch in einem frühen Stadium bleiben, aber es ist gut möglich, dass eine Firma daher kommt, die dafür sorgt, dass die Spitzen-KI nicht mehr nur auf einen Hersteller angewiesen ist.
Neben diesem Wettstreit wird auch der geopolitische Chipkrieg mit China weitergehen. Einerseits versucht der Westen, die Ausfuhr von Spitzenchips und Technologien zu ihrer Herstellung an das kommunistische Land zu begrenzen. Andererseits zielen Bestrebungen wie das US-amerikanische Chips-Gesetz darauf ab, die heimische Produktion von Halbleitern anzukurbeln. Donald Trump könnte Exportkontrollen verschärfen und hat massive Zölle auf alle aus China importierten Waren angekündigt. Im Jahr 2025 könnte dies Taiwan, auf das die USA wegen des Chipherstellers TSMC in hohem Maße angewiesen sind, in den Mittelpunkt des Handelskrieges rücken. Dort hat man nämlich erstaunlicherweise angekündigt, Unternehmen bei der Verlagerung ihrer Produktionsstandorte von China auf die Insel zu helfen, damit sie die geplanten Zölle vermeiden können. Das könnte Kritik von Trump hervorrufen, der bereits seine Frustration über die hohen Kosten der USA zur Verteidigung Taiwans gegen China zum Ausdruck gebracht hat. Es ist unklar, wie sich dieser Konflikt auswirken wird, aber er dürfte nur ein weiterer Anreiz für die Chiphersteller sein, die Abhängigkeit von Taiwan zu verringern, was ja auch der eigentliche Zweck des Chips-Gesetzes ist. Und das könnte vielleicht zu KI-Chips „Made in America“ führen. (James O’Donnell)