Forschungsteam trainiert Open-Source-Reasoning-Modell für weniger als 450 Dollar

Auf dem Forschungsgebiet der Reasoning-Modelle ist jetzt ein großer Fortschritt gelungen: Wie Techcrunch berichtet, hat ein Forscher:innenteam der University of California in Berkeley mit Sky-T1-32B-Preview ein leistungsfähiges Open-Source-KI-Modell vorgestellt. Das Besondere: Das Modell wurde für weniger als 450 Dollar trainiert, während vergleichbare Modelle noch vor wenigen Jahren Millionen gekostet hätten. Sky-T1 stellt damit einen großen Schritt in Richtung Kosteneffizienz und Zugänglichkeit dar.
Ein Meilenstein in der Entwicklung von Reasoning-Modellen
Reasoning-Modelle unterscheiden sich von klassischen KI-Systemen dadurch, dass sie während des Entscheidungsprozesses eine Art Selbstkontrolle durchführen. Dadurch sind sie besonders in Bereichen wie Mathematik, Physik und Wissenschaft zuverlässiger, wo Präzision und Logik entscheidend sind. Während herkömmliche KI-Modelle Ergebnisse in Bruchteilen von Sekunden liefern, benötigen logikfähige Modelle etwas mehr Zeit – oft wenige Sekunden bis Minuten. Der Vorteil: Sie sind weniger fehleranfällig und liefern fundiertere Ergebnisse.
Sky-T1 überzeugte in mehreren Tests. So übertraf das Modell eine frühe Vorabversion von OpenAIs o1 in MATH500, einer Sammlung anspruchsvoller Mathematikaufgaben, ebenso wie bei der Bewertung komplexer Programmieraufgaben aus dem LiveCodeBench-Test. Bei GPQA-Diamond, einem Datensatz mit Fragen aus den Bereichen Physik, Biologie und Chemie, schnitt Sky-T1 jedoch schlechter ab als die Preview-Version von o1. Mit dem Modell o3, das kurz vor der Veröffentlichung steht, könnte OpenAI das Team von Novasky, das hinter Sky-T1 steht, noch weiter hinter sich zurücklassen. Es wird nämlich erwartet, dass o3 noch wesentlich leistungsfähiger sein wird.
Kostengünstiges Training dank synthetischer Daten
Laut Novasky basiert das Training von Sky-T1 auf einem innovativen Ansatz: Das Team verwendete zunächst QwQ-32B-Preview, ein anderes Reasoning-Modell von Alibaba, um die anfänglichen Trainingsdaten zu generieren, und verfeinerte diese dann mit OpenAIs GPT-4o-mini. Das eigentliche Training des Modells mit 32 Milliarden Parametern dauerte nur 19 Stunden und wurde auf einem Rack mit acht Nvidia H100 GPUs durchgeführt.
Synthetische Trainingsdaten haben dazu beigetragen, die Kosten deutlich zu senken. So war es möglich, das Reasoning-Modell Sky-T1 zum Rekordpreis von weniger als 450 Dollar zu trainieren. Ein weiteres Beispiel für diese Entwicklung ist Palmyra X 004, das kürzlich von der KI-Firma Writer veröffentlichte wurde. Das Training des Modells fand fast ausschließlich auf Basis synthetischer Daten statt und hat nur rund 700.000 Dollar gekostet – ein enormer Fortschritt im Vergleich zum Training früherer KI-Modelle, für die Budgets in Millionenhöhe nötig waren.
Novasky will die Zukunft der Reasoning-Modelle mitgestalten
Auch wenn Sky-T1 in einigen Bereichen hinter der Leistungsfähigkeit von OpenAIs o1 zurückbleibt, markiert das Modell einen bedeutenden Fortschritt: Während große Konkurrenten ihre Modelle meist hinter verschlossenen Türen entwickeln, ist Sky-T1 frei zugänglich und kann für unabhängige Forschung und Innovation genutzt werden. Der niedrige Preis macht es auch für kleinere Unternehmen und akademische Einrichtungen wahrscheinlicher, dass sie ihre eigenen Reasoning-Modelle entwickeln können.
Novasky betont außerdem, dass die Veröffentlichung des Open-Source-Modells erst der Anfang ist. In Zukunft wolle es sich darauf konzentrieren, effizientere Modelle zu entwickeln, die weiterhin starke Fähigkeiten im logischen Denken zeigen. Gleichzeitig will das Team der UC Berkeley fortschrittliche Techniken erforschen, die die Effizienz und Genauigkeit der Modelle während der Tests weiter verbessern.