Microsoft stellt neues 1-Bit-Sprachmodell vor – aber es gibt einen Haken

Im Wettlauf um die KI-Vorherrschaft geht es längst nicht mehr nur darum, das leistungsfähigste Modell zu bauen. Immer wichtiger wird dabei auch die Frage, wie sich Rechenleistung effizienter und ressourcenschonender bereitstellen lässt. Wie Techcrunch berichtet, wollen Microsoft-Forscher:innen jetzt einen neuen Meilenstein erreicht haben: Mit Bitnet b1.58 2B4T stellen sie das bisher größte bekannte 1-Bit-Sprachmodell vor. Es soll nicht nur deutlich sparsamer arbeiten als herkömmliche Modelle, sondern sogar auf gängigen Prozessoren wie Apples M2 laufen.
Wie effizient ist das neue Bitnet wirklich?
Bitnets sind stark komprimierte Modelle, die speziell dafür entwickelt wurden, auf leistungsschwächerer Hardware zu laufen. Im Unterschied zu klassischen Sprachmodellen, bei denen Parameter mit hoher Präzision gespeichert werden, reduzieren Bitnets die Werte ihrer Parameter auf nur drei Möglichkeiten – nämlich -1, 0 oder 1. Dieser extrem reduzierte Wertebereich macht das Modell besonders speicher- und rechenschonend – und damit auch für Geräte mit begrenzter Rechenkapazität interessant.
Das neue Modell Bitnet b1.58 2B4T von Microsoft wurde mit rund zwei Milliarden Parametern und einem Trainingsdatensatz von vier Billionen Token trainiert – das entspricht etwa dem Textvolumen von 33 Millionen Büchern. Nach Angaben des Forschungsteams übertrifft das Modell Llama 3.2 1B von Meta, Gemma 3 1B von Google und Qwen 2.5 1.5B von Alibaba bei Benchmarks wie dem „GSM8K“-Test. Dabei handelt es sich um eine Sammlung von Mathematikaufgaben auf Grundschulniveau. Und auch beim „Piqa“-Test, bei dem es um physikalisches logisches Denken geht, konnte das neue Bitnet von Mircosoft überzeugen. Außerdem soll es in einigen Fällen sogar doppelt so schnell sein wie andere Modelle seiner Größe – und dabei nur einen Bruchteil des Speichers benötigen.
Großes Potenzial – mit einem entscheidenden Haken
Trotz der beeindruckenden Ergebnisse gibt es bei dem neuen Bitnet b1.58 2B4T einen entscheidenden Knackpunkt: Der versprochene Betrieb auf normalen Prozessoren ist bislang nämlich nur eingeschränkt möglich. Um die angegebene Leistung zu erreichen, benötigt das Modell das eigens entwickelte Framework bitnet.cpp – und das läuft derzeit nur auf ausgewählter Hardware. GPUs, die in der heutigen KI-Infrastruktur eine zentrale Rolle spielen, werden noch nicht unterstützt.
Die Idee hinter Bitnets ist vielversprechend, da leistungsfähige KI-Modelle, die auch auf energieeffizienter Hardware eingesetzt werden können, immer gefragter werden. Wie sich zeigt, ist dieses Ziel in der Praxis allerdings noch nicht vollständig erreicht. Ob sich das neue Bitnet von Microsoft langfristig als leichtgewichtige Alternative für ressourcenschonende KI-Anwendungen durchsetzen wird, hängt also vor allem von der Kompatibilität ab.