Llama 3.3: Meta präsentiert KI-Modell mit Spitzenleistung zu niedrigeren Kosten
Meta erweitert seine Llama-Modellreihe: Wie Techcrunch berichtet, hat das Unternehmen mit Llama 3.3 70B ein neues KI-Sprachmodell vorgestellt. Es soll die Leistung des bisherigen Spitzenmodells Llama 3.1 405B erreichen, aber mit deutlich weniger Inferenzkosten auskommen. Llama 3.3 70B steht ab sofort sowohl auf der KI-Entwicklungsplattform Hugging Face als auch auf der offiziellen Llama-Website zum Download bereit.
Laut Meta feiern die Llama-Modelle große Erfolge
Ahmad Al-Dahle, Vice President für generative KI bei Meta, hat auf X ein Diagramm veröffentlicht, das die Leistung von Llama 3.3 70B im Vergleich zu Konkurrenzmodellen zeigt. Laut der Grafik übertrifft Llama 3.3 70B Modelle wie Googles Gemini 1.5 Pro, OpenAIs GPT-4o und Amazons neuveröffentlichtem Nova Pro in mehreren Industrie-Benchmarks. Dazu gehört auch das Massive Multitask Language Understanding (MMLU). Dabei handelt es sich um eine Benchmark, die das Sprachverständnis von KI-Modellen bewertet und somit einen wichtigen Leistungsindikator darstellt.
Llama 3.3 70B ist der jüngste Versuch des Unternehmens, den KI-Bereich mit „offenen“ Modellen zu dominieren. Offen ist die Nutzung allerdings nur bedingt, denn Meta hat bestimmte Einschränkungen festgelegt: Plattformen mit mehr als 700 Millionen monatlichen Nutzer:innen benötigen eine spezielle Lizenz, um Llama-Modelle verwenden zu dürfen. Trotz dieser Einschränkungen verzeichnet Llama beeindruckende Zahlen – laut Meta wurden die Modelle bereits über 650 Millionen Mal heruntergeladen.
Meta setzt die Llama-Technologie auch intern ein. Der KI-Assistent Meta AI, der vollständig auf Llama-Modellen basiert, erreicht nach Angaben von CEO Mark Zuckerberg fast 600 Millionen monatlich aktive Nutzer:innen. Zuckerberg betont, dass Meta AI auf dem besten Weg ist, der weltweit meistgenutzte KI-Assistent zu werden.
Meta plant riesige Investitionen – und lässt viele Fragen offen
Trotz des Eigenlobs steht Meta derzeit vor großen Herausforderungen: Das Unternehmen trainiert seine KI-Modelle nämlich mit öffentlichen Daten von Instagram- und Facebook-Nutzer:innen, die der Nutzung ihrer persönlichen Informationen nicht ausdrücklich widersprochen haben. In der EU unterliegen diese Daten jedoch der DSGVO. Anfang des Jahres forderte die EU Meta deshalb dazu auf, die Verwendung europäischer Nutzer:innendaten für KI-Trainings vorübergehend einzustellen, bis abschließend überprüft werden konnte, ob das Unternehmen die DSGVO-Richtlinien befolgt. Darüber hinaus äußerte Meta selbst Zweifel daran, ob es in der Lage ist, die Anforderungen des neuen AI Acts einzuhalten. Das Unternehmen bezeichnete die Umsetzung des Gesetzes als schwer vorhersehbar und potenziell problematisch für seine Strategie, die Llama-Modelle offen zur Nutzung bereitzustellen.
Neben den rechtlichen Fragen sind aber auch die finanziellen Ansprüche enorm. Um die Entwicklung und den Betrieb zukünftiger Llama-Modelle sicherzustellen, hat Meta den Bau eines KI-Rechenzentrums in Louisiana angekündigt. Kostenpunkt: 10 Milliarden Dollar. Bereits im zweiten Quartal 2024 stiegen die Investitionsausgaben von Meta durch den Ausbau von Serverkapazitäten, Rechenzentren und Netzwerkinfrastruktur im Vergleich zum Vorjahr um fast 33 Prozent auf 8,5 Milliarden US-Dollar. Ob sich dieser hohe Aufwand auszahlen wird, bleibt abzuwarten. Zumindest auf rechtlicher Seite sind noch viele Fragen offen.