Zurück zu den Basics: Wie schlanke Sprachmodelle KI demokratischer machen
OpenAIs GPT‑4, Metas Llama, Googles Palm 2: Wer als Techfirma im KI-Game mitspielen will, kommt um große Sprachmodelle (LLM) nicht herum. Dabei gilt häufig: je größer, desto besser, je mehr Parameter und Trainingsdaten, umso treffender der Output.
- Sofort-Zugriff auf die exklusiven Briefings
- Digitaler Zugang zu allen Ausgaben des t3n Magazins
- Guides und Surveys im Wert von bis zu 396 Euro inklusive
- Exklusive Sessions mit t3n und Digital-Expert*innen
Du bist bereits Pro-Member? Hier anmelden
Elisabeth ist crossmediale Redakteurin und dementsprechend sowohl im Print-, als auch im Online- und Podcastbereich von t3n unterwegs. Findet technische Innovation als Problemlöser und den digitalen Wandel besonders spannend und ist großer Fan von konstruktiver Kritik.