KI-Sprachmodell Bloom: Open-Source-Konkurrenz zu GPT-3 und Lamda ist endlich da

Mit OPT hatte Facebook-Mutter Meta erst vor wenigen Wochen ein kostenlos nutzbares und transparentes KI-Sprachmodell – in Konkurrenz zu den proprietären und kostenpflichtigen Modellen GPT-3 von Open AI und Lamda von Google – vorgestellt. Die Offenheit soll dazu beitragen, die aus unzulänglichen Trainingsdaten resultierenden Probleme wie Bias und Vorurteile zu bekämpfen. Das hat sich auch das KI-Startup Hugging-Face auf die Fahnen geschrieben. Ein Jahr lang haben über 1.000 KI-Forscher:innen an Bloom gearbeitet, das besser als GPT-3 sein soll. Jetzt ist das KI-Sprachmodell da – Open Source.
Und es könnte Großes leisten, wenn man den Projektmacher:innen glauben darf. Bloom soll in der Lage sein, Text in 46 Sprachen, Dialekten sowie 13 Programmiersprachen zu generieren, schreibt Techcrunch. Dadurch soll Bloom selbstständig etwa Zusammenfassungen und Übersetzungen von Texten erstellen, Anweisungen in Code umwandeln, Informationen aus Nachrichtenartikeln extrahieren oder Rezepte schreiben können. Auch das Verfassen von Sätzen mit einem komplett neu geschaffenen Wort soll für Bloom kein Problem sein. Das Beste: Das Sprachmodell wird weiter trainiert.
Wie oben schon angesprochen geht es den Bloom-Entwickler:innen auch darum, Problemen entgegenzutreten, die Sprachmodelle plagen. Dazu gehören eben Vorurteile in puncto Religionen und Geschlechter, Rassismus, Fake-News oder endlose Wiederholungen und Widersprüche. Bloom könnte hier neue Forschungen anregen – unterstützt von dem Open-Source- und Open-Science-Ansatz, den das Projekt verfolgt. Wissenschaftler:innen, so die Vorstellung von Hugging-Face und dem Bigscience-Projektteam, sollen Bloom künftig für weniger als 40 US-Dollar pro Stunde bei einem Cloud-Anbieter nutzen können.
Bloom wurde mit einem 1,6 Terabyte umfassenden Datensatz trainiert, der 341 Milliarden Wörter beinhaltet. Diese sollen auch Sprache und den kulturellen Kontext von Sprachen wie Suaheli, Katalanisch, Bengalisch oder Vietnamesisch abbilden. Ausgewählt wurden Texte aus Büchern, akademischen Publikationen, Radiomitschnitten, Podcasts und Websites. Die Inhalte wurden aber einer Überprüfung unterzogen. Um etwa sexistische Tendenzen zu vermindern, soll der Anteil von Pornoseiten reduziert worden sein, wie Techcrunch berichtet.
Insgesamt soll Bloom 176 Milliarden Parameter haben – ungefähr so viele wie GPT-3. Trainiert wurde am französischen Forschungszentrum CNLS (Centre national de la recherche scientifique). Für rund drei Monate standen dort 384 Nvidia-A100-GPU zur Verfügung. Der Bloom-Code und entsprechende Datensätze können hier eingesehen werden. Dort steht auch eine Web-App zur Verfügung, mit der man sich beschäftigen kann.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team