Mit OPT hatte Facebook-Mutter Meta erst vor wenigen Wochen ein kostenlos nutzbares und transparentes KI-Sprachmodell – in Konkurrenz zu den proprietären und kostenpflichtigen Modellen GPT-3 von Open AI und Lamda von Google – vorgestellt. Die Offenheit soll dazu beitragen, die aus unzulänglichen Trainingsdaten resultierenden Probleme wie Bias und Vorurteile zu bekämpfen. Das hat sich auch das KI-Startup Hugging-Face auf die Fahnen geschrieben. Ein Jahr lang haben über 1.000 KI-Forscher:innen an Bloom gearbeitet, das besser als GPT-3 sein soll. Jetzt ist das KI-Sprachmodell da – Open Source.
Bloom beherrscht 46 Sprachen und Dialekte
Und es könnte Großes leisten, wenn man den Projektmacher:innen glauben darf. Bloom soll in der Lage sein, Text in 46 Sprachen, Dialekten sowie 13 Programmiersprachen zu generieren, schreibt Techcrunch. Dadurch soll Bloom selbstständig etwa Zusammenfassungen und Übersetzungen von Texten erstellen, Anweisungen in Code umwandeln, Informationen aus Nachrichtenartikeln extrahieren oder Rezepte schreiben können. Auch das Verfassen von Sätzen mit einem komplett neu geschaffenen Wort soll für Bloom kein Problem sein. Das Beste: Das Sprachmodell wird weiter trainiert.
Wie oben schon angesprochen geht es den Bloom-Entwickler:innen auch darum, Problemen entgegenzutreten, die Sprachmodelle plagen. Dazu gehören eben Vorurteile in puncto Religionen und Geschlechter, Rassismus, Fake-News oder endlose Wiederholungen und Widersprüche. Bloom könnte hier neue Forschungen anregen – unterstützt von dem Open-Source- und Open-Science-Ansatz, den das Projekt verfolgt. Wissenschaftler:innen, so die Vorstellung von Hugging-Face und dem Bigscience-Projektteam, sollen Bloom künftig für weniger als 40 US-Dollar pro Stunde bei einem Cloud-Anbieter nutzen können.
Sexismusgefahr: Anteil von Pornoseiten reduziert
Bloom wurde mit einem 1,6 Terabyte umfassenden Datensatz trainiert, der 341 Milliarden Wörter beinhaltet. Diese sollen auch Sprache und den kulturellen Kontext von Sprachen wie Suaheli, Katalanisch, Bengalisch oder Vietnamesisch abbilden. Ausgewählt wurden Texte aus Büchern, akademischen Publikationen, Radiomitschnitten, Podcasts und Websites. Die Inhalte wurden aber einer Überprüfung unterzogen. Um etwa sexistische Tendenzen zu vermindern, soll der Anteil von Pornoseiten reduziert worden sein, wie Techcrunch berichtet.
Insgesamt soll Bloom 176 Milliarden Parameter haben – ungefähr so viele wie GPT-3. Trainiert wurde am französischen Forschungszentrum CNLS (Centre national de la recherche scientifique). Für rund drei Monate standen dort 384 Nvidia-A100-GPU zur Verfügung. Der Bloom-Code und entsprechende Datensätze können hier eingesehen werden. Dort steht auch eine Web-App zur Verfügung, mit der man sich beschäftigen kann.