Anzeige
Anzeige
News
Artikel merken

Chatbot verbreitet Fake News: Alpaca AI wird offline genommen

Die experimentelle Alpaca AI, die auf Metas Llama-System basiert, erzählt Unsinn – und ist damit nicht allein. Ihre Erschaffer haben jetzt den Stecker gezogen.

2 Min. Lesezeit
Anzeige
Anzeige

Der Sprachbot ist nach der peruanischen Kamelart Alpaka benannt. (Illustration: Parkheta/ Shutterstock.com)

Der Chatbot Alpaca AI ist wieder offline. Das verantwortliche Team an der Stanford University hat den Stecker gezogen, nachdem das „intelligente“ Sprachmodell „halluzinierte“ und selbstbewusst Fehlinformationen streute. The Register berichtete.

Anzeige
Anzeige

Als Gründe nennen die Organisatoren zudem Kosten- und Sicherheitsbedenken. Erst letzte Woche haben sie eine Demo und eine Reihe Assets freigegeben, damit man selbst mit Alpaca herumspielen kann. Viele davon stehen noch online.

Alpaca AI basiert auf der Llama-7B-KI von Facebook-Mutterkonzern Meta. Die Forscher:innen warnen, dass auch andere Modelle wie ChatGPT, GPT-3.5, Claude und Bing Chat immer noch viele Mängel aufweisen. Die Wissenschaftler:innen schrieben in ihrem Start-Statement: „Sie können falsche Informationen erzeugen, soziale Stereotypen verbreiten und toxische Sprache produzieren.“

Anzeige
Anzeige

Übliche Schwächen von Sprachmodellen: Halluzination, Toxizität & Co

Die Verfasser:innen betonten, Alpaca habe nur akademischen Zwecken gedient. Das liegt auch daran, dass das Team Instruktionsdaten aus GPT verwendet hat – und OpenAI in den Nutzungsbedingungen ausdrücklich das Erzeugen konkurrierender Sprachmodelle untersagt.

Die Forschenden legen in dem Bericht offen, welche Instanzen sie mit welchen Informationen gefüttert haben. Das Ergebnis: „Alpaca weist auch einige übliche Schwächen von Sprachmodellen auf, darunter Halluzination, Toxizität und Stereotypen. Insbesondere Halluzinationen scheinen eine häufige Fehlerquelle für Alpaca zu sein, selbst im Vergleich zu text-davinci-003“ (GPT 3.5).

Anzeige
Anzeige

Demo und andere Daten freigegeben

Zwar schaltet die Gruppe den Bot zunächst ab, der Quellcode ist jedoch weiter auf GitHub verfügbar. Das gilt auch für die Trainingsdaten, den Code für die Datengenerierung und den Trainingscode auf Basis der Hugging-Face-API. Ursprünglich sollten – unter Absprache mit Meta – die Modellgewichte hinzukommen.

Die Risiken seien den Forschenden bewusst, steht in dem Statement. Sie nennen „zum Beispiel die weitere Verbreitung schädlicher Inhalte und die Senkung der Barriere für Spam, Betrug oder Desinformation.“

Anzeige
Anzeige

Um böswillige Akteure daran zu hindern, Modelle zu erstellen, die Schaden anrichten, habe man einen Inhaltsfilter implementiert, der wiederum aus OpenAIs Content-Moderation-API stamme. Die API versucht Inhalte auszufiltern, die nicht den Nutzungsrichtlinien von OpenAI entsprechen. Die Gruppe schreibt: „Wir sind uns bewusst, dass die Abschwächungsmaßnahmen umgangen werden können.“ Das gelte speziell, wenn Benutzer:innen über die Konfiguration ihre eigenen Modelle trainieren.

Grund für das Versagen der 600-Dollar-KI unbekannt

Den Startschuss für das Projekt hat im Prinzip Meta gegeben, in dem es Llama ausgewählten Forscher:innen zur Verfügung gestellt hat. Die Computerwissenschaftler:innen von der Stanford University entwickelten daraus das Open-Source-Modell mit sieben Milliarden Parametern. Warum es versagt hat, können die Forscher:innen nicht sagen. Sie empfehlen eine weitere und intensive Evaluierung der Engine.

Berichten zufolge sollen sie für Alpaca AI nur 600 US-Dollar aufgewendet haben. Allerdings schossen schnell die Kosten für das Hosting in die Höhe.

Anzeige
Anzeige

Findige Bastler:innen schafften es in kurzer Zeit, Alpaca AI auf Raspberry-Pis und Pixel-Smartphones zum Laufen zu bringen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
2 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Andreas Rumpf

Nach „Forschenden“ habe ich aufgehört zu lesen. Das heißt „Forscher“. Beweis: „Die toten Forschenenden“ kann man nicht sagen, „die toten Forscher“ schon. Gendersprache ist unlogisch und die Gendertheorie wurde von einem praktizierenden Pädophilen aufgestellt, nur mal so zur Info.

Antworten
Tom

Toxische Sprache verbreiten auch Menschen. Man braucht sich nur diesen Artikel:innen durchlesen.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige