Anzeige
Anzeige
News

Neues KI-Modell für komplexe Probleme: Alibaba-Forscher stellen Marco-o1 vor

Das chinesische E-Commerce-Unternehmen Alibaba leistet sich eine eigene KI-Forschung. Das auf den Namen Marco Polo getaufte Team hat nun sein erstes großes Sprachmodell vorgestellt.

2 Min.
Artikel merken
Anzeige
Anzeige

Der chinesische E-Commerce-Riese Alibaba arbeitet an eigener KI. (Foto: Alibaba Group)

Mit Marco-o1 bringt Alibabas KI-Team ein Large Language Model (LLM) an den Start, das nach eigenen Angaben für die Lösung komplexer Probleme konzipiert wurde. Dazu nutzt Marco-o1 Techniken wie Chain-of-Thought (CoT) Fine-Tuning, Monte-Carlo Tree Search (MCTS) und neuartige Reasoning-Strategien, um seine Fähigkeiten im Bereich des logischen Denkens zu verbessern.

Anzeige
Anzeige

Marco-o1 mit deutlicher Verbesserung zu früheren Versionen

Marco-o1 wurde auf der Basis von Qwen2-7B-Instruct entwickelt und mit einer Kombination aus gefilterten CoT-Daten fein abgestimmt, wie das Team betont. Diese Kombination ermögliche es Marco-o1, verschiedene Reasoning-Pfade zu erkunden und optimale Lösungen für komplexe Aufgaben zu finden.

In Tests zeigte Marco-o1 eine Genauigkeitssteigerung von 6,17 Prozent auf dem MGSM-Datensatz (Englisch) und 5,6 Prozent auf dem MGSM-Datensatz (Chinesisch), was seine verbesserten Reasoning-Fähigkeiten im Vergleich zu früheren Versionen unterstreicht. Zudem konnte das Modell nach Angaben der Alibaba-Forscher:innen seine Leistungsfähigkeit in Übersetzungsaufgaben unter Beweis stellen – insbesondere bei der maschinellen, dabei aber präzisen Übersetzung von umgangssprachlichen Ausdrücken und Phrasen.

Anzeige
Anzeige

Open Source: Marco-o1 auf GitHub verfügbar

Das Entwicklungsteam hat Marco-o1 auf GitHub und Hugging Face verfügbar gemacht, sodass es für Forscher:innen und Entwickler:innen gleichermaßen zugänglich ist. Das Modell wurde unter Verwendung einer Kombination aus Open-Source-CoT-Daten und proprietären synthetischen Daten entwickelt.

Chain-of-Thought-Daten enthalten Erklärungen oder Schritte, die ein Modell dazu anregen, logisch durchdachte Antworten zu generieren, anstatt direkt auf eine Lösung zu springen. So werden etwa bei Berechnungen nicht nur die Ergebnisse, sondern auch die einzelnen Rechenschritte ausgegeben. CoT-Daten leiten Modelle dazu an, Aufgaben in Teilprobleme zu zerlegen und diese systematisch zu lösen.

Anzeige
Anzeige

Das Marco-Polo-Team arbeitet an weiteren Möglichkeiten, Marco-o1 in verschiedenen Bereichen einzusetzen, darunter an mehrsprachigen Übersetzungen und der Skalierung der Inferenzzeit. Die Inferenzzeit bezeichnet die Zeit, die ein Modell benötigt, um eine Antwort zu generieren, nachdem es mit einer Eingabe gefüttert wurde.

Chinesisches Deepseek-Modell soll o1 von OpenAI herausfordern

Marco-01 folgt auf die Veröffentlichung der Deepseek-R1-Lite-Preview durch Deepseek, einem chinesischen KI-Forschungslabor. Dabei handelt es sich um ein KI-Modell für logisches Denken, das das o1-Modell von OpenAI herausfordern soll.

Anzeige
Anzeige

Die Leistung des Deepseek-Modells soll bei strengen Benchmarks wie AIME und MATH, die die logischen und mathematischen Denkfähigkeiten von LLMs bewerten, mit der o1-Vorschau von OpenAI vergleichbar sein. Dabei muss allerdings gesagt werden, dass solche Vergleiche generell schwierig zu objektivieren sind.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige