Neues KI-Modell für komplexe Probleme: Alibaba-Forscher stellen Marco-o1 vor

Der chinesische E-Commerce-Riese Alibaba arbeitet an eigener KI. (Foto: Alibaba Group)
Mit Marco-o1 bringt Alibabas KI-Team ein Large Language Model (LLM) an den Start, das nach eigenen Angaben für die Lösung komplexer Probleme konzipiert wurde. Dazu nutzt Marco-o1 Techniken wie Chain-of-Thought (CoT) Fine-Tuning, Monte-Carlo Tree Search (MCTS) und neuartige Reasoning-Strategien, um seine Fähigkeiten im Bereich des logischen Denkens zu verbessern.
Marco-o1 mit deutlicher Verbesserung zu früheren Versionen
Marco-o1 wurde auf der Basis von Qwen2-7B-Instruct entwickelt und mit einer Kombination aus gefilterten CoT-Daten fein abgestimmt, wie das Team betont. Diese Kombination ermögliche es Marco-o1, verschiedene Reasoning-Pfade zu erkunden und optimale Lösungen für komplexe Aufgaben zu finden.
In Tests zeigte Marco-o1 eine Genauigkeitssteigerung von 6,17 Prozent auf dem MGSM-Datensatz (Englisch) und 5,6 Prozent auf dem MGSM-Datensatz (Chinesisch), was seine verbesserten Reasoning-Fähigkeiten im Vergleich zu früheren Versionen unterstreicht. Zudem konnte das Modell nach Angaben der Alibaba-Forscher:innen seine Leistungsfähigkeit in Übersetzungsaufgaben unter Beweis stellen – insbesondere bei der maschinellen, dabei aber präzisen Übersetzung von umgangssprachlichen Ausdrücken und Phrasen.
Open Source: Marco-o1 auf GitHub verfügbar
Das Entwicklungsteam hat Marco-o1 auf GitHub und Hugging Face verfügbar gemacht, sodass es für Forscher:innen und Entwickler:innen gleichermaßen zugänglich ist. Das Modell wurde unter Verwendung einer Kombination aus Open-Source-CoT-Daten und proprietären synthetischen Daten entwickelt.
Chain-of-Thought-Daten enthalten Erklärungen oder Schritte, die ein Modell dazu anregen, logisch durchdachte Antworten zu generieren, anstatt direkt auf eine Lösung zu springen. So werden etwa bei Berechnungen nicht nur die Ergebnisse, sondern auch die einzelnen Rechenschritte ausgegeben. CoT-Daten leiten Modelle dazu an, Aufgaben in Teilprobleme zu zerlegen und diese systematisch zu lösen.
Das Marco-Polo-Team arbeitet an weiteren Möglichkeiten, Marco-o1 in verschiedenen Bereichen einzusetzen, darunter an mehrsprachigen Übersetzungen und der Skalierung der Inferenzzeit. Die Inferenzzeit bezeichnet die Zeit, die ein Modell benötigt, um eine Antwort zu generieren, nachdem es mit einer Eingabe gefüttert wurde.
Chinesisches Deepseek-Modell soll o1 von OpenAI herausfordern
Marco-01 folgt auf die Veröffentlichung der Deepseek-R1-Lite-Preview durch Deepseek, einem chinesischen KI-Forschungslabor. Dabei handelt es sich um ein KI-Modell für logisches Denken, das das o1-Modell von OpenAI herausfordern soll.
Die Leistung des Deepseek-Modells soll bei strengen Benchmarks wie AIME und MATH, die die logischen und mathematischen Denkfähigkeiten von LLMs bewerten, mit der o1-Vorschau von OpenAI vergleichbar sein. Dabei muss allerdings gesagt werden, dass solche Vergleiche generell schwierig zu objektivieren sind.