ChatGPT, Claude & Co: Wer bietet die besten Gratis-Features?

Der Machtkampf großer KI-Chatbots dehnt sich jetzt auch auf Reasoning und Deep Research aus. (Foto: Shutterstock / Tada Images)
Der Markt für KI-Chatbots und -Assistenten ist nach der Veröffentlichung von ChatGPT im November 2022 rasant gewachsen. Neben Angeboten etablierter Tech-Firmen wie Microsoft, Alphabet, Apple und Amazon gibt es zahlreiche Startups mit eigenen Tools und Open-Source-Lösungen.
Trotzdem werden die gängigen KI-Benchmarks, abgesehen von Ausreißern wie Deepseek, von den Sprachmodellen der großen Firmen dominiert. Besonders Reasoning-Modelle, bei denen Prompts in ihre Einzelteile zerlegt, überprüft und Stück für Stück abgearbeitet werden, damit der Kontext nicht verloren geht, landen vermehrt auf den vorderen Rängen.
Diese optimierten Modelle wurden zuletzt um sogenannte Deep-Research-Modi ergänzt. Die sollen auf der Basis von Reasoning, Netzanbindung und fortschrittlicher Analyse am Ende zu hieb- und stichfesten, mit Quellen belegten Reports führen. In der Praxis funktioniert das nicht immer, wie unser Test von Perplexitys Deep-Research-Funktion zeigt.
Vor allem: Diese erweiterten Modi waren gerade bei den Marktführern häufig hinter einer Paywall versteckt oder in ihrer Nutzung stark eingeschränkt. Kostenlose Angebote wie das schon erwähnte Perplexity Deep Research oder das chinesische Reasoning-Modell Deepseek R1 haben die großen US-Tech-Firmen in Zugzwang gebracht. Das Resultat: Innerhalb von einer Woche haben nahezu alle wichtigen Anbieter von KI-Chatbots diese Modelle deutlich vergünstigt oder bieten sie gratis an. Wir haben die Details zu ChatGPT, Claude, Copilot und Gemini für euch zusammengestellt.
Microsoft Copilot: Reasoning mit Think Deeper jetzt gratis
Ende Februar kündigte Microsoft an, sämtliche Einschränkungen für seine Reasoning-Option Copilot Think Deeper aufzuheben. Think Deeper war schon im Januar 2025 als zusätzliche Option für Copilot-Nutzer:innen gestartet, konnte aber nur eingeschränkt genutzt werden. Aus dem Statement eines Microsoft-Sprechers an PC World wurde nicht klar, wie viele Anfragen man in welchem Zeitraum stellen konnte.
Das ist aber jetzt ohnehin irrelevant, denn sämtliche Limitierungen sind mittlerweile aufgehoben. Das Besondere: Think Deeper ist kein eigenes Produkt, sondern nutzt OpenAIs o1-Modell für Reasoning-Anfragen. Da für die Nutzung nur ein kostenloser Microsoft-Account notwendig ist, lässt sich so die Abo-Schranke von ChatGPT umgehen. Unklar ist, welche Variante von o1 genutzt wird. Das dürfte aber nur besonders akribische Expert:innen interessieren. Denn alle Formen von o1 schneiden bei Benchmarks wie Chatbot Arena und Livebench, die unterschiedliche Modellvarianten vergleichen, ähnlich gut ab.
Wer sichergehen möchte, dass Inputs und Outputs nicht für das Training von Sprachmodellen genutzt werden, soll bei Copilot auf der sicheren Seite sein. Daran ändert auch die Integration in Word, Excel und Konsorten nichts, wie ein Sprecher im November 2024 gegenüber PC Mag bestätigt. Microsoft nutzt die übertragenen Daten, wie eigentlich alle Anbieter, allerdings zur Verbesserung seiner Produkte und Dienstleistungen – wie auch immer das im Fall von Eingaben in KI-Tools aussieht. Immerhin verarbeitet Microsoft diese gemäß der EU-Datengrenzen in Datenzentren innerhalb Europas.
Eine Ausnahme im Microsoft-Kosmos bildet Linkedin. Hier wurden laut PC Mag, zumindest bis Ende 2024 und in den USA, Nutzer:innendaten standardmäßig zum Training von generativer KI genutzt. In den Privatsphäreeinstellungen lässt sich dagegen Widerspruch einlegen, gute Geschäftspraktik ist das dennoch nicht.
OpenAI ChatGPT: Deep Research wird günstiger
Wer schon für ChatGPT zahlt, kann seit dem 26. Februar die ursprünglich nur für Pro-Abonnent:innen verfügbare Deep-Research-Funktion des KI-Chatbots nutzen. Diese basiert laut Aussagen des OpenAI-Forschers Noam Brown auf X auf der kompletten Version des o3-Modells, von dem bislang nur die Mini-Variante nutzbar ist.
Damit vergünstigt OpenAI den Zugriff auf diese neue Chatbot-Funktion, aber einige Einschränkungen bleiben. So können Plus-, Team-, Enterprise- und Edu-Accounts für 20 US-Dollar pro Monat maximal zehn Deep-Research-Anfragen stellen. Pro-User:innen, die seit Anfang Februar Zugriff auf Deep Research haben, können 120 Anfragen pro Monat stellen, müssen dafür aber auch 200 US-Dollar zahlen.
Wem Datenschutz wichtig ist, der sollte um ChatGPT allerdings einen Bogen machen. Wie Microsoft nutzt OpenAI Nutzer:innendaten zur Verbesserung seiner Produkte. In den Nutzungsbedingungen wird allerdings auch explizit erwähnt, dass man der Einspeisung seiner Inputs und Outputs in die Trainingsdaten zukünftiger Modelle aktiv widersprechen muss und dass manche Funktionen dadurch beeinflusst werden könnten.
Trotz guter Ergebnisse in zahlreichen Benchmarks weist OpenAI außerdem selbst darauf hin, dass Deep Research nicht zwischen „guten“ und „schlechten“ Quellen unterscheidet und Falschinformationen ausgeben kann. Nutzer:innen sollten also auch hier Ergebnisse nicht unüberprüft übernehmen.
Google Gemini: Zwei Modelle für Deep Research und Reasoning
Google Gemini, das Chatbot-Angebot von Alphabet, kombiniert für seine fortschrittlichen Tools zwei Geschäftsmodelle. Gemini Flash 2.0 Thinking Experimental, die Reasoning-Variante von Gemini, gibt es gratis in der Gemini-App. Die ist seit Juni 2024 in Deutschland verfügbar und kann mit einem kostenlosen Google-Account genutzt werden. Laut Alphabet ist diese Variante von Gemini Flash 2.0 vor allem für Problemstellungen in der Mathematik und der Programmierung optimiert. Auf Chatbot Arena erreicht das Modell den zweiten Platz, noch vor ChatGPT 4o oder Deepseek R1, auf Livebench schneidet es schlechter ab.
Wer Deep Research nutzen möchte, braucht Zugriff auf Gemini Advanced. Das gibt es nur mit einem Abo von Google One AI Premium, das derzeit 22 Euro pro Monat kostet. Damit erweitern Nutzer:innen ihren Google-Speicherplatz, können Gemini in Workspace-Anwendungen integrieren und neben einer experimentellen Variante von Gemini 2.0 Pro auch Gemini 1.5 Pro nutzen.
Das ist bislang das einzige Gemini-Modell, das Deep Research kann, mit seiner Veröffentlichung im Dezember 2024 war es allerdings auch das erste. Auf Livebench ist das Modell mittlerweile weit abgeschlagen. Es ist also fraglich, ob Geminis Deep-Research-Modus mit aktuelleren Angeboten von OpenAI oder Perplexity mithalten kann. Immerhin nutzt Alphabet gemäß seiner Datenschutzprinzipien weder Eingaben noch Antworten für das Training seiner Modelle.
Anthropic Claude: 3.7 Sonnet kombiniert Reasoning und normale Anfragen
Das einzige Modell, das o1 und o3-Mini von OpenAI im Livebench-Benchmark schlägt, ist Claude in seiner Thinking-Variante. Das Reasoning-Modell ist Teil des neuen Modells Claude 3.7 Sonnet, das auch einen normalen Fragemodus beinhaltet. Der ist für alle Nutzer:innen mit einem Claude-Account verfügbar. Wer die Thinking-Funktion nutzen will, muss ein Abo für mindestens 20 US-Dollar im Monat abschließen.
Im Thinking-Modus soll Claude laut offizieller Ankündigung bessere Leistung in „Mathematik, Physik, Befolgen von Anweisungen [und] Programmierung“ bieten. Zeitgleich sei das Modell weniger auf das Lösen von Problemen aus Mathematik- und Wissenschaftswettbewerben ausgelegt.
Eine Besonderheit von Claude 3.7 Sonnet Thinking ist die Option, dem Modell ein Limit für die Token-Nutzung für eine Antwort zu setzen. Wer also auf Präzision verzichtet, bekommt seine Antwort schneller und günstiger. Wie sinnvoll das gerade bei einem Reasoning-Modell ist, ist fraglich. Im Hinblick auf den ökologischen Fußabdruck von KI-Chatbots, der durch komplexere Reasoning-Anfragen nur steigen dürfte, ist das allerdings ein Pluspunkt.
Ein Blick auf die Nutzungsbedingungen zeigt, dass auch Anthropic verantwortungsvoll mit den Inputs und Outputs seiner Chatbots umgehen will. Die von Ex-OpenAI-Mitarbeiter:innen gegründete Firma trainiert ihre Modelle nicht an Daten von Nutzer:innen. Zumindest nicht direkt. Denn wie jeder KI-Chatbot nutzt Claude frei verfügbare Daten im Netz für das Training seiner Modelle.
Reasoning und Deep Research: Die Qual der Wahl
Soviel vorweg: Auch wenn Reasoning und Deep Research momentan zu den gehypten Entwicklungen im KI-Chatbot-Bereich gehören, sind auch die Ergebnisse dieser fortschrittlichen Modelle fehleranfällig. Eine händische Überprüfung ist weiterhin nötig. Gerade, aber nicht nur bei sensiblen Themen. Wer damit leben kann, dass auch diese Modelle nicht die eierlegende Wollmilchsau der generativen KI sind, hat die freie Wahl.
Je nachdem, in welche Ökosysteme man schon integriert ist, kann eine Nutzung der Angebote von OpenAI, Microsoft oder Alphabet interessanter sein. Weil die Leistung der Top-Modelle in Benchmarks nah beieinander liegt, ist es also eine persönliche Entscheidung, welches man nutzt.