Anzeige
Anzeige
Ratgeber
Verpasse keine News mehr!

ChatGPT, Claude & Co: Wer bietet die besten Gratis-Features?

Zugang zu fortschrittlichen Chatbots haben sich Microsoft oder OpenAI bis jetzt teils fürstlich bezahlen lassen. Jetzt senken sie die Bezahlschranken – mit Einschränkungen. Wir haben die Fakten zusammengestellt.

5 Min.
Artikel merken
Anzeige
Anzeige

Der Machtkampf großer KI-Chatbots dehnt sich jetzt auch auf Reasoning und Deep Research aus. (Foto: Shutterstock / Tada Images)

Der Markt für KI-Chatbots und -Assistenten ist nach der Veröffentlichung von ChatGPT im November 2022 rasant gewachsen. Neben Angeboten etablierter Tech-Firmen wie Microsoft, Alphabet, Apple und Amazon gibt es zahlreiche Startups mit eigenen Tools und Open-Source-Lösungen.

Anzeige
Anzeige

Trotzdem werden die gängigen KI-Benchmarks, abgesehen von Ausreißern wie Deepseek, von den Sprachmodellen der großen Firmen dominiert. Besonders Reasoning-Modelle, bei denen Prompts in ihre Einzelteile zerlegt, überprüft und Stück für Stück abgearbeitet werden, damit der Kontext nicht verloren geht, landen vermehrt auf den vorderen Rängen.

Diese optimierten Modelle wurden zuletzt um sogenannte Deep-Research-Modi ergänzt. Die sollen auf der Basis von Reasoning, Netzanbindung und fortschrittlicher Analyse am Ende zu hieb- und stichfesten, mit Quellen belegten Reports führen. In der Praxis funktioniert das nicht immer, wie unser Test von Perplexitys Deep-Research-Funktion zeigt.

Anzeige
Anzeige

Vor allem: Diese erweiterten Modi waren gerade bei den Marktführern häufig hinter einer Paywall versteckt oder in ihrer Nutzung stark eingeschränkt. Kostenlose Angebote wie das schon erwähnte Perplexity Deep Research oder das chinesische Reasoning-Modell Deepseek R1 haben die großen US-Tech-Firmen in Zugzwang gebracht. Das Resultat: Innerhalb von einer Woche haben nahezu alle wichtigen Anbieter von KI-Chatbots diese Modelle deutlich vergünstigt oder bieten sie gratis an. Wir haben die Details zu ChatGPT, Claude, Copilot und Gemini für euch zusammengestellt.

Microsoft Copilot: Reasoning mit Think Deeper jetzt gratis

Ende Februar kündigte Microsoft an, sämtliche Einschränkungen für seine Reasoning-Option Copilot Think Deeper aufzuheben. Think Deeper war schon im Januar 2025 als zusätzliche Option für Copilot-Nutzer:innen gestartet, konnte aber nur eingeschränkt genutzt werden. Aus dem Statement eines Microsoft-Sprechers an PC World wurde nicht klar, wie viele Anfragen man in welchem Zeitraum stellen konnte.

Anzeige
Anzeige

Das ist aber jetzt ohnehin irrelevant, denn sämtliche Limitierungen sind mittlerweile aufgehoben. Das Besondere: Think Deeper ist kein eigenes Produkt, sondern nutzt OpenAIs o1-Modell für Reasoning-Anfragen. Da für die Nutzung nur ein kostenloser Microsoft-Account notwendig ist, lässt sich so die Abo-Schranke von ChatGPT umgehen. Unklar ist, welche Variante von o1 genutzt wird. Das dürfte aber nur besonders akribische Expert:innen interessieren. Denn alle Formen von o1 schneiden bei Benchmarks wie Chatbot Arena und Livebench, die unterschiedliche Modellvarianten vergleichen, ähnlich gut ab.

Wer sichergehen möchte, dass Inputs und Outputs nicht für das Training von Sprachmodellen genutzt werden, soll bei Copilot auf der sicheren Seite sein. Daran ändert auch die Integration in Word, Excel und Konsorten nichts, wie ein Sprecher im November 2024 gegenüber PC Mag bestätigt. Microsoft nutzt die übertragenen Daten, wie eigentlich alle Anbieter, allerdings zur Verbesserung seiner Produkte und Dienstleistungen – wie auch immer das im Fall von Eingaben in KI-Tools aussieht. Immerhin verarbeitet Microsoft diese gemäß der EU-Datengrenzen in Datenzentren innerhalb Europas.

Anzeige
Anzeige

Eine Ausnahme im Microsoft-Kosmos bildet Linkedin. Hier wurden laut PC Mag, zumindest bis Ende 2024 und in den USA, Nutzer:innendaten standardmäßig zum Training von generativer KI genutzt. In den Privatsphäreeinstellungen lässt sich dagegen Widerspruch einlegen, gute Geschäftspraktik ist das dennoch nicht.

OpenAI ChatGPT: Deep Research wird günstiger

Wer schon für ChatGPT zahlt, kann seit dem 26. Februar die ursprünglich nur für Pro-Abonnent:innen verfügbare Deep-Research-Funktion des KI-Chatbots nutzen. Diese basiert laut Aussagen des OpenAI-Forschers Noam Brown auf X auf der kompletten Version des o3-Modells, von dem bislang nur die Mini-Variante nutzbar ist.

Damit vergünstigt OpenAI den Zugriff auf diese neue Chatbot-Funktion, aber einige Einschränkungen bleiben. So können Plus-, Team-, Enterprise- und Edu-Accounts für 20 US-Dollar pro Monat maximal zehn Deep-Research-Anfragen stellen. Pro-User:innen, die seit Anfang Februar Zugriff auf Deep Research haben, können 120 Anfragen pro Monat stellen, müssen dafür aber auch 200 US-Dollar zahlen.

Anzeige
Anzeige

Wem Datenschutz wichtig ist, der sollte um ChatGPT allerdings einen Bogen machen. Wie Microsoft nutzt OpenAI Nutzer:innendaten zur Verbesserung seiner Produkte. In den Nutzungsbedingungen wird allerdings auch explizit erwähnt, dass man der Einspeisung seiner Inputs und Outputs in die Trainingsdaten zukünftiger Modelle aktiv widersprechen muss und dass manche Funktionen dadurch beeinflusst werden könnten.

Trotz guter Ergebnisse in zahlreichen Benchmarks weist OpenAI außerdem selbst darauf hin, dass Deep Research nicht zwischen „guten“ und „schlechten“ Quellen unterscheidet und Falschinformationen ausgeben kann. Nutzer:innen sollten also auch hier Ergebnisse nicht unüberprüft übernehmen.

Google Gemini: Zwei Modelle für Deep Research und Reasoning

Google Gemini, das Chatbot-Angebot von Alphabet, kombiniert für seine fortschrittlichen Tools zwei Geschäftsmodelle. Gemini Flash 2.0 Thinking Experimental, die Reasoning-Variante von Gemini, gibt es gratis in der Gemini-App. Die ist seit Juni 2024 in Deutschland verfügbar und kann mit einem kostenlosen Google-Account genutzt werden. Laut Alphabet ist diese Variante von Gemini Flash 2.0 vor allem für Problemstellungen in der Mathematik und der Programmierung optimiert. Auf Chatbot Arena erreicht das Modell den zweiten Platz, noch vor ChatGPT 4o oder Deepseek R1, auf Livebench schneidet es schlechter ab.

Anzeige
Anzeige

Wer Deep Research nutzen möchte, braucht Zugriff auf Gemini Advanced. Das gibt es nur mit einem Abo von Google One AI Premium, das derzeit 22 Euro pro Monat kostet. Damit erweitern Nutzer:innen ihren Google-Speicherplatz, können Gemini in Workspace-Anwendungen integrieren und neben einer experimentellen Variante von Gemini 2.0 Pro auch Gemini 1.5 Pro nutzen.

Das ist bislang das einzige Gemini-Modell, das Deep Research kann, mit seiner Veröffentlichung im Dezember 2024 war es allerdings auch das erste. Auf Livebench ist das Modell mittlerweile weit abgeschlagen. Es ist also fraglich, ob Geminis Deep-Research-Modus mit aktuelleren Angeboten von OpenAI oder Perplexity mithalten kann. Immerhin nutzt Alphabet gemäß seiner Datenschutzprinzipien weder Eingaben noch Antworten für das Training seiner Modelle.

Anthropic Claude: 3.7 Sonnet kombiniert Reasoning und normale Anfragen

Das einzige Modell, das o1 und o3-Mini von OpenAI im Livebench-Benchmark schlägt, ist Claude in seiner Thinking-Variante. Das Reasoning-Modell ist Teil des neuen Modells Claude 3.7 Sonnet, das auch einen normalen Fragemodus beinhaltet. Der ist für alle Nutzer:innen mit einem Claude-Account verfügbar. Wer die Thinking-Funktion nutzen will, muss ein Abo für mindestens 20 US-Dollar im Monat abschließen.

Anzeige
Anzeige

Im Thinking-Modus soll Claude laut offizieller Ankündigung bessere Leistung in „Mathematik, Physik, Befolgen von Anweisungen [und] Programmierung“ bieten. Zeitgleich sei das Modell weniger auf das Lösen von Problemen aus Mathematik- und Wissenschaftswettbewerben ausgelegt.

Eine Besonderheit von Claude 3.7 Sonnet Thinking ist die Option, dem Modell ein Limit für die Token-Nutzung für eine Antwort zu setzen. Wer also auf Präzision verzichtet, bekommt seine Antwort schneller und günstiger. Wie sinnvoll das gerade bei einem Reasoning-Modell ist, ist fraglich. Im Hinblick auf den ökologischen Fußabdruck von KI-Chatbots, der durch komplexere Reasoning-Anfragen nur steigen dürfte, ist das allerdings ein Pluspunkt.

Ein Blick auf die Nutzungsbedingungen zeigt, dass auch Anthropic verantwortungsvoll mit den Inputs und Outputs seiner Chatbots umgehen will. Die von Ex-OpenAI-Mitarbeiter:innen gegründete Firma trainiert ihre Modelle nicht an Daten von Nutzer:innen. Zumindest nicht direkt. Denn wie jeder KI-Chatbot nutzt Claude frei verfügbare Daten im Netz für das Training seiner Modelle.

Anzeige
Anzeige

Reasoning und Deep Research: Die Qual der Wahl

Soviel vorweg: Auch wenn Reasoning und Deep Research momentan zu den gehypten Entwicklungen im KI-Chatbot-Bereich gehören, sind auch die Ergebnisse dieser fortschrittlichen Modelle fehleranfällig. Eine händische Überprüfung ist weiterhin nötig. Gerade, aber nicht nur bei sensiblen Themen. Wer damit leben kann, dass auch diese Modelle nicht die eierlegende Wollmilchsau der generativen KI sind, hat die freie Wahl.

Je nachdem, in welche Ökosysteme man schon integriert ist, kann eine Nutzung der Angebote von OpenAI, Microsoft oder Alphabet interessanter sein. Weil die Leistung der Top-Modelle in Benchmarks nah beieinander liegt, ist es also eine persönliche Entscheidung, welches man nutzt.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige