Anthropic: Warum ein neues Coding-Tool Systeme reihenweise zum Stillstand bringt

Mit Claude 3.7 Sonnet und dem neuen Tool Claude Code wollte das KI-Startup Anthropic eigentlich mehr Produktivität für Entwickler:innen schaffen. Doch anstatt ihnen ein effizienteres Arbeiten zu ermöglichen, sorgt das Modell mit seinen angeblich fortschrittlichen Reasoning-Funktionen schon jetzt für erhebliche Probleme: Wie Techcrunch berichtet, führte eine fehlerhafte Auto-Update-Funktion von Claude Code sogar dazu, dass einige Systeme komplett zum Stillstand kamen.
Claude Code: Programmierhilfe mit Hindernissen
Anthropic hat Claude 3.7 Sonnet als erstes hybrides KI-Modell vorgestellt, das sowohl schnelle Antworten als auch detaillierte und tiefgreifende Analysen liefern kann. Eine zentrale Neuerung ist Claude Code, ein Coding-Tool, das direkt aus dem Eingabefeld heraus verwendet wird und Entwickler:innen dabei unterstützen soll, Projektstrukturen zu analysieren, Codes zu verändern und sogar Fehler automatisch zu beheben. Anthropic versprach damit eine deutliche Erleichterung für Entwickler:innen, die sich nicht länger mit komplexen KI-Tools auseinandersetzen, sondern direkt im Terminal arbeiten möchten.
Trotz der ambitionierten Ziele verlief der Start von Claude Code alles andere als reibungslos. Schon kurz nach dem Launch des neuen Tools tauchten auf Github erste Berichte über schwerwiegende Probleme auf. Eine fehlerhafte Auto-Update-Funktion führte dazu, dass Claude Code kritische Systemdateien veränderte und dadurch einige Rechner unbrauchbar machte. Besonders problematisch war das für Nutzer:innen, die Claude Code mit Root- oder Superuser-Rechten installiert hatten. Dadurch konnte das Tool tiefgreifende Änderungen an geschützten Verzeichnissen vornehmen, was im schlimmsten Fall dazu führte, dass die Systeme „gebrickt“ wurden – also überhaupt nicht mehr funktionierten.
Anthropic reagiert mit Hotfix – und macht neue Fehler
Die Beschwerden im Netz häufen sich: Ein betroffener Github-Nutzer berichtete beispielsweise, dass er den Rescue-Modus starten musste, um die durch Claude Code veränderten Dateiberechtigungen wiederherzustellen. Andere meldeten wiederum, dass sie nach der Installation nicht mehr auf kritische Verzeichnisse zugreifen konnten.
Anthropic bestätigte die Probleme gegenüber Techcrunch und erklärte, dass die fehlerhaften Befehle aus dem Code entfernt worden seien. Gleichzeitig wurde ein Link zu einer Anleitung zur Fehlerbehebung in das Programm eingefügt. Aber auch hier unterlief dem Unternehmen ein Patzer: Der Link enthielt zunächst einen Tippfehler, sodass Nutzer:innen nicht direkt auf die Hilfeseite zugreifen konnten. Laut Anthropic ist dieses Problem inzwischen ebenfalls behoben.
Ist das das schnelle Ende von Claude Code?
Eigentlich wollte Anthropic mit Claude 3.7 Sonnet eine neue Generation von KI-Modellen vorstellen. Es sollte als KI-Agent komplexe Aufgaben wie das Lösen komplexer Codierungsprobleme bewältigen. Das Modell sollte nicht nur einfache Fragen beantworten, sondern durch eine verbesserte Reasoning-Funktion auch länger „nachdenken“, um den Nutzer:innen fundierte Ergebnisse zu liefern. Insbesondere für Programmieraufgaben wirbt Anthropic mit vielversprechenden Zahlen – aber die theoretische Leistungsfähigkeit nützt wenig, wenn Claude Code in der Praxis komplette Systeme zum Absturz bringt.
Der holprige Start ist ein deutlicher Hinweis darauf, dass gerade KI-gestützte Coding-Tools besonderer Sorgfalt bedürfen. Es bleibt fraglich, ob sich das neue Claude Code von Anthropic langfristig als zuverlässige Unterstützung für Entwickler:innen etablieren kann. Die fehlerhafte Auto-Update-Funktion hat jedenfalls schon jetzt das Vertrauen in das Tool nachhaltig beschädigt.
Googles neue KI-Suche geht nach hinten los