Anthropic AI, Entwickler der künstlichen Intelligenz Claude, hat eine neue und verbesserte Version namens Claude 2 vorgestellt. Die KI soll schneller reagieren und längere Antworten liefern als das erste veröffentlichte Modell. Außerdem verfügt sie nun über eine eigene ChatGPT-ähnliche Schnittstelle, die für jeden zugänglich ist.
Mit Claude 2 versucht das Unternehmen, im Vergleich zu allen anderen KI-Integrationen für Unternehmen besonders freundlich, korrekt und rücksichtsvoll zu sein. Die Entwickler geben an, dass die KI darauf trainiert wurde, möglichst harmlose Antworten zu geben. Wird Claude 2 eine Frage gestellt, die in eine beleidigende und diskriminierende Richtung gehen könnte, antwortet der Chatbot lediglich damit, dass er für hilfreiche Gespräche konzipiert worden sei.
KI stellt sich oft quer
Claude 2 ist sehr darauf bedacht, keine Fehlinformationen zu vermitteln. Der Bot weigert sich dagegen, Gedichte zu schreiben oder Zeitungsartikel zu verfassen, und selbst bei der Bitte nach einer chronologischen Liste aller Star-Trek-Filme liefert Claude 2 nicht einfach eine Liste, sondern beschwert sich über mangelnden Kontext.
Anthropic sagte, es habe Claude getestet, indem es ihm 328 „schädliche“ Eingabeaufforderungen zugeführt habe, darunter einige gängige Jailbreaks, die online gefunden wurden, um zu versuchen, die KI dazu zu bringen, ihre eigenen Einschränkungen zu überwinden. In vier dieser über 300 Fälle gab Claude 2 eine Antwort, die die Entwickler als schädlich erachteten.
Während das Modell im Großen und Ganzen weniger voreingenommen war als Claude 1.3, erwähnten die Entwickler, dass das Modell möglicherweise genauer als zuvor ist, da Claude 2 sich einfach weigert, bestimmte Eingabeaufforderungen zu beantworten.
Woher Claude 2 seine Informationen nimmt, ist nicht wirklich bekannt. Im Whitepaper des Unternehmens zu seinem neuen Modell heißt es, dass die Trainingsdaten des Chatbots jetzt Aktualisierungen von Websites aus den Jahren 2022 und Anfang 2023 umfassen. Bei den Trainingsgeräten, mit denen Claude trainiert wurde, handelte es sich dem Paper zufolge um Lizenzen eines Drittunternehmens.