Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Biologische Waffen per Prompt: OpenAI warnt vor Fähigkeiten neuer KI-Modelle

KI-Chatbots werden schon lange für kriminelle Zwecke genutzt. Die beschränken sich bis jetzt meist auf die digitale, sollen laut OpenAI aber bald auf die echte Welt übergreifen können – mit potenziell verheerenden Folgen.

1 Min.
Artikel merken
Anzeige
Anzeige
Der einfachere Nachbau von Biowaffen ist eines der Risiken von immer besser werdender KI. (Foto: Rotozey / Shutterstock)

Ein Szenario, in dem zeitnah jede:r mithilfe von ChatGPT Biowaffen nachbauen kann, steht laut OpenAI kurz bevor. Schon die direkten Nachfolger des OpenAI-Reasoning-Modells o3 könnten diese Schwelle überschreiten. Das bestätigt Johannes Heidecke, führender Sicherheitsforscher bei dem KI-Startup, am vergangenen Mittwoch gegenüber Axios.

Anzeige
Anzeige

Laut Heidecke seien das Problem dabei keine komplett neuen Biowaffen, sondern der sogenannte „novice uplift“. Große Sprachmodelle werden angeblich immer besser in naturwissenschaftlichen Disziplinen wie Biologie oder Chemie. Das ermöglicht nicht nur medizinische Durchbrüche. Auch kriminelle Akteur:innen ohne Vorwissen könnten sich damit entsprechende Anleitungen in leicht verständlicher Sprache erstellen. Deswegen müsse OpenAI die Überprüfung und Filterung entsprechender Prompts weiter verbessern. „Wir brauchen ein nahezu perfektes System“, so Heidecke.

KI-Warnungen kommen häufig von den Firmen selbst

In der Vergangenheit haben nicht nur unabhängige Kritiker:innen, sondern auch die KI-Firmen selbst auf die potenziellen Gefahren des unregulierten Einsatzes von KI-Chatbots hingewiesen. Anthropic prognostiziert beispielsweise im März, dass seine Modelle bald beim Bau von Atom-, Bio- und chemischen Waffen (ABC-Waffen) helfen könnten. Im Mai führt das Startup zusammen mit Claude 4 neue Sicherheitsmechanismen zur Prävention ein.

Anzeige
Anzeige

Diese Warnungen seitens der KI-Firmen bewegen sich im Fahrwasser einer der beiden großen Strömungen im KI-Diskurs, des KI-Doomerism. Während Techno-Optimist:innen, Akzelerationist:innen oder Boomer an eine Zukunft glauben, in der künstliche Intelligenz etwa Krankheiten ausmerzt, wissenschaftlichen Fortschritt beschleunigt und Wohlstand für alle bringt, sehen Dezelerationist:innen oder Doomer die Entwicklung von KI skeptisch bis negativ. Das reicht von der Sorge über mangelnde Regulierung bis zur Furcht davor, dass eine übermächtige KI die Menschheit auslöschen wird.

Kritiker:innen wie die Computerlinguistin und Erfinderin des Begriffs „Stochastischer Papagei“ Emily Bender sehen in Doomerism und Boomerism zwei Seiten derselben Medaille. Gegenüber Business Insider erklärt die Wissenschaftlerin, dass beide Seiten KI als „Superkraft“ verstehen und das über die tatsächlichen Fähigkeiten der Technologie hinausgehe.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren