Sam Altman, seines Zeichens CEO von OpenAI, tourte über den europäischen Kontinent und traf sich unter anderem in London mit Technologieunternehmen, Entscheidungsträgern und politischen Vertretern, um über die KI-Modelle seines Unternehmens zu sprechen. Dabei setzte er sich insbesondere für das auf großen Sprachmodellen basierende ChatGPT ein und forderte KI-freundliche Regulierungsrichtlinien.
Während einer Podiumsdiskussion am University College London äußerte Altman laut Gizmodo Unzufriedenheit darüber, wie das europäische Gremium „Systeme mit hohem Risiko“ definiert, und erklärte, dass OpenAI zwar versuchen werde, die EU-Vorschriften einzuhalten, er aber über die aktuellen Definitionen enttäuscht sei.
Regulierung vorgesehen
Das KI-Gesetz der EU, das im Jahr 2021 vorgeschlagen wurde, sieht eine Einteilung von KI in drei Risikokategorien vor. KI-Systeme wie ChatGPT und das geplante große Sprachmodell GPT-4 könnten unter Umständen als „Hochrisiko-KI-Systeme“ betrachtet werden. Das würde bedeuten, dass für sie bestimmte Anforderungen und Standards gelten würden.
Altman erklärte in einem Interview, dass OpenAI zwar versuchen werde, die Vorschriften einzuhalten, es aber technische Grenzen gebe, die möglicherweise eine Umsetzung unmöglich machen würden. Falls die Vorschriften nicht eingehalten werden können, „werden wir den Betrieb einstellen“, so der CEO.
Gesetz soll Risiko eindämmen
Die EU hat das KI-Gesetz entwickelt, um potenziell riskante Anwendungen wie das chinesische Sozialkreditsystem und Gesichtserkennungstechnologien zu regulieren. Die neuen Bestimmungen fordern Sicherheitsüberprüfungen und Risikomanagement für Grundmodelle wie die von OpenAI entwickelten KI-Chatbots. Der Europäische Datenschutzausschuss überwacht bereits ChatGPT, um sicherzustellen, dass es den Datenschutzgesetzen entspricht.
Altman betonte, dass er keine Regulierung wolle, die den Zugang der Benutzer zur Technologie einschränke. Er sagte seinem Londoner Publikum, er wolle nichts, was kleineren Unternehmen oder der Open-Source-KI-Bewegung schaden könnte.