Anzeige
Anzeige
Interview
Artikel merken

KI in der Politik: „Die Bevölkerung muss verstehen, wie ein KI-Modell funktioniert“

„KI braucht menschliche Vernunft“, sagt Sebastian Bluhm, Mitglied im KI-Bundesverband und CEO von Plan D, im Interview mit t3n. Ihm zufolge stehen wir erst am Anfang der KI-Revolution.

Von Insa Schniedermeier
12 Min. Lesezeit
Anzeige
Anzeige
Um mit ihr verantwortungsvoll umzugehen, müsse die Bevölkerung verstehen, wie ein KI-Modell funktioniert, sagt Sebastian Bluhm, CEO von Plan D. (Foto: Plan D)

Fake News, Desinformationskampagnen oder auch automatisierte Kommentare sind im letzten Jahrzehnt zu gängigen Instrumenten geworden, um Wahlen zu entscheiden. Nichts Neues, aber durch den Einsatz von ChatGPT und anderen Systemen, die auf künstlicher Intelligenz (KI) beruhen, ein immer größer werdendes Problem für demokratische Wahlen.

Anzeige
Anzeige

Die Demokratie macht das Volk zum Souverän: Der Volkswille bestimmt das politische Handeln. Wie gehen wir aber damit um, wenn der Wille des Volkes auf Falschinformationen beruht?

Herr Bluhm, wie wird KI die Politik beeinflussen?

Wie wird KI bereits jetzt schon verwendet, um demokratische Prozesse zu beeinflussen – und was könnte hier noch auf uns zukommen? Darüber haben wir mit Sebastian Bluhm, Mitglied im KI-Bundesverband und CEO der Technologieberatung Plan D, gesprochen.

Anzeige
Anzeige

t3n: Der Launch von ChatGPT führt uns derzeit vor Augen, dass die Integration von KI in unseren Alltag keine Zukunftsutopie (oder -dystopie) mehr ist, sondern Realität. Wie haben Sie den Launch von ChatGPT erlebt?

Sebastian Bluhm: Der Einsatz von künstlicher Intelligenz ist schon seit einigen Jahren in unserem Alltag angekommen und zur täglichen Realität geworden. In einigen Bereichen ist KI sichtbarer als in anderen. ChatGPT ist ein schönes Beispiel dafür.

Anzeige
Anzeige

Viele Menschen sind beeindruckt und gefesselt von der Technologie – als hätten sie das erste Mal einen Zaubertrick gesehen: Die zukünftige Relevanz von KI, aber auch die potenziellen positiven und negativen Auswirkungen auf die Gesellschaft sind plötzlich für jede:n sichtbar. Wenn jedoch KI in einem Unternehmen zur Optimierung und Automatisierung von internen Prozessen eingesetzt wird, kann man dies von außen kaum feststellen.

Arbeitet man in der Tech-Branche und beschäftigt sich regelmäßig mit KI, ist ChatGPT zwar immer noch imposant, aber auch nur der nächste logische Schritt, von denen noch viele weitere kommen werden. Daher finde ich den Launch spannend, aber noch spannender, welche Debatten er auslöst und wie die breite Masse sich damit auseinandersetzt.

Anzeige
Anzeige

t3n: Welche sind in Ihrem Umkreis die Themen, die im Zusammenhang mit ChatGPT und KI aktuell am brennendsten diskutiert werden?

Bluhm: Natürlich machen wir im Büro auch unsere Scherze mit ChatGPT: Wir lassen Rap-Songs schreiben, uns Codezeilen vorschlagen und Antworten für Alltagsfragen ausgeben. So zum Beispiel beim letzten Lunch mit dem Team: Wie bereitet man nun eigentlich den besten Apple-Crumble zu?

Letztendlich ist ChatGPT jedoch eine künstliche Intelligenz, welche mit einem großen Datenabzug des Internets aus dem Jahre 2021 trainiert wurde. Es hat die gleichen potenziellen Schwächen, wie andere KI-Modelle, mit denen wir uns beschäftigen.

Anzeige
Anzeige

Dazu gehören:

  1. Fehlerhafte Trainingsdaten: Diese können dazu führen, dass Falschinformationen verbreitet werden.
  2. Transparenz: Für die Nutzer:innen ist nicht klar, auf Basis welcher Daten Aussagen getroffen werden. Es gibt keine umfassenden Quellenangaben, um die Antworten nachvollziehen zu können.
  3. Drift in Trainingsdaten: Das Modell nutzt veraltete Informationen und bezieht keine aktuellen Geschehnisse mit ein. Beispielsweise gibt ChatGPT keine Antworten zum Thema Zeitenwende und Energiekrise.
  4. Bias in KI: Eine KI lernt nur das, was sie in den Trainingsdaten findet. Somit ist sie lediglich ein „Echo des Internets“ mit allen Nachteilen wie beispielsweiser potenzieller Diskriminierung, Streuung von Vorurteilen und Sexismus.
  5. Datenschutz: Sowohl beim Training der KI als auch als Nutzer:in selbst ist es nicht erlaubt, personenbezogene Daten zu verwenden beziehungsweise einzugeben.
  6. Urheberrecht: Beim Training der KI sowie bei Ausgaben von ChatGTP muss das Urheberrecht gewahrt werden.

Ob bei ChatGPT oder im Allgemeinen: KI-Anwendungen bringen natürliche Risiken mit sich, die mitigiert werden müssen. Dennoch: Textbasierte KI-Systeme können eine Chance für Unternehmen sein. Dabei wird ChatGPT nicht zwangsläufig eine Rolle spielen.

Beispielsweise entwickeln wir zurzeit einen NLP-Chatbot für einen deutschen Hersteller von Profi-Küchengeräten. Dieser lernt aus Tausenden von Rezepten der Kund:innen, den Bedienungsanleitungen der Geräte, unternehmensinternen Wikis, aus vielen Jahren von Support-E-Mails und Mitschnitten von Telefonaten. Diese Daten kennt ChatGPT natürlich nicht und wird sie auch nie kennen, da sie besonders schützenswert für unsere Kunden sind. Das Ergebnis ist ein neuer digitaler Kollege mit dem Fachwissen der gesamten Organisation.

Anzeige
Anzeige

t3n: Sie sind nicht nur der CEO von Plan D, sondern auch Mitglied im KI-Bundesverband. Können Sie uns einen Blick hinter die Kulissen geben und verraten, wie KI bisher bereits im politischen Kontext eingesetzt wurde?

Bluhm: Der KI Bundesverband setzt sich für ein aktives, erfolgreiches und nachhaltiges KI-Ökosystem in Deutschland und Europa ein und vertritt die Interessen seiner Mitglieder gegenüber Politik, Wirtschaft und Medien – zum Beispiel in Form von Positionspapieren. Gleichzeitig engagiert sich der Verband für die Initiative Large European AI Models, kurz LEAM. Mit einer KI-Supercomputing-Infrastruktur sollen Konkurrenten zu beispielsweise ChatGPT entwickelt werden.

Praktische Anwendung findet ChatGPT eher langsam in der deutschen Politik. Für Aufregung hat die von ChatGPT geschriebene Rede eines FDP-Politikers in der Bezirksverordnetenversammlung Marzahn-Hellersdorf sowie die von ChatGPT generierte „Kleine Anfrage“ der Brandenburger SPD gesorgt. Jedoch waren dies wohl mehr Anlässe zum Diskurs als ein Vorschlag für ein dauerhaftes Vorgehen. Schließlich wählen wir Politiker:innen für ihre Expertise, Werte und Meinung und nicht ihren geschickten KI-Einsatz.

Anzeige
Anzeige

t3n: Was ändert sich jetzt und in Zukunft durch ChatGPT und ähnliche KI-Anwendungen?

Bluhm: Generell hat Natural Language Processing, kurz NLP, großes Potenzial im politischen Kontext. Ein großer Teil der Arbeit besteht aus Recherche, Analyse sowie Einordnung von vielen Texten und Informationen. Das könnte mit Technologien wie ChatGPT beschleunigt werden, indem längere Texte automatisch zusammengefasst werden können oder eine KI sogar Einschätzungen zur Tonalität gibt.

Antworten und Ergebnisse sollten jedoch nicht als unfehlbar betrachtet werden. Auch wenn ChatGPT selbst sagt, es sei ein neutrales, unpolitisches Sprachmodell, das nicht dazu programmiert sei, rassistische oder diskriminierende Aussagen zu machen, ist gerade in der Politik der Anspruch an die Qualität und insbesondere die Aktualität der Analysen hoch.

Anzeige
Anzeige

Es bleibt somit nicht nur eine technische und rechtliche Frage, inwiefern ChatGPT die Politik beeinflussen wird, sondern am Ende des Tages auch eine moralische.

t3n: Wie kann die Bevölkerung künftig noch nachvollziehen, welchen Informationen sie glauben kann?

Bluhm: Die Antwort ist simpel. Für das Rezept des erwähnten Apple-Crumble kann man einer KI sehr gut vertrauen. Für die politische Meinungsbildung wiederum würde ich davor warnen. Denn wie bereits erwähnt basieren die Ergebnisse bei allen KI-Modellen auf den Trainingsdaten. Sind diese verzerrt, sind es auch die Ergebnisse. Es ist also die Qualität, die „Wahrhaftigkeit“ der Daten, die eigentlich überprüft werden müsste.

Anzeige
Anzeige

Damit die Bevölkerung nachvollziehen kann, welche Informationen der Wahrheit entsprechen, bedarf es vor allem Medien- und Technologiekompetenz. Es gilt, Informationen durch Primär- und Sekundärquellen zu überprüfen. Unterschiedliche Quellen heranzuziehen, sich nie nur auf eine zu verlassen, und selbst mitzudenken.

Das Problem, Informationen aus dem Internet auf ihre Richtigkeit zu überprüfen, ist jedoch nicht neu und auch leider oft vergessen. Eine Studie der Stiftung Neue Verantwortung ergab 2021, dass es den Befragten zum Teil schwerfällt, zwischen verschiedenen Kommunikationsabsichten, wie Werbung, Information, Desinformation und Meinung, zu unterscheiden.

So hielten 56 Prozent der Befragten ein Advertorial – trotz Werbekennzeichnung – fälschlicherweise für eine Information. Nur 23 Prozent erkannten, dass es sich um Werbung handelt. Auch eine Falschinformation auf Facebook bereitete den Befragten Probleme: Sie wurde von lediglich 43 Prozent der Befragten erkannt, während 33 Prozent auch hierin fälschlicherweise eine korrekte Information sahen.

Es gilt, mehr denn je zuvor, kritisch zu Denken und Informationen in den Kontext zu stellen, sich über Verfasser:in und/oder Herausgeber:in zu informieren.

Letzten Endes sollten wir immer unseren menschlichen Verstand einsetzen – dabei kann uns KI aber unterstützen. ChatGPT sagt selbst: „Es ist daher wichtig, immer kritisch zu sein und die von mir bereitgestellten Informationen zu überprüfen, um sicherzustellen, dass sie zuverlässig und angemessen sind.“

t3n: Wie kann die Bevölkerung eine bessere Medien- und KI-Kompetenz entwickeln?

Bluhm: Das Problem der fehlenden Kompetenz im Umgang mit KI wird durch das Interface von ChatGPT sogar noch verschärft. Statt mehreren Tausend unterschiedlichen Suchergebnissen wie bei Google bekommt der Nutzer nur genau eine, mit Überzeugung ausgegebene Antwort – auch wenn sie absolut falsch ist oder eine differenzierte Betrachtung der Frage nötig wäre.

Dies mag für den Nutzer auf den ersten Blick sehr komfortabel sein und suggeriert eine gewisse Überlegenheit der Maschine. Sie führt innerhalb von Sekundenbruchteilen riesige Datenmengen zusammen, verarbeitet und analysiert sie und gibt wie aus dem Nichts ein ausformuliertes Ergebnis aus. Da fällt es leicht, dies nicht weiter zu hinterfragen. Würde ChatGTP wie ein Mensch perfekt sprechen können, wäre der Effekt wohl noch größer.

Die Bevölkerung muss verstehen, wie ein KI-Modell funktioniert. Dabei ist es nicht wichtig, die konkreten technischen Zusammenhänge nachvollziehen zu können. Es ist vielmehr die Tatsache, dass ChatGPT eben auch nur aus zur Verfügung stehenden Informationen lernt und auch Fehler machen kann – fast wie ein Mensch. Meiner Meinung nach sollten Grundkenntnisse über KI bereits in der Schule vermittelt werden.

Die Bevölkerung muss verstehen, wie ein KI-Modell funktioniert. – Sebastian Bluhm

Das World Economic Forum hat schon 2016 analysiert, dass 65 Prozent aller heutigen Grundschulkinder später in Jobs arbeiten werden, die wir heute noch gar nicht kennen. Darauf muss schneller reagiert werden, als es unser Bildungssystem zulässt. In Estland funktioniert das beispielsweise schon sehr gut: Überall gibt es kostenloses Internet, Erstklässler haben Zugang zu persönlicher Hardware und Programmieren ist ein Pflichtfach. Zudem ist digitale Bildung Teil der Lehrkräfteausbildung.

Die Technologie entwickelt sich rasant, daher ist lebenslanges Lernen wichtig. Die Schule sollte der Start dieser Lernreise sein. Es ist aber zu einfach, zu sagen, die Schule sei allein für den Kompetenzerwerb verantwortlich. Jede:r Einzelne muss verstehen, dass regelmäßige Weiter- und Fortbildung dringend nötig ist. Nicht zuletzt auch, weil Jobprofile sich schneller verändern werden.

Das können wir auch in unserem beruflichen Alltag beobachten: Wir sind überzeugt davon, dass es nicht nachhaltig ist, KI-Anwendungen lediglich an Unternehmen zu verkaufen, wenn sie diese nicht verstehen oder bedienen können. Daher ist es ein integraler Bestandteil unserer Beratung, Mitarbeitende des Unternehmens im Umgang mit Daten und KI zu schulen und Wissen weiterzugeben.

t3n: Wie kann man KI so trainieren oder reglementieren, dass sie human und wertfrei Informationen so aufbereitet, dass sie dem Wohle der gesamten Menschheit dienen?

Bluhm: Dies ist eher eine philosophische Problemstellung als eine technische. Prinzipiell kann eine KI-Anwendung darauf trainiert werden, neutral und objektiv zu sein, indem ihre Trainingsdaten diesen Vorgaben entsprechen. Das heißt konkret: Antworten auf Anfragen basieren auf den Daten und Informationen, die der KI zur Verfügung gestellt werden. Wenn diese Informationen fehlerhaft oder voreingenommen sind, beeinträchtigt das auch die Antworten.

Es ist also ein Widerspruch und gleichzeitig wohl unmöglich, dass eine KI wertfrei sein soll, da auch die Trainingsdaten einer Kultur und einem damit verbundenen Wertesystem entstammen. Beispiel: Eine KI aus dem westlichen Kulturkreis würde andere Werte verkörpern als eine chinesische KI.

t3n: Eine KI ist nur so gut, wie die Daten, aus denen sie sich speist. Wie kann man es jetzt und in Zukunft schaffen, den Spagat zwischen Datenschutz und einem freien, umfangreichen Zugriff auf Daten zu gewährleisten?

Bluhm: Den Schutz und die umfangreiche Nutzung von Daten zu kombinieren, ist nicht immer einfach, aber sie müssen auch nicht im Widerspruch stehen.

Natürlich erhöht sich der Aufwand durch die Umsetzung aller datenschutzrelevanten Maßnahmen und Abstimmungen, aber dies bringt ja auch positive Aspekte mit sich und ist durchaus sinnvoll. Schließlich tragen wir als Entwickler:innen von KI-Systemen auch eine Verantwortung gegenüber den Nutzer:innen.

Der Spagat zwischen Schutz und Nutzung gelingt mit einer ganzen Reihe an Maßnahmen. Wir integrieren beispielsweise die Datenschutzbeauftragten unserer Kund:innen schon zu Anfang als Teammitglieder in die gemeinsamen Projekte.

Besonders sicher gehen wir mit sensiblen Daten um. Wir anonymisieren beispielsweise die personenbezogenen Daten unserer Kund:innen und lassen somit keinerlei Rückschlüsse auf Einzelpersonen zu. Die Datenmenge wird auf das Maß reduziert, das wir wirklich für ein erfolgreiches KI-Training benötigen. Um auch in der Cloud den regulatorischen Anforderungen für Daten- und IT-Sicherheit zu entsprechen, schaffen wir die technischen Rahmenbedingungen. Zugegebenermaßen ist die Rechtslage nicht immer zu 100 Prozent klar und bringt teilweise Hürden mit sich.

Als eine sehr große Herausforderung sehe ich allerdings die datenschutzkonforme Umsetzung großer Sprachmodelle, die sich aus einen Großteil des Internets für ihr Training bedienen und somit weniger Kontrolle über die Qualität und Herkunft der Daten haben.

t3n: Was ist mit dem Data Act?

Bluhm: Mit dem Data Act wird von der EU-Kommission eine verbesserte Datennutzung angestrebt. Mit ihm soll ein für die gesamte EU geltender rechtlicher Rahmen für das Nutzen und Teilen von Daten geschaffen werden.

Damit wird das Ziel verfolgt, für alle Akteur:innen den Austausch und die Nutzung von Daten zu verbessern oder überhaupt erst zu ermöglichen. Die DSGVO soll jedoch davon unberührt bleiben. Ihre Regelungen sollen weiterhin ohne Einschränkung gelten, wenn es sich um personenbezogene Daten handelt.

t3n: Wo stehen Deutschland und Europa im internationalen Vergleich, wenn es um die Integration von KI-Systemen in Alltag und Politik geht?

Bluhm: Generell kann man sagen, dass KI derzeit viel Aufmerksamkeit in Deutschland und Europa von Politik, Industrie und Forschung bekommt – zu Recht. Die Bundesregierung stellt für ihre KI-Strategie bis 2025 rund drei Milliarden Euro zur Verfügung. Die Europäische Union hat sich zum Ziel gesetzt, bis zum Jahr 2030 ein globaler Vorreiter bei der Entwicklung und Anwendung von vertrauenswürdiger KI zu werden.

Deutschland und Europa gehen im weltweiten Vergleich ihren eigenen KI-Weg und stellen eine vertrauenswürdige KI ins Zentrum ihres Handelns. Während außerhalb der EU hauptsächlich auf Schnelligkeit in der Entwicklung gesetzt wird, soll in Europa eine vertrauenswürdige KI Zertifizierungen und Normungen unterliegen und somit eine verantwortungsvolle Nutzung gewährleistet werden.

Im internationalen Vergleich sind die oben genannten Investitionen jedoch gering: China will bis 2030 eine staatlich geförderte 150 Milliarden US-Dollar schwere Industrie schaffen. Zudem werden momentan 73 Prozent der großen KI-Modelle in den USA und 15 Prozent in China entwickelt. Im Vergleich steht Deutschland also hintenan.

Welchen Einsatz von KI im politischen Kontext ich spannend finde: Das Forschungsprojekt „KISTRA“ mit dem Bundesministerium für Bildung und Forschung. Ziel ist die Erforschung der Möglichkeiten und Rahmenbedingungen für den ethisch und rechtlich vertretbaren Einsatz von KI durch Sicherheitsbehörden zur frühzeitigen Erkennung und Prävention von Straftaten und Hasskriminalität.

t3n: Können Sie sich vorstellen, dass eine KI in Zukunft nicht nur Wahlpropaganda beeinflusst, sondern auch politische Entscheidungen trifft und politische Prozesse beeinflusst?

Bluhm: Fake News, Desinformationskampagnen oder auch Wahlempfehlungs-Apps sind keine neuen Phänomene. Durch den Einsatz von KI steigt aber deren Effizienz. Hinzu kommt, dass oftmals nicht ersichtlich ist, dass hier eine Maschine – und kein Mensch – handelt. Daher ist es logisch, dass die Nutzung von KI im Kontext von Politik zahlreiche Befürchtungen wie Kontrollverlust, Machtmissbrauch und Manipulation auslöst, andererseits ihr Potenzial aber auch große Erwartungen weckt.

Ein Beispiel, wie mit KI-Systemen Wahlen beeinflusst oder sogar manipuliert werden, ist die Erstellung und Verwendung personalisierter Inhalte: dem Microtargeting. Es werden Persönlichkeitsprofile erstellt, welche für personalisierte Werbung genutzt werden. Daraus ergibt sich eine mögliche Gefahr für die Manipulation im Bereich des Politischen. Die Befürchtung, dass Personen durch personalisierte Inhalte so angesteuert werden, dass die Wahlentscheidung besonders effizient in die gewünschte Richtung manipuliert wird – wie im Skandal um Cambridge Analytica.

Um den negativen Auswirkungen entgegenzuwirken, können vielfältige Maßnahmen von unterschiedlichen Akteur:innen ergriffen werden. KI-Systeme sind stets in soziotechnische Gesamtsysteme eingebettet, daher beziehen sich Gestaltungsoptionen nicht ausschließlich auf die KI-Systeme direkt, sondern auch auf die Gestaltung des umgebenden Gesamtsystems.

So sind Betreiber von Social-Media-Plattformen in der Pflicht, Beschwerdemechanismen zu implementieren, politische Entscheidungsträger:innen können durch konkrete Gesetze Risiken minimieren, aber auch die Öffentlichkeit muss unter anderem digitale Kompetenzen aufbauen und sich kritisch mit KI-Systemen auseinandersetzen.

t3n: Menschen sind immer mehr oder weniger biased und treffen subjektive Entscheidungen, basierend auf ihren Erfahrungen, ihrem Umfeld, ihrer Erziehung und Ähnlichem. Könnte eine KI in Form eines benevolenten Diktators eine Alternative sein, um politische Entscheidungen hinsichtlich der sozialen Wohlfahrt zu optimieren?

Bluhm: Das erinnert mich an den Philosophieunterricht in der Schule: Platons Idee zum Staat und die Philosophenkönige, die aufgrund ihrer Weisheit das Gemeinwohl der Bürger im Auge behalten sollen.

In einem guten Science-Fiction-Film könnte ich mir eine KI in Form eines benevolenten Diktators vorstellen. Aber wie die Mathematikerin Cathy O’Neil schon sagte: „Algorithmen sind Meinungen, verpackt in Mathematik.“ Wie echte König:innen auch, treffen virtuelle König:innen Entscheidung auf Basis von Erfahrungen beziehungsweise eingespeisten und eventuell eingefärbten Daten. In der Realität ist das also keine denkbare Option.

Wichtiger ist es, politische Entscheidungen und Debatten offen in der Gesellschaft zu diskutieren und dabei alle Perspektiven zu berücksichtigen. Inklusiver denken, marginalisierten Gruppen eine Plattform bieten, um ein vollumfängliches Bild zu bekommen. Man sollte einer KI und ihren Entscheidungen weder blind vertrauen noch danach streben, denn KI braucht menschliche Vernunft.

t3n: Haben Sie Angst vor der Zukunft, oder freuen Sie sich darauf?

Sebastian Bluhm: Ganz klar, ich freue mich! Natürlich bringen neue technologische Möglichkeiten Gefahren mit sich, man denke nur an die digitale Überwachung in Diktaturen. Aber sie bieten eben auch viele Chancen, etwa in der medizinischen Forschung, im Klimaschutz und etlichen weiteren Bereichen.

Ich bin sehr gespannt, wohin uns die Weiterentwicklung digitaler Technologien noch bringen wird. Vieles von dem, was heute möglich ist, gab es vor 30 Jahren nur in Science-Fiction-Filmen. Mal sehen, welche Sci-Fi-Szenarien in den nächsten 30 Jahren Realität werden.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
2 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Johannes
Johannes

Super Interview. Danke an Herrn Bluhm für seine – trotz seiner Mitgliedschaft im KI-Bundesverband – differenzierten Meinung.
Und guten Geschmack hat er auch, was Rennräder betrifft! : )

Antworten
hoxel
hoxel

Ich habe mit ChatGPT schon probiert, und habe das Gefühl es ist ähnlich wie eine Suchmaschiene. Einfach gefragt, gibt einfache Antwort. Wichtig wäre das ChatGPT seine Quellen noch besser kennt. Ich hatte schon tolle „Gespräche“ mit ihm, in der ich nach den Quellen gefragt und auch bekommen habe. Diese ich vorher in Google nicht gefunden habe. Für mich eine Tolle Art von Suchmaschiene. Wenn man über etwas fragt, wo man sich auskennt, kann es auch lustig sein wie oft es sich entschuldigt und trotzdem auf der Falschaussage beharrt und es auch nicht belegen kann:)

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige