KI ist nur so gut wie die Datenquellen und das Briefing
Ich geb’s zu: Ich habe mit voller Absicht vermieden, ChatGPT in der Überschrift zu erwähnen. Kaum ein Thema hatte in den letzten Wochen in der Techszene mehr Konjunktur. Wann hat es das letzte Mal eine Technologie bis in die Tagesthemen geschafft? Und ja: Das ist berechtigt. Einerseits. Und gleichzeitig verfrüht. Andererseits.
Die Anzahl von Selbstversuchen, Wow-Effekten, die aus ChatGPT resultieren, lassen sich kaum noch überblicken. Dass das Thema im Mainstream angekommen ist, ist nachvollziehbar und lässt sich nicht nur daran messen, dass in Nachrichtensendungen darüber berichtet wird. Allerdings klingt das dort bei aller Euphorie glücklicherweise etwas kritischer als in der Szene. Jan Girlich vom Chaos Computer Club bringt es auf den Punkt: „Es werden alle Berufsgruppen betroffen sein, die etwas mit Texten zu tun haben.“
Ohne den Menschen geht es nicht
Doch was bedeutet das? Müssen alle Songschreiber, Drehbuchautoren, Werbetexter und Journalisten um ihren Job bangen? Braucht es mich als Kolumnenautor vielleicht gar nicht mehr? Gemach, gemach, hier kommt mein Andererseits zum Tragen.
Ohne den Menschen, in diesem Fall Sam Altman, der OpenAI angeschoben hat, sowie alle, die die KI aktuell und künftig briefen werden, geht es eben nicht. Fakt ist: ChatGPT dokumentiert die Überlegenheit von GPT‑3 als Sprachmodell gegenüber dem europäischen OpenGPT-X. Durch die Plattform ist sie quasi für jeden Nutzer erlebbar. Einfach zu bedienen wie Google, fördert ChatGPT von OpenAI tatsächlich Erstaunliches zutage. Und schon schwärmen die ersten von GPT‑4 als nächstem vermeintlichen Quantensprung – oder fürchten sich davor, je nach Perspektive.
Wichtig scheint mir daher noch mal der Hinweis zu sein, dass auch ChatGPT nur so gut ist wie die Datenquellen, auf die es zugreift, und das Briefing, nach dem es arbeitet. Und genau hier lauert die Gefahr. Anders formuliert: Die Befürchtung ist weniger, dass eine Maschine – wohlgemerkt immer nach den Vorgaben des Menschen samt seiner Absichten – sprachlich außergewöhnliche Texte in einer Geschwindigkeit produziert, dass man sich durchaus fragen darf: Wer soll das eigentlich alles lesen?
Differenzierung und Bewertung von Quellen
Vielmehr lauert die Gefahr in der Verarbeitung und Verbreitung falscher Informationen. Eben darum ist es wichtig, dass wir bei aller Euphorie auch einen vernunftgeleiteten regulatorischen Rahmen für den Einsatz von künstlicher Intelligenz haben.
Was bislang fehlt, ist die Differenzierung und Bewertung von Quellen. Wir sollten deshalb tunlichst darauf achten, dass sich die „Musk-Doktrin“ im Umgang mit Informationen und Meinungen nicht durchsetzt. Auch wenn das überspitzt klingt. Elon Musk, der als Investor ein massives Interesse am wirtschaftlichen Erfolg von ChatGPT hat, zeigt beim Umgang mit Twitter, wie weit er den Wahrheitsbegriff bereitwillig dehnt.
Auch Beispiele aus der bildgebenden KI zeigen, was dabei herauskommen kann: Von falschen Gebäudedetails bis zu dreibeinigen Menschen ist so ziemlich alles dabei. Derartige Ergebnisse werden übrigens dann als Trainingsdaten verwendet – zumindest liegt die Vermutung nahe, solange nicht das Gegenteil erwiesen ist. Für Texte bedeutet das, dass aus einem Briefing auch schnell eine Indoktrination werden kann. Wir wissen, wie schnell sich Falschinformationen über das Web verbreiten und wie schwierig bis unmöglich es ist, diese wieder einzufangen.
Wahrheitsgehalt und Briefing
Die entscheidenden Fragen bleiben daher: Wo kommt der Mensch ins Spiel? Wozu brauchen wir Textautomatisierung wirklich? Natürlich ist mein Neffe begeistert, wenn ChatGPT die Hausaufgabe, einen Aufsatz mit 600 Wörtern über die Weißbürzelschwalbe zu schreiben, im Handumdrehen erledigt und er Zeit hat, sich vermeintlich Wichtigerem zu widmen – etwa auf Snapchat, Instagram oder Tiktok mit den neuesten KI-Tools herumzuspielen. Aber auch das wird ihn nicht davon entbinden, den Wahrheitsgehalt des Textes noch einmal zu überprüfen oder im Zweifel das Briefing zu verbessern, damit das Ergebnis auch seinen Vorstellungen entspricht.
Und das führt mich zum Zusammenspiel von Mensch und Maschine. Und dieses wird nach meiner Einschätzung auch auf lange Sicht in etwa so ausfallen, wie es Karl Kratz beschrieben hat. Egal, ob Mensch oder Maschine den Schreibauftrag erledigen: Wir brauchen künftig einen Copy-Director, der – analog zum Art-Director – die (kreativen) Rahmenbedingungen für das Verfassen von Texten vorgibt. Denn: Je konkreter die Anforderungen, desto besser der Text. Der Copy-Director hat die Richtlinienkompetenz inklusive der realistischen Grenzen.
Prägung und Tonalität
Es ist und bleibt ein Unterschied, ob ich einen monolithischen Text über drei Sehenswürdigkeiten in London brauche oder 10.000 Produkttexte für einen funktionierenden Webshop. Hier sind stilistische Prägung und Tonalität gefordert, wenn die Texte Wiedererkennbarkeit garantieren sollen. Und dafür braucht es den Menschen – bei der Beauftragung und der Abnahme von Texten.
Bei Menschen legen wir extrem viel Wert auf Qualität. Bei der Maschine werfen wir die, so scheint es, im ersten Moment der Euphorie über Bord. Dabei verfügen wir über keine Dokumentation, wie die Maschine arbeitet. Wir wissen im Grunde nicht, auf welcher Basis sie Texte entwickelt. Dieser Kontrollverlust gilt ebenso auch für das fertige Ergebnis. Es ist Vorsicht geboten, wenn ich nicht weiß, wie das Ergebnis zustande gekommen ist.
So ist der Informatikpionier Grady Booch der Ansicht, dass ChatGPT und Co. zu einer nennenswerten Verzerrung des öffentlichen Diskurses führen werden. Massenhaft generierte KI-Inhalte können eben auch dazu dienen, korrekte Informationen und absichtlich gestreute Falschinformationen miteinander zu vermischen. Die Verbreitung dieser Informationen liegt letztlich in Menschenhand – auch das zeigt, wie wichtig der Mensch als Kontrollinstanz ist. Der Copy-Director trägt somit auch die Verantwortung für die „Reinzeichnung“, sprich die Verifizierung und den Wahrheitsgehalt von Texten.
Data-to-Text-Modell
Auch funktionieren iterative Prozesse bei skalierbarer Textproduktion (Wetterberichte, Börsen- und Finanzberichte, BI-Analysen, Sportnachrichten, Produkttexte) bei ChatGPT nicht. Hier braucht es aktuelle Datenquellen und ein Data-to-Text-Modell, also eine (vom Menschen) gesteuerte KI!
Wie sonst sollte ChatGPT mit Aktualität, unvorhersehbaren Ereignissen oder Produktneuheiten umgehen? Bei unklarer Datenlage braucht es Menschen, die neue Fakten einordnen. Erst dann kann die Maschine ins Spiel kommen. Und dazu braucht es ein transparentes Regelwerk: Ich muss wissen, wie die Maschine meine Informationen weiterverarbeitet.
Ich bin fest davon überzeugt, dass diese Perspektive in wenigen Tagen und Wochen die Euphorie der ersten Stunde ablöst. Wenn der aufgewirbelte Staub sich wieder gelegt hat, werden wir sehen, was davon übrig bleibt. Und dazu zählt – wie zu erwarten war – ein Preisschild für die Nutzung. Auch das sollten wir uns klarmachen, wenn wir uns in der Erprobungsphase auf mögliche Abhängigkeiten einlassen.