Wenn der Hype blind macht: KI ist mehr als ChatGPT
Wann immer in den letzten Monaten in den großen Medien von KI die Rede war, vergingen kaum zwei Sätze, ohne dass nicht im gleichen Atemzug über ChatGPT gesprochen wurde. Generative KI – das ist der neue „heiße Scheiss“. Nachdem wir im Eiltempo über das spaßhafte und experimentelle Prompten hinweggefegt sind, stehen jetzt gefühlt alle Unternehmen am Beginn eines neuen Zeitalters.
Alle wollen es. Noch besser: Alle machen es eigentlich längst. Nach Jahren der Trägheit wird nun überall mit KI hantiert, genauer: mit generativer KI. Und genau das ist das Problem. Der verbreitete Aktionismus in Unternehmen, an Schulen oder Hochschulen, mit dem sich Menschen an ChatGPT und generativer KI versuchen – egal, ob bewusst verordnet oder ohne offizielle Erlaubnis im Homeoffice – überlagert, wie weit Wirtschaft, Verwaltung, Bildungs- oder Gesundheitssektor von einem strategischen Einsatz künstlicher Intelligenz entfernt sind. Generative KI verkommt so zum Feigenblatt einer mangelhaften KI-Strategie.
Ein paar Prompts versetzen Firmen noch lange nicht ins KI-Zeitalter
Wer der Überzeugung ist, dass man mit ein paar Prompts im KI-Zeitalter angekommen ist, hat sich in den zurückliegenden Jahren ganz sicher nicht mit den schon vorhandenen Möglichkeiten von KI-Anwendungen auseinandergesetzt. Was wir derzeit beobachten, ist ein Kampf um Headlines für Investoren und den digitalaffinen Nachwuchs.
Egal, ob BigGPT oder BoschGPT – worüber in den Medien berichtet wird, bewegt sich meist zwischen Experimentierstadium, PR-Gag und Ankündigungsjournalismus. Wenn Bosch ankündigt, KI in jedes Produkt integrieren zu wollen, dann wird die Berichterstattung auf den Einsatz der generativen KI reduziert, in diesem Fall mit Aleph Alpha eine deutsche Lösung. Nicht, dass wir uns falsch verstehen: Es ist nichts dagegen einzuwenden, wenn Produkte durch KI besser werden. Nur kann man dazu leider nichts finden.
Das wäre doch mal eine echte Neuigkeit: Unternehmen setzen auf KI, weil sie ihren Kunden einen echten Mehrwert bieten wollen. BigGPT beispielsweise ist laut Betreiber BigFM die „AI generated Audio Experience. Nur mit synthetischen Stimmen, KI-generierten Inhalten und den […] meistgestreamten Songs im Netz.“ Wer sich auskennt, ahnt vielleicht, welche Möglichkeiten sich hieraus für Spartensender ergeben.
Wer sich – wie die meisten Menschen in Deutschland – nicht auskennt, schüttelt mit dem Kopf oder zuckt mit den Schultern. Und so bleibt das Ganze leider mal wieder ohne Substanz. Noch viel schlimmer: Es hinterlässt Unsicherheit, Unverständnis und schürt leider auch ganz nebenbei Vorbehalte. Ich kann das verstehen: Wenn nicht klar wird, warum wir solche Anwendungen einsetzen, was sie uns Menschen bringen – außer uns zu ersetzen -, dann können wir doch besser ganz darauf verzichten.
Einsatz von KI: Lasst uns aufhören zu „schnattern“
Worum also sollte es uns gehen, wenn wir über den Einsatz von KI sprechen? Zum Einen sollten wir aufhören zu „schnattern“. Das beginnt schon mit der simplen Unterscheidung der unterschiedlichen KI-Anwendungen generative KI, RPA und Data-Analytics. Wo immer man derzeit nachliest, purzeln die Begriffe durcheinander. Chatbots im Kundenservice sind eben nicht ChatGPT und die Aufbereitung von Daten mit KI steht idealerweise am Anfang oder bildet die Grundlage für die anderen Anwendungsbereiche. Am wichtigsten aber bleibt, darüber zu sprechen, warum KI überhaupt zum Einsatz kommen soll. Noch besser ist es, den konkreten Nutzen klar anzusprechen.
Und da kann die Luft mitunter schnell dünn werden. Kundenanschreiben mithilfe von Daten zu formulieren, ist heute keine wirkliche Leistung mehr. Und im schlimmsten Fall geht es dabei nicht einmal um den einzelnen Kunden, sondern schlicht um einen regelbasierten (vermeintlichen) Kundendialog, der nur dem Effizienzgewinn des Unternehmens dient, mit einem echten Mehrwert für die so angesprochenen Kund:innen aber leider nichts zu tun hat.
Genau darum aber muss es gehen. Unternehmen müssen entlang der eigenen Wertschöpfungskette nach sinnvollen Anwendungen suchen. Sie landen damit nicht automatisch bei ChatGPT oder anderen Anwendungen generativer KI. Es muss um echte Wertschätzung für die Zielgruppen und Menschen gehen, die vom Einsatz der KI betroffen sind, genauer: profitieren.
Anwendungen und Systeme, die ohne den „human in the loop“ auskommen, sorgen nach meiner Einschätzung nur dann für einen echten Mehrwert, weil es für die Adressaten oder Dialogpartner tatsächlich deutlich schneller geht. Weil sie selbst Entscheidungen treffen können, ohne von etwas abhängig zu sein – im Normalfall der Reaktion eines Menschen.
Wenn sie den Mehrwert direkt spüren können, wie etwa bei Chat- oder Voicebots, um Anliegen von Kunden schnell abzuarbeiten anstatt sie in die Warteschleife zu schicken, oder bei bildgestützten Diagnosen, um schnell und effizient Fehler zu beheben – dann bauen wir automatisch auch Vorbehalte und Ängste ab. Es geht um substanzielle Innovation, die wir mithilfe von Daten generieren. Nur damit hört endlich das substanzlose Geschnatter auf!
Hi Saim,
„AI-Potenzial entlang der eigenen Wertschöpfungskette erkennen und nutzen…“ So ist es. Und dabei kommt es eben auch darauf an, weder rechtliche noch technische Anfängerfehler zu machen.
Hier habe ich vor ein paar Wochen einige rechtlichen Aspekte in Bezug auf LLMs zusammengetragen: https://www.linkedin.com/pulse/es-ist-nicht-ok-kundendaten-chatgpt-zu-senden-michael-fieg/
Viele Grüße
Michael Fieg
>KI ist mehr als ChatGPT
>mit den schon vorhandenen Möglichkeiten von KI-Anwendungen auseinandergesetzt.
>ein Kampf um Headlines für Investoren und den digitalaffinen Nachwuchs.
Man kann natürlich alles kritisieren und die Augenbraue anwinkeln, in diesem Falsch sind die oben zitierten Textpassagen allerdings schlichtweg falsch.
KI ist – wie natürlich Intelligenz – ein Sammelsorium an Fähigkeiten und kann natürlich nicht auf Sprachmodelle reduziert werden. Ja es gab auch vor 5 Jahren schon Machine Learning in vielen Wissenschaftsgebieten und tolle KI Algorithmen überall.
Der Algorithmus hinter den Large Language Models (LLM) ist aber mittlerweile nicht nur der am weitesten entwickelte, er hat das KI-Zeitalter auch erst ins Leben gerufen, der Grund hierfür ist, dass den Forschern ein wichtiger Durchbruch gelungen ist: KI schafft es, sämtliche Dateien, egal ob Ton, Bild, Schrift, Aufnahmen von entfernten Planeten oder Geomessungen in Sprache zu übersetzen.
Das heißt im Klartext vor 3 Jahren haben alle KI Algorithmen individuell gelernt und ein Durchbruch bei der Auswertung von Walsprache hat den Astrophysikern überhaupt nichts gebracht. Heute greifen alle KI Modelle auf LLM Codes zurück. Jeder Fortschritt eines noch so unbedeutenden Fachs, kann woanders wieder neue Korrelationen erkennen lassen.
KI IST die neu gewonnene Fähigkeit alles in Sprache umzuwandeln. KI ist Sprache und das was die Sprachmodelle zur Zeit an Entwicklungen hervorzuzeigen haben, ist für die gesamte Welt extrem wichtig und mit Sicherheit kein Kampf um Headlines. Das könnte man wohl eher über diesen Artikel sagen.