Suchoptiminerung für KI-Chatbots: Das müssen Unternehmen jetzt machen
KI-Chatbots wie ChatGPT oder KI-gestützte Suchmaschinen wie Bing verändern die Art, wie wir Inhalte im Internet suchen. Künftig werden Unternehmen nicht mehr um die Top-Rankings auf den ersten Listenplätzen kämpfen. Stattdessen geht es darum, die eigenen Website-Inhalte so zu gestalten, dass sie von der künstlichen Intelligenz verstanden, aufgenommen und richtig ausgespielt werden.
Dafür müssen Unternehmen ihre Website-Gestaltung anpassen, weiß der Informatiker Armin Doll. Er arbeitet als Lead Solutions Engineer für Yext. Das US-amerikanische Unternehmen betreibt eine Plattform, über die Marken ihre Listings etwa bei Google oder Amazon verwalten. Im Interview am Rande der Dmexco 2024 erklärt er, wie sich die Suche in Zukunft verändert und worauf Unternehmen achten müssen, damit ihre Inhalte korrekt in KI-Chatbots landen.
t3n: Durch die KI-Modelle verändert sich unser Suchverhalten. Werden wir nächstes Jahr schon nicht mehr googeln?
Armin Doll: Googeln ist ein Synonym für die Suche im Internet. Die Suchmaschine wird auch weiterhin erst einmal ein Einfallstor für die Onlinesuche bleiben. Allerdings werden wir in Zukunft das heutige Googeln nicht mehr haben. Bisher sind Nutzer Strukturen gewohnt, in denen sie Antworten auf ihre Fragen bekommen. Aber schon in den vergangenen eineinhalb Jahren zeigt sich, dass die Leute KI-Modelle für die Suche nutzen. Das wird sich signifikant ändern. Google ist dominant, aber muss sich anpassen. Es geht nicht mehr darum, Keyword mit Keyword zu matchen, sondern Semantik zu verstehen. In Zukunft wird die Suche immer dialogischer werden: Auf eine Antwort folgt eine weitere Frage.
t3n: Wie werden sich denn die Anfragen der Nutzer:innen in Zukunft entwickeln?
Wir sind schon jetzt gewohnt, anders zu fragen. Vor gut zehn Jahren waren die meisten Suchanfragen wenige Keywords. Das hat sich aber mit dem Einsatz von künstlicher Intelligenz geändert. Jetzt fragen wir natürlich, eher in Sätzen. Dabei sehen die Menschen, dass sie bei der Eingabe von ganzen Sätzen bessere Ergebnisse zurückbekommen. Wir haben gelernt: Je deutlicher ich mich ausdrücke, desto präziser wird meine Anfrage und schließlich das Ergebnis. Google kommt dem entgegen, so lernen die Systeme, die menschliche Sprache bestmöglich zu verstehen. Das ist ein Aspekt. Der andere ist die technologische Veränderung. Mit den Sprachmodellen ist jetzt die Möglichkeit da, nicht nur Listen von möglichen Quellen zurückzugeben, sondern dass diese Ergebnisse quasi von einer anderen Maschine ausgewertet werden und darauf basierende eine Antwort auf eine Fragestellung liefern. Das ist nahezu ein intellektueller Vorgang.
t3n: Immer wieder gibt es Meldungen, dass etwa die Gen Z über das Portal Reddit sucht oder über Tiktok. Wird sich die Suche in Zukunft immer mehr auf verschiedene Kanäle aufteilen?
Es gibt verschiedene Einfallstüren und jeder spricht ja eine andere Zielgruppe an. Ich denke, das Wichtigste ist jetzt für eine Marke, die ja sichtbar sein und gefunden werden will: Sie müssen sich damit beschäftigen, wie sie in die Kanäle hineinkommen. Was sie sich fragen müssen: Wie kann ich an allen Orten vorhanden sein, mit stringenten, konsistenten und aktuellen Informationen? Es gibt zwei Gefahren: Wenn ich keine Informationen herausgebe, kann ich nicht gefunden werden. Bei inkonsistenten Informationen besteht die Gefahr, dass eine KI verschiedene Informationen bekommt. Wie soll sie etwa bei drei verschiedenen Angaben zu Öffnungszeiten entscheiden, welche die richtige ist? Dann spielt sie falsche oder gar keine Informationen in der Antwort aus.
t3n: Wo findet denn die Suche in Zukunft statt und wie kommen Unternehmen an die relevanten Orte?
Sie findet statt in KI-Chatbots, etwa von OpenAI, in Suchmaschinen wie Google und Bing und auch Social-Media-Plattformen, etwa Facebook. Wir als Plattform müssen da auch schauen, wie wir in die einzelnen Kanäle kommen und die Daten unserer Kunden weiterspielen. Ein Beispiel: Wir geben Standardinformationen direkt an OpenAI und können damit sicherstellen, dass OpenAI-Programme aus einer vertrauenswürdigen Quelle, nämlich dem Unternehmen, Informationen im Daten-Repository hat. Ob sie allerdings korrekt ausgespielt werden, können wir nicht sicherstellen.
t3n: Für Unternehmen bedeutet das, sie müssen ihre Daten stets aktuell halten und über möglichst viele Wege teilen, richtig? Das bedeutet aber mehr Aufwand und Kosten.
Das kommt darauf an, wie sie die Datenarbeit verteilen. Den größten Handlungsbedarf sehe ich bei den Websites der Unternehmen. Systeme holen sich auch Informationen von klassischen Internetangeboten, etwa einer Landingpage. Da müssen Unternehmen sicherstellen, dass die Informationen richtig ausgewählt und verstanden werden. Da fließen unterschiedliche Aspekte mit rein. Ich muss darauf achten, in welchem Kontext ich meine Produkte bestmöglich vorstellen kann. Dabei muss klar sein, es gibt immer zwei Richtungen, in denen meine Angebote funktionieren müssen. Ich möchte meine Angebote verkaufen und muss gleichzeitig immer Fürsprecher finden. Informationen müssen also nicht nur das Angebot zeigen, sondern ihm auch eine Relevanz und Verlässlichkeit zuschreiben.
t3n: Aber das ist ja nichts Neues für Unternehmen. Sie pflegen ihre Websites auch jetzt schon. Müssen Firmen sie anders aufbauen?
Man denkt, Unternehmen haben das – haben sie nicht. Das sehen wir auch bei Gesprächen mit unseren Kunden: Sie haben vielleicht eine Standortseite, aber die ist qualitativ nicht ausreichend, um den neuen Anforderungen gerecht zu werden. Teilweise gibt es zu wenig Informationen oder nicht die richtigen Informationen. Erst gestern hatte ich etwa ein Unternehmen, das seine Öffnungszeiten nicht einmal veröffentlicht. Ein großer Fehler ist auch, nicht in den Dialog zu gehen. Aus Rezensionen lässt sich gut Content schöpfen, den ich wiederum nutzen kann, um Content über mein Unternehmen herauszugeben. Unternehmen müssen noch immer lernen, ihre Website passend zu möglichen Suchanfragen ihrer Zielgruppe zu gestalten.
t3n: Welche technische Entwicklung liegt eigentlich dahinter?
Wir müssen in der Lage sein, Informationen so auszuspielen, wie es erforderlich ist. Das bedeutet, wir brauchen eine andere Form der Datenhaltung. Aktuell haben wir noch den Knowledge-Graph, den auch Google nutzt. Bei dem werden Objekte schon einzeln abgebildet und miteinander in Relation gesetzt. Daran scheitern jedoch Content-Management-Systeme, da sie eine andere Struktur für die Datenablage haben. Sie sind meist noch seitenorientiert: Da wird eine Seite mit den passenden Informationen gebaut, aber es ist nicht strukturiert, wie die Daten herausgelesen werden sollen. Die Verbindung bei den Entitäten fehlt da. Gleichzeitig müssen die Informationen immer schneller aktualisiert werden: Wie lässt sich etwa sicherstellen, wenn ein Unternehmen morgen kurzfristig zu hat, dass diese Informationen in Echtzeit übermittelt und beispielsweise in ChatGPT eingespielt werden, damit sie aktuell sind.
Welche Skills brauchen wir für die moderne Arbeitswelt? Im Podcast t3n Interview gibt New-Work-Enthusiast Gabriel Rath dafür Tipps:
t3n: Wie funktioniert denn diese schnelle Übertragung?
Da gibt es zwei Felder: Einerseits gibt es die Publisher oder Unternehmen wie Google, die entsprechende API haben. Wir übergeben etwa an Google die aktualisierten Daten und bekommen dann die Rückmeldung, dass die Daten angekommen sind. Es gibt aber auch Publisher, bei denen gar keine Aktualisierung in Realtime möglich ist. Da kann nur eine Submission gemacht werden. Die andere Seite ist die Bereitstellung der Daten. Dafür gibt es entsprechende Plattformen, die die Daten von den Websites ziehen und die Änderungen dann direkt mitbekommen.
t3n: Damit sind Publisher eine große Blackbox. Wie können Unternehmen damit umgehen? Dazu kommt: Wenn wir über Chatbots suchen, bekommen wir ja nur ein Ergebnis ausgespielt. Was passiert, wenn ich nie in diesen Ergebnissen auftauche, aber gar nicht weiß, warum das der Fall ist?
Es gibt zwar bei Google potenziell Tausende von Seiten – aber wer geht denn über die erste Seite hinaus, wenn er sich die Ergebnisse für seine Suche anschaut? Da ist ein mögliches Angebot, das kaum jemand betrachtet. Die Herausforderung gibt es schon seit Jahren, sie setzt sich jetzt in anderer Form fort: Wie komme ich in die AI-Overview? Dafür muss ich nicht nur top gelistet sein, was ja bisher gereicht hat. Zukünftig muss hinter dem Treffer eine Information liegen, die die KI verarbeiten kann.
t3n: Wisst ihr, was eine KI gut versteht?
Das sind auch die gängigen Best Practices, die Google seit Jahren nennt. Keine Textwüsten, keine unzähligen Backlink-Strukturen. Gebraucht wird semantisch richtiger und hochwertiger Content. Allerdings kann es auch bei einem guten Aufbau zu einer Missinterpretation kommen. Dagegen helfen Initiativen wie Google Schema. Mit solchen Tools lassen sich Informationen für Suchmaschinen strukturiert ablegen. Damit können wir den Maschinen explizit sagen, was wir meinen und wie es zu verstehen ist.
Erinnerst du dich noch an diese Logos von bekannten Tech-Marken?