Dmexco 2021: Dezentrale und KI-gestützte Datenverarbeitung als Zukunftsmodell?
![Auf der Dmexco gab es elf Stages mit Programm zu allen Themen rund ums Onlinemarketing – hier zu sehen ist Jennifer Sarah Boone, die eine davon moderierte. (Foto: Koelnmesse / Dmexco) Jennifer Sarah Boone moderierte eine Stage der DMEXCO.](https://images.t3n.de/news/wp-content/uploads/2021/09/DMEXCO-Jennifer-Sarah-Boone.jpg?class=hero)
Auf der Dmexco gab es elf Stages mit Programm zu allen Themen rund ums Onlinemarketing – hier zu sehen ist Jennifer Sarah Boone, die eine davon moderierte. (Foto: Koelnmesse / Dmexco)
Daniel Todorović von Infosum hat es ganz gut zusammengefasst: Es gibt auf drei Säulen im Umbruch bezüglich Daten und ihrer Verarbeitung – die Unternehmen, die Politik und die Gesellschaft. Einerseits sind da also Apples Tracking-Transparency und Google FLoC und das Ende der Third-Party-Cookies; andererseits die DSGVO, TTDSG und die E-Privacy-Verordnung; und zuletzt die Verbraucher:innen. Denn bei denen herrscht ein ziemliches Misstrauen, weil es ein besseres Verständnis für die Datennutzung zu Werbezwecken gibt und Datenlecks das Vertrauen immer wieder erschüttern.
Insgesamt war das Stimmungsbild in etwa: vorhandene Daten besser nutzen, mehr messen als Standard-KPI wie Conversions und die Verarbeitung letztlich KI-unterstützt und nach dem Motto „privacy first“ gestalten.
„Data-driven strategy“: Entscheidungen auf Basis von Messungen, nicht Angst
Die Grundlage für jede Optimierung oder auch die Entscheidung, welche Maßnahmen fortgeführt und welche eingestellt werden, basiert auf gemessenen Ergebnissen. An vielen Stellen werden aber immer dieselben Daten wie Klicks, Impressions oder Conversions in Google Analytics abgerufen. Der Blick über den Tellerrand scheint zu selten zu geschehen. Aus der Angst vor Rankingverlusten, dass es sich wirtschaftlich nicht rentiert oder dass Nutzer:innen Kritik äußern, also dass sich die Zahlen in den Tools verschlechtern, werden größere Änderungen gar nicht erst angegangen. Anpassungen allen Contents auf gendersensible Sprache, die Barrierefreiheit einer Domain oder beispielsweise Werbung auf einem neuen Kanal wie Twitch fallen damit flach.
Eine Grundlage für diese Angst fehlt oft – es gibt für diese Anwendungsfälle Messungen und Tests. Twitch beispielsweise berichtete von Eye-Tracking-Studien, die zeigten: Nutzer:innen sahen sich Werbung auf Twitch tatsächlich aufmerksam an, während sie auf anderen Video-Plattformen in den typischen Ecken nach einem Button zum Schließen oder Überspringen suchten. Searchmetrics hat gendersensible Sprache und SEO untersucht – es gebe keinen Einfluss auf die Rankings. Noch sei das Suchvolumen gendersensibler Keywords sehr gering und die SERPs im generischen Maskulinum, aber Googles Algorithmen seien darauf ausgelegt, zu lernen und den aktiven Sprachgebrauch zu adaptieren.
Barrierefreiheit wird oft hintenangestellt – barrierefreie Websites seien teuer, unschön und „reguläre“ Nutzer:innen empfänden sie als störend. Dabei sei auch ein Business-Case für Barrierefreiheit vorhanden. Ironischerweise gab es ausgerechnet bei dieser Session technische Probleme. Eine robuste Website, die auf allen denkbaren Endgeräten funktioniert, bedeutet: Personen mit einem Screenreader können konvertieren, aber ebenso jemand mit einem alten Smartphone. Ein Formular, das verständlich ist, heißt: Personen mit Screenreader können eine Fehlermeldung verstehen, ihre Eingaben korrigieren und konvertieren. Genauso springt niemand genervt ab, weil das Formular nicht funktioniert, aber es keine Meldung gibt, die anzeigt, wo was geändert werden muss. Barrierefreiheit werde oft als reiner Kostenfaktor betrachtet – dabei helfe es durchaus bei der Suchmaschinenoptimierung und biete eine bessere User:innen-Experience.
„Non-Movement of Data“: Ist dezentrales Datenmatching die Zukunft im Onlinemarketing?
Es wirkt paradox: Wie können Menschen mit Daten beschrieben werden, um sie mit passender Werbung zu bespielen – ohne, dass dabei persönliche Daten verarbeitet werden? Die Session von Daniel Todorović von Infosum bot einen möglichen Ansatz: ein komplett dezentralisiertes Datenmatching. Meist werde nur die Speicherung dezentral organisiert, für die Verarbeitung wird dann aber doch die Datenhoheit abgegeben, weil das doch zentralisiert geschieht, so Todorović. Deswegen spricht er vom „Non-Movement“ von Daten – einer Verarbeitung von Informationen, ohne dass diese den Besitzer wechseln. In seinem Use-Case erhielten zwei Unternehmen sogenannte Bunker, in die sie ihre Daten packen. Auf diese Bunker habe niemand Zugriff außer dem Inhaber, auch Infosum selbst nicht. Für die Verwendung werden die Daten zuerst verhasht und dann mathematische Abbilder geschaffen, die mit weiteren Mechanismen wie Rundungen so weit abstrahiert werden, dass sie nicht auf die tatsächlichen Informationen zurückführbar seien. Mit diesen Repräsentationen könne dann rechtssicher gearbeitet werden, da sie vollständig anonym seien. In seinem Use-Case seien auch die gesetzten Ziele gut erreicht worden: Die Brand-Awareness wurde um 63 Prozent gesteigert, die Consideration um 38 Prozent. Das zeige, dass sich Datenschutz und Erfolge nicht widersprechen müssen.
Das dezentrale Web widerspricht dabei aber absolut einer Realität von Werbe-Platzhirschen wie Google, Amazon und Facebook. Die Reaktion der Werbeplattformen auf diese dezentralisierte Lösung und insgesamt die Bemühungen in Richtung Web 3.0 werden eventuell noch spannend.
Die Massen an Daten sind ohne KI nicht mehr zu bewältigen
In vielen Sessions wurde erwähnt, dass es eine Masse von Daten gibt, die nicht mehr händisch auswertbar sei. Die Menge der Datenquellen steige und gleichzeitig nutzen Menschen Technologien häufiger, länger und verschiedene Geräte simultan und produzieren damit auch schneller mehr Daten. Sowohl in einigen BVDW-Masterclasses als auch einzelnen Sessions, beispielsweise der Fireside Chat mit Carlos Dominguez von Sprinklr, fiel die Aussage, dass es für die ordentliche Verwertung von Daten Algorithmen braucht – und in absehbarer Zeit KI.
Das geht in Hand in Hand mit den Dmexco-Vorträgen vieler Marketing-Expertert:innen. Demnach gebe Es genügend Daten, sie würden nur noch nicht ausreichend miteinander verknüpft. Nicht nur das interne Datenchaos müsse gelöst werden. Es gebe auch mehr wertvolle Datenquellen, als bisher in der Regel genutzt werden. Dazu zählt beispielsweise das Social Listening: Wie sprechen die Menschen über das Unternehmen? Ist es Lob oder Kritik? Was für Menschen sind das, welche Interessen haben sie? Auch bei der Auswertung einzelner Kampagnen könnten neben harten KPI auch die Meinungen der Menschen in Betracht gezogen werden. Wenn beispielsweise das Engagement durch die Decke geht, aber nur deswegen, weil es Kritik und einen Shitstorm hagelt, war die Kampagne kein Erfolg.
Auch Temperatur und Wetter, Feiertage und saisonale Ereignisse, Ortsdaten, die Geschehnisse in bestimmten Regionen liefern interessante Werte – in der Analyse können überraschende Korrelationen auftauchen. Das alles händisch auszuwerten, würde jeglichen Rahmen sprengen. Es gilt aber dennoch: Nicht alle Daten, die verfügbar sind, sind auch relevant. Allem voran stehen die Bemühungen, überhaupt die richtigen Fragen zu stellen.