Sponsored Post

Artikel merken

Brand Safety: So sorgt Facebook mit KI für ein sicheres Werbeumfeld

Soziale Netzwerke bieten Werbenden großartige Gelegenheiten, aber Hasspostings und grassierende Falschinformationen können das Nutzererlebnis trüben. Facebook macht sauber und unterstützt seine Prüfer mit einem wirksamen Werkzeug: künstlicher Intelligenz.

5 Min. Lesezeit Anzeige

Kein Platz für Trolle, Hasspostings und Falschinformationen auf Instagram und Facebook. (Foto: Shutterstock / ABEMOS).

„Ist die Werbung bei euch denn auch sicher platziert? Wir wollen nicht zusammen mit komischen Dingen auftauchen.“ Das fragen manche Werbende, die nach einem geeigneten Medium für ihre Angebote suchen. Brand-Safety ist für das Marketing ein zentraler Qualitätsanspruch: Niemand will die eigene Marke mit schädlichen Inhalten assoziiert sehen. Und im Zeitalter fragmentierten Webcontents ist die Sorge um ein sicheres Werbeumfeld noch größer: Auf einer einzigen Website können Bilder, Texte, Videos und Ads aus einem Dutzend Quellen eingespielt und nebeneinander dargestellt sein.

So betrachtet sind soziale Netzwerke wie Facebook und Instagram das denkbar diverseste Umfeld. Jeder Mensch mit Internet-Zugang – und davon gibt es weltweit immer mehr – trägt Inhalte bei und kann eine dort erscheinende Werbung einrahmen. Das Netzwerk ist der Ort, an dem sich Menschen informieren und austauschen, Freunde treffen, Leidenschaften teilen und interagieren. Es sind diese Stärken, die Facebook und Instagram zu beliebten Plattformen für Werbetreibende machen.

Was tun gegen Hasspostings und Falschinformationen?

Aber überall, wo Menschen sind, bleiben auch ihre Probleme nicht fern. Neben nützlichen und freundlichen Beiträgen erscheinen auch Hass, Diskriminierung und Fehlinformationen. Diese schädlichen Inhalte werfen nicht nur einen Schatten auf Werbung, sondern bedrohen auch die produktive und hilfreiche Kommunikation aller Nutzer:innen, die Facebook fördern möchte. Welches Ausmaß Hassrede im Netz annehmen kann und an welchen Stellen es seitens der Plattformbetreiber, des Gesetzgebers und der Justiz noch Handlungsbedarf gibt, diskutiert der Podcast Das Facebook Briefing unter anderem mit der Bundestagsabgeordneten Renate Künast.

Schädliche Beiträge trüben das Social-Media-Erlebnis. (Foto: Shutterstock / GaudiLab)

Mit ihren Gemeinschaftsstandards haben Facebook und Instagram einen Rahmen geschaffen, um Nutzer:innen zu schützen und schädliche Inhalte von den Plattformen fernzuhalten. Dabei folgen sie der Strategie „Entfernen, Reduzieren, Informieren“. Klar schädliche Inhalte, die den Nutzungsvereinbarungen widersprechen, werden entfernt. Problematische Inhalte, die sich innerhalb der Grenzen der Vereinbarung bewegen, werden reduziert. Nutzer:innen werden mit Kontextinformationen versorgt, sodass sie selbst entscheiden können, ob sie etwas wirklich anklicken, lesen oder teilen möchten.

Künstliche Intelligenz hilft beim Prüfen

Die enorme Zahl an Beiträgen, die jeden Tag zu prüfen ist, lässt sich mit menschlicher Arbeitskraft alleine nicht bewältigen. Facebook nutzt dazu Tools mit künstlicher Intelligenz. Komplexe KI-Netzwerke werden dazu trainiert, Prüfer:innen zu unterstützen.

Beleidigungen und hetzerische Botschaften sind häufig eindeutig und schnell von der KI zu erkennen. Schwierigkeiten bereiten Ironie und scheinbar harmlose Bilder, die je nach kulturellem Kontext diskriminierend sind. Aber die künstliche Intelligenz wird immer besser. „Je stärker Subtext und Kontext eine Rolle spielen, desto größer werden auch die technischen Herausforderungen“, sagt Ram Ramanathan, Director des AI Product Management Team von Facebook. „Genau deshalb war der große Sprung bei der Weiterentwicklung der KI in den letzten Jahren so bedeutsam: KI konnte lernen, was solche Inhalte ausmacht.“

Social media

KI hilft dabei, Milliarden von Postings zu überprüfen. (Bild: Shutterstock / metamorworks).

Über 96 Prozent der Hassbotschaften erkannt

Den Lernerfolg weist auch der aktuelle Community Standard Enforcement Report nach. Von 25,2 Millionen Inhalten mit Hassrede, die Facebook im ersten Quartal 2021 entfernt hat, wurden 96,8 Prozent von KI proaktiv erkannt. Im gleichen Zeitraum wurde die Verbreitung von Hassreden stark reduziert. Auf Facebook handelte es sich bei nur 6 von 10.000 Content-Aufrufen um Hasskommentare. Diese Kennzahl ist besonders wichtig für Werbetreibende, die wissen möchten, wie hoch das potenzielle Risiko ist, dass eine Werbeanzeige zusammen mit schädlichen Inhalten angezeigt wird.

Facebook hat zudem große Fortschritte im Einsatz von Künstlicher Intelligenz gemacht, um unzulässige Inhalte zu erkennen und schneller zu entfernen, bevor Nutzer:innen sie melden. Die neuen Systeme sind heute schon in der Lage, Hassrede in 45 Sprachen auf all unseren Plattformen zu erkennen. Das macht die Prüfung nicht nur effizient, sondern sorgt auch dafür, dass sich Prüfer:innen den schädlichsten Inhalten nicht selbst aussetzen müssen.

Falschinformationen werden gekennzeichnet

Wenn die KI-Modelle potenzielle Falschinformationen identifiziert haben, werden diese den unabhängigen Faktenprüfer:innen unter den zu prüfenden und zu bewertenden Beiträgen angezeigt. Sobald ein Inhalt von den Faktenprüfer:innen als falsch eingestuft wird, reduziert Facebook nicht nur dessen Verbreitung, sondern kennzeichnet ihn mit einem Warnhinweis und informiert die Menschen, indem sie mehr Kontext erhalten. Nutzer:innen ist der geprüfte Inhalt weiterhin zugänglich, er wird jedoch weiter unten im News Feed sowie mit einem Warnhinweis angezeigt. Auch Duplikate und ähnliche Versionen des Beitrags werden dank leistungsstarker Modelle entdeckt und entsprechend gekennzeichnet.

„Diese Methode hat sich als äußerst effektiv erwiesen“, so Ramanathan. „Unsere interne Studie hat gezeigt, dass Inhalte mit Warnhinweisen auf Falschmeldungen in 95 Prozent der Fälle übersprungen und nicht angesehen wurden.“ Seit Beginn der Pandemie wurden besonders viele Fehlinformationen zu medizinischen Themen geteilt. Facebook und Instagram haben weltweit mehr als 16 Millionen Inhalte entfernt, weil diese laut Gesundheitsexperten nachweislich falsche Informationen zu Covid-19 oder Impfungen enthielten.

Mehr Insights zum Vorgehen von Facebook gegen Fehlinformationen zur Covid-19-Impfung bietet die Videoreihe „Let me explain“, die komplexe Themen des sozialen Netzwerks einfach erklärt.

Falschinformationen auf Facebook

Faktenchecker kennzeichnen Falschinformationen auf Facebook. (Screenshot: t3n).

Harte Nuss für KI: Deepfakes und Hass-Memes

Zu den neuesten Herausforderungen für die KI gehören Deepfakes und Hass-Memes. Deepfakes sind künstlich veränderte Videos und Bilder, die mit bloßem Auge nicht als Fälschungen erkennbar sind. Hass-Memes nutzen Bild und Text, die jeweils für sich harmlos scheinen. In Kombination ergeben sie jedoch eine verletzende oder diskriminierende Botschaft.

Beide Medientypen erfordern auf ihre Weise ein umfangreiches und differenziertes Training für die künstliche Intelligenz. In seiner Hateful-Memes-Challenge und Deepfake-Challenge lässt Facebook KI-Forscher gegeneinander antreten, die Beiträge anderer Teams zu erkennen und zu blocken. Die entwickelten Strategien sollen auch helfen, die schädlichen Beiträge auf offener Bühne zu bekämpfen.

Sicher kommunizieren dank KI

Die freie Rede sieht Ramanathan durch die Arbeit der Moderatoren und der KI nicht eingeschränkt, im Gegenteil. „Wir vertreten den Standpunkt, dass die Menschen auf unseren Plattformen offen ihre Meinung sagen dürfen“, so der Forscher. „Das gilt allerdings nicht, wenn sie damit andere verletzen oder ihnen Schaden zufügen. Auch Unternehmen sollen sich beteiligen können, ohne mit schädlichen oder falschen Inhalten in Verbindung gebracht zu werden.“ Das oberste Ziel sei daher, eine Kommunikationsplattform bereitzustellen, die so sicher wie möglich ist. „KI ist nicht die einzige Lösung für problematische Inhalte“, sagt Ramanathan. „Aber sie gibt uns die Möglichkeit, schneller und effektiver darauf zu reagieren als mit menschlicher Arbeitskraft allein.“

Wie die Prüfung von Beiträgen und das Factchecking auf Facebook funktionieren, ist auch Gegenstand einer Folge im Podcast Das Facebook Briefing, in der Max Biederbeck, Head of the German Fact-Checking Team der AFP, und Guido Bülow, Head of News Partnerships Central Europe bei Facebook, die Grundlagen der Zusammenarbeit diskutieren. Reinhören lohnt sich.

Facebook und Instagram sind dank KI-Unterstützung Plattformen, auf denen Nutzer und Werbetreibende gemeinsam hilfreich und sicher kommunizieren können. Lerne bei Facebook AI Research, wie Open-Source-Tools und neuronale Netzwerke dabei helfen, auch künftig Orte zu schaffen, in denen Menschen sich gerne aufhalten.

Mehr über KI erfahren

Dein Marketing, dein Boost fürs Business. Wie du deine Zielgruppen begeisterst und gelungene Markenerlebnisse bietest, zeigen dir die Beiträge im Themenspecial von Facebook for Business. Darin liest du unter anderem:

Mehr zu diesem Thema

Bitte schalte deinen Adblocker für t3n.de aus!

Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung

Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder