„Designfehler Frau“: Warum wir den Gestaltungsprozess neu denken müssen
Designer sind bei der Gestaltung von Produkten und Dienstleistungen in hohem Maße auf Daten angewiesen. Ohne zu wissen, wie groß, schwer oder fit die Zielgruppe im Durchschnitt ist, können sie heute weder ein Auto noch einen Küchenstuhl, Laufschuh oder gar ein Medikament entwickeln. Doch oft sind die dafür verwendeten Daten einseitig – verbunden mit bedenklichen Risiken für die Gesundheit und Sicherheit von Frauen.
Um die Ungleichheiten zwischen den Geschlechtern zu bekämpfen, müssen Designer die Art und Weise, wie heute gestaltet wird, grundlegend ändern.
Der unkontrollierte Domino-Effekt von Vorurteilen, Klischees und Befangenheit
In den meisten Fällen gibt es nur Daten eines durchschnittlichen männlichen Weißen. Diese Angaben werden als weniger problematisch und kompliziert als die ihres weiblichen Pendants betrachtet. Ganz offensichtlich wird diese Praxis im Gesundheitswesen und in der Medizin: Über Jahrzehnte sind kaum Daten von Frauen in klinischen Studien eingeflossen – ein „One Size fits all“-Ansatz mit teils dramatischen Konsequenzen.
Beispiel Herzinfarkt: Wenn Frauen Symptome zeigen, die nach medizinischem Wissen weniger bekannt sind, etwa Atemnot oder Bauchschmerzen, liegt die Quote von Diagnose-Fehlern bei etwa 50 Prozent. Das ist nicht nur frustrierend, sondern auch lebensbedrohlich. Wenn Symptome von Frauen falsch eingeschätzt werden, kann das zu schwerwiegenden Krankheiten und Schmerzen, psychischem Leid und sogar zum Tod führen. Alles aufgrund von einseitigem und lückenhaftem Datenmaterial, auf dessen Basis Medikamente oder Diagnose-Richtlinien entworfen wurden.
Ähnliche Muster können wir bei der Entwicklung von künstlicher Intelligenz erkennen. Gesichts- und Spracherkennungsdienste liefern genauere Ergebnisse bei männlichen Anwendern. Das lässt sich darauf zurückführen, dass das beim maschinellen Lernen unverhältnismäßig oft mit „männlichen“ Daten trainiert wurde.
Das Beispiel zeigt, wie unzureichende Daten neue Technologien bereits im Ansatz auf den falschen Pfad führen. Denn vermutlich werden Gesichts- und Spracherkennung bald das Herzstück vieler Anwendungen sein, von der Bewerberauswahl bis hin zur Evaluierung von Einwanderungsanträgen. Die algorithmische Verzerrung könnte sich so nicht nur auf Berufsaussichten und -chancen auswirken, sondern bei der Einwanderung und im Gesundheitswesen sogar die persönliche Sicherheit und das Wohlbefinden bedrohen. Im Zuge des technologischen Fortschritts müssen Datensätze genau untersucht werden, denn maschinelles Lernen spiegelt Verzerrungen und Diskriminierungen in der realen Welt nicht nur wider, sondern setzt sie fort und potenziert sie möglicherweise sogar. Und das wird unsere Denkweise, Kultur und Verhaltensweisen nachhaltig beeinflussen.
Viele Facetten der Daten-Diskriminierung
In vielerlei Hinsicht sind wir durch unsere Erziehung und Lebenserfahrung befangen und haben Vorurteile entwickelt. Diese Vorbehalte sind fest in unserem Unterbewusstsein verankert und bestimmen 95 Prozent unseres Verhaltens. Sie sind auch Teil unserer natürlichen analytischen Fähigkeiten und helfen uns dabei, die im Alltag auf uns einströmenden Eindrücke zu verarbeiten und Muster in der Welt um uns herum zu erkennen. Aber Vorurteile, die unkontrolliert bleiben und nie hinterfragt werden, beeinträchtigen unser Urteilsvermögen und führen dauerhaft zu Diskriminierung sowie Ausgrenzung.
Es gibt mehr als 180 kognitive Vorurteile, die sich negativ darauf auswirken, wie wir andere wahrnehmen oder Entscheidungen treffen. Sie reichen von einer Tendenz zur Bestätigung, bei der wir Informationen herausfiltern, die nicht mit unseren bestehenden Überzeugungen und unserem Verständnis übereinstimmen, bis zu einem Mitläufereffekt, bei dem unser Verhalten durch die Handlungen anderer beeinflusst wird.
Wenn wir uns der Tragweite von Vorurteilen und Voreingenommenheit bewusst sind, ist es möglich sie zu erkennen und Stereotypen auch in Datensätzen zu entlarven, bevor sie in den Entwicklungsprozess einfließen und zu Kompromisslösungen führen, die letztlich negative Auswirkungen auf das Leben von Frauen haben.
Schnittmengendesign vs. Gestaltung für alle
Um die reale Welt besser darzustellen, müssen die aktuellen Forschungspraktiken weiterentwickelt werden, um integrativere, bedürfnisgerechtere Produkte, Dienstleistungen und Strategien zu entwickeln.
Ein Positiv-Beispiel für die Berücksichtigung von Daten über Verhalten und Bedürfnisse von Frauen kommt aus Schweden: Dort haben Krankenhauseinweisungen gezeigt, dass 69 Prozent der im Winter im Verkehr verletzten Personen Frauen waren. Bei der Untersuchung der Ursachen stellte sich heraus: Frauen bewegen sich anders als Männer in der Stadt. Männer pendeln meistens direkt von A nach B, Frauen hingegen betreiben über den Tag verteilt sogenanntes Trip-Chaining. Als Stockholm diese unterschiedlichen Muster bei der Schneeräumung der Straßen berücksichtigte, sank die Zahl der Unfälle um die Hälfte.
Bei der Gestaltung müssen wir damit beginnen, neben dem Geschlecht weitere Faktoren zu berücksichtigen, zum Beispiel ethnische Zugehörigkeit, Alter oder Handicaps. Das sollte für jede Stufe der Forschung und des Designs gelten, von den Stichprobenkriterien bis hin zu den verwendeten Instrumenten, die zur Analyse und Vermittlung von gewonnenen Erkenntnissen eingesetzt werden.
Damit das gelingen kann, muss klar formuliert werden, für welchen Zweck Daten erhoben werden. Nur so werden Designer in der Lage sein, in jeder Phase des Gestaltungsprozesses das geeignete Maß an Geschlechtersensibilität zu ermitteln. Sollen die Daten beispielsweise für Anwendungen in der Personalbeschaffung verwendet werden, helfen anonymisierende Merkmale der Daten, um sicherzustellen, dass Kandidaten nicht diskriminiert werden. Wird ein Anwendertest durchgeführt, liefern ein lückenloser Datensatz und eine Aufschlüsselung der Ergebnisse ein genaueres Bild.
Diese Sensibilität kann auch durch den Einsatz von diversen Teams erreicht werden. Jede zusätzliche Perspektive erleichtert es, mögliche Verzerrungen frühzeitig zu erkennen. Kreativitätstechniken wie Rollenspiele zum Durchspielen von Szenarien oder Kritikkarten, die unbewusste Denkmuster aufzeigen, können dazu beitragen, dass fehlende Perspektiven berücksichtigt werden. Diesen Ansatz für einen 360-Grad-Rundumblick kann man auch bei sich selbst bereits finden: Werfen wir einen Blick auf unsere Podcast- oder Leselisten – wie viele der Titel darauf haben uns Freunde oder Kollegen empfohlen? Die Suche nach Wissen aus verschiedenen Quellen und genaues Zuhören tragen zu kollektivem Denken und einem besseren Verständnis der Welt bei.
Die Vielfalt des Denkens und repräsentative Datensätze könnten nicht nur Machtverschiebungen in der Gesellschaft beschleunigen, sondern auch zu mehr Innovation bei den von Designern geschaffenen Regelwerken, Strategien, Produkten und Dienstleistungen führen.
Mimimimimimi ist alles was ich in diesem Artikel gelesen habe.
Was für ein unpassender Titel. Wobei der Artikel vielleicht gut war, wer weiß das schon bei wieder weggeklicktem Bait.
Sowas kann auch nur von einem Mann kommen, den es nicht betrifft. Du bist Teil des Problems.
Da ist sicher was dran, das muss anders werden. Leider sind die populärsten Beispiele falsch gewählt, weil anzuzweifeln: Die medizinische Forschung kann nur mit menschlichen Probanden tragfähige Ergebnisse liefern. Wenn also mehr Frauen bei Medikamententests usw. mitmachen würden, kämen auch genderspezifische Resultate.
Und daß dieHandys immer größer werden, weil sie für Männerhände gemacht werden, ist ein Märchen. Die wurden so, weil die Kunden immer mehr Pixel auf dem Display wollen.
Was soll Trip-Chaining sein?
Und ich bin erschrocken, dass hier in den Kommentaren es wieder in diese Richtung geht. Ja, der Titel des Artikels ist reiner Clickbait, das stimmt. Das Thema aber durchaus interessant und leider wahr, und das sage ich als Mann.