Effektiver Altruismus: Wie Tech-Milliardäre die Zukunft der Menschheit gestalten wollen
Philanthropen, die sich auf den Effektiven Altruismus berufen, geraten in die Kritik. Vorwurf: Sie haben mit ihren Spenden eine konservative, elitäre Agenda – und das nicht erst seit der Pleite von FTX.
Von MIT Technology Review Online
•
15 Min.
Artikel merken
Anzeige
Anzeige
Es gehört zu den paradoxen Entwicklungen der amerikanischen Geschichte, dass die erfolgreichsten Industriekapitäne der USA beim Erwerb ihrer sagenhaften Reichtümer oftmals nicht wirklich zimperlich vorgegangen sind, nur um später einen Teil ihres Reichtums großzügig für wohltätige Zwecke auszugeben. Der Stahlmagnat Andrew Carnegie beispielsweise ließ 1892 im Homestead-Streik 300 mit Gewehren bewaffnete Pinkerton-Agenten einsetzen, um Streikbrecher in eine Fabrik zu bringen – die Aktion endete in einer Schlacht mit mehreren Toten. Auf der anderen Seite finanzierte Carnegie im ausgehenden 19. Jahrhundert rund 3.000 öffentliche Bibliotheken.
Anzeige
Anzeige
Dass es auch im Hightech-Sektor aktive Philanthropen gibt, ist daher nicht erstaunlich. Im Umfeld der Silicon-Valley-Kultur hat sich allerdings eine ganz besondere Spielart der Wohltätigkeit reicher Spender entwickelt: der Effektive Altruismus (EA). Seit seiner Entstehung in den späten 2000er-Jahren versucht der Effektive Altruismus, die Frage zu beantworten: „Wie können diejenigen, die über die nötigen Mittel verfügen, auf messbare Weise den größten positiven Einfluss auf die Welt nehmen?“ Eine naheliegende Antwort besteht darin, Gelder an Organisationen zu geben, die evidenzbasierte Ansätze verwenden, um zu messen, wie viel positive Effekte Spenden haben. Da sich EA jedoch von einer akademischen Philosophie zu einer Gemeinschaft und einer Bewegung entwickelt hat, haben sich auch die Vorstellungen über den „besten“ Weg, die Welt zu verändern, weiterentwickelt.
Die Überzeugung, dass unwahrscheinliche, aber existenzielle Bedrohungen wie eine die Menschheit zerstörende KI-Revolte oder ein internationaler biologischer Krieg die dringendsten Probleme der Menschheit sind, ist heute ein wesentlicher Bestandteil von EA. Es handelt sich um eine Ideologie, die sich anschickt, die Hauptbühne zu erobern. Immer mehr Gläubige aus der Tech- und Milliardärsklasse – die vor allem männlich und weiß sind – beginnen damit, Millionen in Projekte wie den FTX Future Fund des Krypto-Milliardärs Sam Bankman-Fried und den Longview Philanthropy’s Longtermism Fund zu investieren, die sich auf theoretische Bedrohungen konzentrieren, die der Science-Fiction entstammen.
Anzeige
Anzeige
Die spektakuläre Pleite von Bankman-Frieds Kryptobörse FTX und das Gerichtsverfahren gegen ihn, das mit einer hohen Gefängnisstrafe endete, hat der Bewegung einen tiefen Schock versetzt. Bereits zugesagte Projektförderungen in Höhe von mehreren Hundert Millionen US-Dollar konnten nicht ausgezahlt werden, und in Zeitungsartikeln und Forenbeiträgen wurde diskutiert, ob die Pleite nicht sogar das Ende von EA einläuten könnte. Die wesentlichen Zutaten für den Erfolg der Bewegung sind aber immer noch vorhanden: junge, erfolgreiche Milliardäre aus der Technologiebranche mit einer Vorliebe für Daten und Mathematik sowie einem übersteigerten Bewusstsein für die eigene Wichtigkeit und eine in sich geschlossene Ideologie.
Wäre Effektiver Altruismus eine im Labor gezüchtete Spezies, hätte sie drei Elternteile: angewandte Ethik, spekulative Technologie und Philanthropie. Die philosophischen Gene von EA stammen von Peter Singers Utilitarismus und den Untersuchungen des Oxford-Philosophen Nick Bostrom zu existenziellen Bedrohungen der Menschheit. Im technischen Bereich stützte sich EA auf frühe Forschungsarbeiten über die langfristigen Auswirkungen Künstlicher Intelligenz, die am heutigen Machine Intelligence Research Institute (MIRI) in Berkeley, Kalifornien, durchgeführt wurden. Im Bereich der Philanthropie ist EA Teil eines wachsenden Trends zu evidenzbasierten Spenden, der von Mitgliedern der Neureichen des Silicon Valley vorangetrieben wird.
Anzeige
Anzeige
Die führenden Protagonisten dieser Bewegung sind durch ihre soziale, wirtschaftliche und berufliche Stellung sowie durch eine technokratische Weltanschauung miteinander verbunden: William MacAskill, ein Philosoph aus Cambridge, Toby Ord, ein Philosoph aus Oxford, Holden Karnofsky, Mitbegründer des Wohltätigkeitsbewertungsunternehmens GiveWell, und Dustin Moskovitz, ein Mitbegründer von Facebook, der zusammen mit seiner Frau Cari Tuna die gemeinnützige Organisation Open Philanthropy ins Leben rief, haben eine vernetzte Konstellation aus gemeinnützigen Organisationen, Stiftungen und Forschungseinrichtungen geschaffen.
Denn für Effektive Altruisten ist gut nicht gut genug; nur die allerbesten Projekte in den bedürftigsten Gebieten sollten gefördert werden. Bei diesen Gebieten handelt es sich nach EA-Berechnungen in der Regel um Entwicklungsländer. Persönliche Beziehungen, die jemanden ermutigen könnten, an eine örtliche Lebensmittelbank zu spenden oder an das Krankenhaus, in dem ein Elternteil behandelt wurde, sind eine Ablenkung – oder schlimmer noch: eine Verschwendung von Geld.
Anzeige
Anzeige
Das Verhältnis von „Wert“ und Kosten
Das klassische Beispiel für eine von der EA genehmigte Aktion ist die Stiftung gegen Malaria, die Moskitonetze in Afrika südlich der Sahara und anderen stark von der Krankheit betroffenen Gebieten kauft und verteilt. Der Preis eines Moskitonetzes ist sehr gering im Vergleich zum Ausmaß seines lebensrettenden Potenzials; dieses Verhältnis von „Wert“ und Kosten ist der Maßstab in der EA. Zu den anderen beliebten frühen EA-Anlässen gehören die Bereitstellung von Vitamin-A-Zusätzen und Malariamedikamenten in afrikanischen Ländern und die Förderung des Tierschutzes in Asien.
EA bietet nicht nur ein klares Regelwerk, die Gemeinschaft stellt auch eine Reihe von Ressourcen für potenzielle EA-Geldgeber bereit – darunter GiveWell, eine gemeinnützige Organisation, die eine EA-gestützte Bewertungsrubrik verwendet, um gemeinnützige Organisationen zu empfehlen; EA Funds, die es Einzelpersonen ermöglicht, an kuratierte Pools von Wohltätigkeitsorganisationen zu spenden; 80,000 Hours, eine Karriere-Coaching-Organisation; und ein lebhaftes Diskussionsforum auf effectivealtruism.org, in dem sich führende Persönlichkeiten wie MacAskill und Ord regelmäßig zu Wort melden.
Es ist schwierig, den vollen Einfluss der EA-Philosophie zu erfassen, aber 80,000 Hours schätzt, dass zwischen 2015 und 2021 46 Milliarden US-Dollar für EA-Zwecke gespendet wurden, wobei die Spenden jedes Jahr um etwa 20 Prozent steigen. GiveWell rechnet vor, dass allein im Jahr 2021 über 187 Millionen US-Dollar für Malaria-Netze und -Medikamente zur Verfügung gestellt werden; nach Berechnungen der Organisation sind das über 36.000 gerettete Leben.
Anzeige
Anzeige
Zukunftsvision des Effektiven Altruismus
Für eine wachsende Zahl von Effektiven Altruisten haben allerdings Ziele wie „KI-Ausrichtung“ oder „Biosicherheit“ inzwischen Vorrang vor Moskitonetzen und Vitamin-A-Medikamenten. „Die Dinge, die am wichtigsten sind, sind die Dinge, die langfristige Auswirkungen darauf haben, wie die Welt aussehen wird“, sagte Bankman-Fried in einem Interview Anfang des Jahres. „Es gibt Billionen von Menschen, die noch nicht geboren sind.“
Bankman-Frieds Ansichten sind von den utilitaristischen Berechnungen des Langfristdenkens beeinflusst, die das Leben auf einzelne Werteinheiten reduzieren. Nach dieser Rechnung stellen die Billionen von Menschen, die noch geboren werden, eine größere moralische Verpflichtung dar als die Milliarden, die heute leben. Jegliche Bedrohung, die künftige Generationen daran hindern könnte, ihr volles Potenzial auszuschöpfen – sei es durch Aussterben oder durch technologische Stagnation, die MacAskill in seinem Buch „What We Owe the Future“ als ebenso bedrohlich ansieht –, hat oberste Priorität.
In diesem Buch schildert MacAskill seinen eigenen Weg vom Skeptiker zum wahren Gläubigen und fordert andere auf, den gleichen Weg zu gehen. Die existenziellen Risiken, die er aufzeigt, sind konkret: „Die Zukunft könnte schrecklich sein, sie könnte autoritären Machthabern gehören, die Überwachung und KI nutzen, um ihre Ideologie für alle Zeiten festzuschreiben, oder sogar KI-Systemen, die eher nach Machtgewinn streben, als eine florierende Gesellschaft zu fördern. Oder es könnte überhaupt keine Zukunft geben: Wir könnten uns mit biologischen Waffen umbringen oder einen totalen Atomkrieg führen, der die Zivilisation zusammenbrechen lässt und von dem sie sich nie mehr erholt.“
Anzeige
Anzeige
Um sich vor genau diesen Möglichkeiten zu schützen, hat Bankman-Fried in diesem Jahr den FTX Future Fund als ein Projekt seiner philanthropischen Stiftung ins Leben gerufen. Zu seinen Schwerpunktbereichen gehören „Weltraum-Governance“, „künstliche Intelligenz“ und „Befähigung außergewöhnlicher Menschen“. Auf der Website des Fonds wird eingeräumt, dass viele seiner Wetten auf die Zukunft „scheitern werden“. Bis Juni 2022 hatte der FTX Future Fund 262 Zuschüsse und Investitionen getätigt. Zu den Empfängern gehören ein Wissenschaftler der Brown University, der langfristiges Wirtschaftswachstum erforscht, ein Wissenschaftler der Cornell University, der die Ausrichtung von KI untersucht, und eine Organisation, die sich mit der Rechtsforschung im Bereich KI und Biosicherheit befasst (die aus der EA-Gruppe von Harvard Law hervorgegangen ist).
Im Netzwerk der Wohltätigkeit
Doch Bankman-Fried ist nicht der einzige Tech-Milliardär, der sich für langfristige Ziele einsetzt. Open Philanthropy, die EA-Wohltätigkeitsorganisation, die hauptsächlich von Moskovitz und Tuna finanziert wird, hat seit ihrer Gründung 260 Millionen Dollar für die Bewältigung „potenzieller Risiken durch fortgeschrittene KI“ bereitgestellt. Gemeinsam haben der FTX Future Fund und Open Philanthropy Longview Philanthropy in diesem Jahr mit mehr als 15 Millionen US-Dollar unterstützt, bevor die Organisation ihren neuen Longtermism Fund ankündigte. Vitalik Buterin, einer der Gründer der Blockchain-Plattform Ethereum, ist der zweitgrößte Spender der letzten Zeit für MIRI, dessen Ziel es ist, „sicherzustellen, dass künstliche Intelligenz, die intelligenter ist als der Mensch, einen positiven Einfluss hat“.
Auf der Spenderliste von MIRI stehen auch die Thiel Foundation, Ben Delo, Mitbegründer der Kryptobörse BitMEX, und Jaan Tallinn, einer der Gründungsingenieure von Skype, der auch Mitbegründer des Cambridge Centre for the Study of Existential Risk (CSER) ist. Elon Musk ist ein weiterer Tech-Mogul, der sich der Bekämpfung langfristiger existenzieller Risiken verschrieben hat; er behauptete sogar, seine gewinnorientierten Unternehmen – einschließlich der SpaceX-Mission zum Mars – seien philanthropische Bemühungen, die den Fortschritt und das Überleben der Menschheit unterstützen.
Anzeige
Anzeige
Kritik und Wandel des EA
Schon bevor diese Langfristigkeit der Ziele in den Vordergrund rückte, wurde Effektiver Altruismus dafür kritisiert, dass er die Denkweise des „wohlwollenden Kapitalisten“ (wie die Philosophin Amia Srinivasan 2015 in ihrer Rezension von MacAskills erstem Buch schrieb) überhöht. Die Earn-to-Give-Philosophie – reich zu werden ist nicht verwerflich, wenn man einen guten Zweck damit verfolgt – wirft die Frage auf, warum die Wohlhabenden in einer höchst ungerechten Welt entscheiden sollten, wohin die Gelder fließen. Vor allem, wenn sie diesen Reichtum aus der Arbeit der Angestellten oder der Öffentlichkeit herausziehen, wie es bei einigen Krypto-Managern der Fall sein könnte.
„Ich bin überzeugt davon, dass Leute nicht enorme Mengen an Geld verdienen können, ohne dass dies auf Kosten anderer Menschen geht“, sagt beispielsweise Farhad Ebrahimi, Gründer und Präsident der Chorus Foundation, die hauptsächlich US-amerikanische Organisationen finanziert, die sich für die Bekämpfung des Klimawandels einsetzen, indem sie die wirtschaftliche und politische Macht auf die am stärksten betroffenen Gemeinschaften verlagern.
Das Bild des „wohlwollenden Diktators“
Ebrahimi wendet sich gegen den Ansatz von EA, gezielte Maßnahmen zu unterstützen, anstatt lokalen Organisationen die Möglichkeit zu geben, ihre eigenen Prioritäten festzulegen: „Warum sollte man nicht die Gemeinschaften unterstützen, die mit dem Geld die wirtschaftliche Macht aufbauen sollen? Stattdessen sagen einzelne Individuen: ‚Ich möchte meine wirtschaftliche Macht aufbauen, weil ich glaube, dass ich gute Entscheidungen darüber treffen werde, was ich damit machen will‘ … Das kommt mir sehr wie ein ‚wohlwollender Diktator‘ vor.“
Anzeige
Anzeige
Anhänger des Effektiven Altruismus würden auf Ebrahimis Einwände antworten, dass ihre moralische Verpflichtung darin besteht, die nachweislich transformativsten Projekte im Sinne ihres Rahmens zu finanzieren. Wenn jedoch eine kleine Gruppe von Personen mit ähnlichem Hintergrund die Formel für die kritischsten Ursachen und „besten“ Lösungen festlegt, ist es geboten, die unvoreingenommene Strenge, für die EA bekannt ist, infrage zu stellen.
„Diese Annahme, dass sie die beste Sache für die Welt berechnen werden – all diese Daten zu haben und diese Entscheidungen zu treffen –, ähnelt so sehr den Problemen, über die wir beim maschinellen Lernen sprechen, und warum man das nicht tun sollte“, sagt Timnit Gebru, ein führendes Mitglied im Bereich der KI-Ethik und Gründerin und Geschäftsführerin des Distributed AI Research Institute (DAIR), das Vielfalt in den Mittelpunkt seiner KI-Forschung stellt.
Gebru und andere haben ausführlich über die Gefahren geschrieben, die mit der Nutzung von Daten verbunden sind, die aus unterschiedlichsten Quellen stammen, ohne diese tiefer zu analysieren. Beim maschinellen Lernen führt dies zu gefährlich verzerrten Modellen. In der Philanthropie belohnt die enge Definition von Erfolg die Allianz mit dem Wertesystem von EA gegenüber anderen Weltanschauungen. Gleichzeitig benachteiligt sie gemeinnützige Organisationen, die an längerfristigen oder komplexeren Strategien arbeiten, die sich nicht in die Mathematik von EA übertragen lassen.
Anzeige
Anzeige
12 Millionen US-Dollar für die Entwurmung
So ist beispielsweise eine Studie aus dem Jahr 2004, die die Entwurmung – die Verteilung von Medikamenten gegen Parasitenbefall – zu einem der Hauptanliegen von GiveWell erhob, in die Kritik geraten. Einige Forscher behaupten, die Studie sei widerlegt. Andere konnten die Ergebnisse nicht reproduzieren, die zu dem Schluss führten, dass durch Entwurmung eine große Zahl von Menschenleben gerettet würde. Trotz der Ungewissheit, die mit dieser Maßnahme verbunden ist, hat GiveWell in diesem Jahr über seinen Maximum Impact Fund mehr als 12 Millionen US-Dollar an Wohltätigkeitsorganisationen für die Entwurmung weitergeleitet.
Die Stimmen des Widerspruchs werden lauter, je weiter sich der Einfluss von EA ausbreitet und je mehr Geld in langfristig angelegte Projekte fließt. Der CSER-Forscher Luke Kemp, der nach einigen Definitionen selbst zu den „Langfristigen“ gehört, ist der Ansicht, dass der wachsende Fokus der EA-Forschungsgemeinschaft auf der begrenzten Perspektive einer Minderheit beruht. Er ist enttäuscht von der mangelnden Vielfalt des Denkens und der Führung, die er in diesem Bereich gefunden hat. Letztes Jahr schrieben er und seine Kollegin Carla Zoe Cremer ein Paper mit dem Titel Democratizing Risk (Demokratisierung des Risikos) über die Konzentration der Gemeinschaft auf den „techno-utopischen Ansatz“. Der geht davon aus, dass die Verfolgung der Technologie bis zu ihrer maximalen Entwicklung ein unbestreitbarer Nettogewinn ist. „Es gibt eine kleine Anzahl von wichtigen Geldgebern, die eine ganz bestimmte Ideologie haben und entweder bewusst oder unbewusst die Ideen auswählen, die am meisten mit ihren Vorstellungen übereinstimmen. Man muss diese Sprache sprechen, um in der Hierarchie aufzusteigen und mehr Mittel zu erhalten“, sagt Kemp.
Das Grundkonzept der Langfristigkeit wurde laut Kemp von Rechts- und Wirtschaftswissenschaftlern in den 1960er-, 70er- und 80er-Jahren übernommen, die sich auf Generationengerechtigkeit und Umweltschutz konzentrierten – Prioritäten, die in der EA-Version der Philosophie merklich zurückgegangen sind. In der Tat ist die zentrale Prämisse, dass „zukünftige Menschen zählen“, wie MacAskill in seinem Buch von 2022 sagt, nicht neu. Integraler Bestandteil dieses Konzeptes ist jedoch der Gedanke, dass die Vergangenheit wertvolle Lehren für das heutige Handeln bereithält, insbesondere in Fällen, in denen unsere Vorfahren Entscheidungen getroffen haben, die zu Umwelt- und Wirtschaftskrisen geführt haben.
Der „Langfristismus“ sieht die Geschichte jedoch anders: als einen Vorwärtsmarsch in Richtung unvermeidlichen Fortschritts. MacAskill bezieht sich in „What We Owe the Future“ oft auf die Vergangenheit, aber nur in Form von Fallstudien über die lebensverbessernden Auswirkungen der technischen und moralischen Entwicklung. Er erörtert die Abschaffung der Sklaverei, die Industrielle Revolution und die Frauenrechtsbewegung als Beweis dafür, wie wichtig es ist, den Fortschritt der Menschheit fortzusetzen, bevor die falschen Werte von Despoten „eingesperrt“ werden. Was sind die „richtigen“ Werte? MacAskill hält sich bei der Formulierung zurück: Er argumentiert, dass „wir uns auf die Förderung abstrakterer oder allgemeiner moralischer Grundsätze konzentrieren sollten“, um sicherzustellen, dass „moralische Veränderungen auch in Zukunft relevant und robust positiv bleiben“.
Mittel zum Überleben
Wie der Philosoph Emile P. Torres in seinen Kritiken hervorhebt, ist der Klimawandel, von dem bereits heute die Unterschicht stärker betroffen ist als die Elite, kein zentrales Anliegen der Langfristigkeit. Auch wenn Millionen von Menschenleben bedroht sind, so argumentieren die Langfristigen, wird wahrscheinlich nicht die gesamte Menschheit ausgelöscht werden; diejenigen, die über den Wohlstand und die Mittel zum Überleben verfügen, können das Potenzial unserer Spezies weiter ausschöpfen. Tech-Milliardäre wie Thiel und Larry Page haben dementsprechend bereits Pläne und Immobilien, um eine Klima-Apokalypse zu überstehen.
Es lässt zudem tief blicken, dass die spezifische Liste technologiebasierter, weit entfernter Bedrohungen für die Zivilisation sich „zufällig“ mit populären Forschungsthemen der ursprünglichen EA-Kohorte deckt. „Ich bin Forscher auf dem Gebiet der künstlichen Intelligenz“, sagt Gebru, „aber zu der Schlussfolgerung zu kommen, dass man an künstlicher allgemeiner Intelligenz arbeiten muss, um das meiste Gute in der Welt zu tun, ist sehr seltsam. Das ist so, als würde man versuchen, die Tatsache zu rechtfertigen, dass man über ein Science-Fiction-Szenario nachdenken will und nicht über reale Menschen, die reale Welt und aktuelle strukturelle Probleme. Man will rechtfertigen, dass man Milliarden von US-Dollar in die Sache stecken will, während Menschen hungern.“
Große Probleme lösen
Einige EA-Führungskräfte scheinen sich bewusst zu sein, dass Kritik und Veränderung der Schlüssel zur Erweiterung der EA-Gemeinschaft und zur Stärkung ihrer Wirkung sind. MacAskill und andere wiesen ausdrücklich darauf hin, dass es sich bei ihren Berechnungen um Schätzungen handele und sie bestrebt seien, sich durch einen kritischen Diskurs zu verbessern. Sowohl GiveWell als auch CEA haben auf ihren Websites Seiten mit der Überschrift „Unsere Fehler“, und im Juni rief CEA zu einem Wettbewerb auf, bei dem im EA-Forum Kritik geäußert werden konnte; der Future Fund hat Preise in Höhe von bis zu 1,5 Millionen US-Dollar für kritische Perspektiven auf KI ausgeschrieben.
„Wir haben erkannt, dass die Probleme, die EA anzugehen versucht, sehr, sehr groß sind und wir keine Hoffnung haben, sie mit einem kleinen Segment von Menschen zu lösen“, sagt Julia Wise, Vorstandsmitglied von GiveWell und CEA Community Liaison, über die Diversitätsstatistiken von EA. „Wir brauchen die Talente, die viele verschiedene Menschen einbringen können, um diese weltweiten Probleme anzugehen.“ Wise sprach zu diesem Thema auch auf der EA Global Conference 2020 und diskutiert aktiv über Inklusion und Machtdynamik in der Gemeinschaft im CEA-Forum. Das Center for Effective Altruism unterstützt ein Mentorenprogramm für Frauen und nicht-binäre Menschen (das übrigens von Carrick Flynns Frau gegründet wurde). Laut Wise wird es auch auf andere unterrepräsentierte Gruppen in der EA-Gemeinschaft ausgeweitet. CEA hat sich ebenfalls bemüht, Konferenzen an mehr Orten weltweit zu ermöglichen, um eine geografisch vielfältigere Gruppe willkommen zu heißen. Diese Bemühungen scheinen jedoch in Umfang und Wirkung begrenzt zu sein; die öffentlich zugängliche Seite von CEA zu Vielfalt und Integration wurde im Oktober zum ersten Mal seit zwei Jahren aktualisiert. Da die technisch-utopischen Grundsätze der Langfristigkeit einen vorderen Platz in EAs Raketenschiff einnehmen und ein paar milliardenschwere Spender den Weg in die Zukunft vorgeben, könnte es zu spät sein, die DNA der Bewegung zu ändern.
Trotz des Science-Fiction-Glanzes ist Effektiver Altruismus heute ein konservatives Projekt, das seine Entscheidungsfindung hinter einem technokratischen Glaubenssystem versteckt und auf einer kleinen Gruppe von Einzelpersonen basiert.
EA ist jedoch nicht die einzige wohltätige Bewegung, die auf politisches Handeln setzt, um die Welt umzugestalten. Das ganze philanthropische Feld hat sich in die Politik begeben, um mehr Wirkung zu erzielen. „Wir haben eine existenzielle politische Krise, mit der sich die Philanthropie auseinandersetzen muss. Andernfalls werden viele ihrer anderen Ziele nur schwer zu erreichen sein“, sagt Callahan von Inside Philanthropy, wobei er eine andere Definition von „existenziell“ verwendet als MacAskill. Während EA ein klares Schema für wohltätige Spenden anbietet, ist die politische Arena eine größere Herausforderung.
Politik und Zukunft des EA
Geld kann zwar Berge versetzen, und da EA größere Plattformen mit größeren Geldbeträgen von Milliardären und Insidern der Tech-Industrie steuert, wird der Reichtum einiger weniger Milliardäre wahrscheinlich auch weiterhin die Anliegen und Kandidaten von EA unterstützen. Aber wenn die Bewegung darauf abzielt, die politische Landschaft zu erobern, könnten die EA-Führer feststellen, dass ihre Botschaften nicht bei den Menschen ankommen.
Denn die müssen mit lokalen und aktuellen Herausforderungen wie unzureichendem Wohnraum und Ernährungsunsicherheit leben. Die Ursprünge der EA in der akademischen Welt und in der Tech-Industrie als hochtrabender philosophischer Plan zur Verteilung von ererbtem und institutionellem Reichtum mögen die Bewegung so weit gebracht haben, aber dieselben Wurzeln könnten ihre Hoffnungen auf eine Ausweitung ihres Einflusses künftig eher behindern als unterstützen.
Dieser Artikel stammt von der Journalistin Rebecca Ackermann.
Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.
Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen,
aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere
Finanzierung sehr wichtig.
Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌
Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.
Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht.
Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung
von
Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird.
Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer.
Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Kommentar abgeben
Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.