Anzeige
Anzeige
MIT Technology Review Ratgeber

Effektiver Altruismus: Was hinter der Ideologie von Tech-Bros wie Sam Bankman-Fried steckt

Sam Bankman-Fried galt als Aushängeschild des sogenannten Effektiven Altruismus. Nach dieser Ansicht können nicht alle Probleme der Welt gelöst werden. Man muss priorisieren. Daraus ergeben sich abenteuerliche Schlussfolgerungen.

Von Wolfgang Stieler
3 Min.
Artikel merken
Anzeige
Anzeige

Der FTX-Gründer Sam Bankman Fried zählte einst zu den Teh-Größen des Silicon Valleys. Derzeit ist er in Haft. (Bild: zimmytws/Shutterstock)

Sam Bankman-Fried meldet sich aus dem Gefängnis auf der Plattform X zurück – nach zwei Jahren Funkstille. Der Gründer der Kryptobörse FTX ist zu 25 Jahren Haft verurteilt, da er Gelder von Kund:innen veruntreut haben soll. In seinem jüngsten Post nimmt er Bezug auf die Massenentlassungen, die gerade in den USA durch das von Elon Musk geführte Department of Government Efficiency (DOGE) vorgenommen werden. Er habe Mitgefühl mit den Regierungsangestellten. Auch er habe seit den letzten (hundert) Tagen seine E-Mails nicht gecheckt. Und er könne bestätigen, dass arbeitslos zu sein weniger entspannend ist als es aussieht. Interessant daran ist, dass Bankman-Fried einst so eines der Aushängeschilder des sogenannten Effektiven Altruismus war. Daher liefern wir einen kurzen Leitfaden, was eigentlich hinter dem Begriff steckt:

Anzeige
Anzeige

Das „knappe Gut“ Hilfe möglichst „gewinnbringend“ verteilen

Eigentlich ist Effektiver Altruismus (EA) zunächst mal nur eine Denkschule, die versucht, neoliberale Ökonomie und Ethik miteinander zu verbinden. Die Grundprämisse ist: Es gibt zu viel Elend, zu viele Probleme auf der Welt. Die können nicht alle gelöst werden. Wie kann das „knappe Gut“ möglicher Hilfe also möglichst „gewinnbringend“ eingesetzt werden. Daraus ergeben sich eine Reihe weiterer – zunehmend abenteuerlicher – Schlussfolgerungen.

So viel Geld wie möglich machen

Eine davon ist „Earn to Give“. Die Idee: Weil jeder Mensch nur begrenzte Zeit und Energie aufwenden kann, ist es ethisch geboten, so schnell wie möglich, so viel Geld wie möglich zu machen, um einen Teil dieses Geldes dann zu spenden. Traditionelle ethische Überlegungen wie „Finanzspekulationen werden von Gier getrieben und sind nicht in Ordnung“ werden von diesem Prinzip übergeregelt.

Anzeige
Anzeige

Denkschule zieht Tech-Bros aus dem Silicon Valley an

Daraus folgt – wenig überraschend: EA hat sich seit Anfang der 2000er vor allem im Silicon Valley zu einer Bewegung entwickelt, die über viel Geld und damit einigen Einfluss verfügt, weil sie Tech-Bros wie Peter Thiel, Elon Musk oder oben genannter Sam Bankman-Fried angezogen hat. Gleichzeitig liefert sie nicht nur organisatorische Strukturen, sondern auch einen ideologischen Kern, der das Handeln dieser Gruppe als gerechtfertigt, logisch und ethisch einwandfrei begründet.

Longtermism: Existenz der Menschheit sichern

Während sich die Bewegung zunächst auf „evidenzbasierte“ Hilfsprojekte konzentrierte, gewann zunehmend ein ideologischer Zweig an Bedeutung, der „Longtermism“ genannt wird – ein Begriff, für den es noch immer keine gute deutsche Übersetzung gibt. Die Idee dahinter: Weil in der Zukunft bedeutend mehr Menschen leben werden als bisher gelebt haben, bedeutet die Maximierung des menschlichen Glücks zunächst mal, die Existenz der Menschheit zu sichern. Denn glaubt man Nick Bostrom, liegt das Schicksal der Menschheit darin, Intelligenz im Kosmos zu verbreiten. EA steht damit in der Tradition von technischen Utopien wie dem Transhumanismus.

Anzeige
Anzeige

Was die Menschheit wirklich bedroht

Longtermism darf jedoch nicht mit langfristigem Denken verwechselt werden. Wer glaubt, dass sich aus dem Nachdenken über existenzielle Risiken ein entschiedener Kampf gegen den Klimawandel ableiten lässt, der irrt. Da der Klimawandel voraussichtlich nicht zum Aussterben der Menschheit führen wird, gilt er in EA-Kreisen nicht als existenzielle Bedrohung. Ein Atomkrieg, eine von Menschen verursachte Pandemie, der Ausbruch eines Supervulkans, kaskadierendes Systemversagen und natürlich auch eine außer Kontrolle geratene Super-Intelligenz gehören dagegen ganz sicher zu den existentiellen Krisen, und sind somit auf jeden Fall zu vermeiden – wenn die Menschheit es denn schafft. Laut KI-Pionier Geoffrey Hinton könne und werde eine entsprechend intelligente KI Menschen so manipulieren, dass sie mehr Autonomie erlangt, eine Idee, die aus dem sogenannten AI-Box-Experiment stammt, das in xrisk-Kreisen seit den 2000ern diskutiert wird.

 

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige