Effektiver Altruismus: Was hinter der Ideologie von Tech-Bros wie Sam Bankman-Fried steckt

Der FTX-Gründer Sam Bankman Fried zählte einst zu den Teh-Größen des Silicon Valleys. Derzeit ist er in Haft. (Bild: zimmytws/Shutterstock)
Sam Bankman-Fried meldet sich aus dem Gefängnis auf der Plattform X zurück – nach zwei Jahren Funkstille. Der Gründer der Kryptobörse FTX ist zu 25 Jahren Haft verurteilt, da er Gelder von Kund:innen veruntreut haben soll. In seinem jüngsten Post nimmt er Bezug auf die Massenentlassungen, die gerade in den USA durch das von Elon Musk geführte Department of Government Efficiency (DOGE) vorgenommen werden. Er habe Mitgefühl mit den Regierungsangestellten. Auch er habe seit den letzten (hundert) Tagen seine E-Mails nicht gecheckt. Und er könne bestätigen, dass arbeitslos zu sein weniger entspannend ist als es aussieht. Interessant daran ist, dass Bankman-Fried einst so eines der Aushängeschilder des sogenannten Effektiven Altruismus war. Daher liefern wir einen kurzen Leitfaden, was eigentlich hinter dem Begriff steckt:
Das „knappe Gut“ Hilfe möglichst „gewinnbringend“ verteilen
Eigentlich ist Effektiver Altruismus (EA) zunächst mal nur eine Denkschule, die versucht, neoliberale Ökonomie und Ethik miteinander zu verbinden. Die Grundprämisse ist: Es gibt zu viel Elend, zu viele Probleme auf der Welt. Die können nicht alle gelöst werden. Wie kann das „knappe Gut“ möglicher Hilfe also möglichst „gewinnbringend“ eingesetzt werden. Daraus ergeben sich eine Reihe weiterer – zunehmend abenteuerlicher – Schlussfolgerungen.
So viel Geld wie möglich machen
Eine davon ist „Earn to Give“. Die Idee: Weil jeder Mensch nur begrenzte Zeit und Energie aufwenden kann, ist es ethisch geboten, so schnell wie möglich, so viel Geld wie möglich zu machen, um einen Teil dieses Geldes dann zu spenden. Traditionelle ethische Überlegungen wie „Finanzspekulationen werden von Gier getrieben und sind nicht in Ordnung“ werden von diesem Prinzip übergeregelt.
Denkschule zieht Tech-Bros aus dem Silicon Valley an
Daraus folgt – wenig überraschend: EA hat sich seit Anfang der 2000er vor allem im Silicon Valley zu einer Bewegung entwickelt, die über viel Geld und damit einigen Einfluss verfügt, weil sie Tech-Bros wie Peter Thiel, Elon Musk oder oben genannter Sam Bankman-Fried angezogen hat. Gleichzeitig liefert sie nicht nur organisatorische Strukturen, sondern auch einen ideologischen Kern, der das Handeln dieser Gruppe als gerechtfertigt, logisch und ethisch einwandfrei begründet.
Longtermism: Existenz der Menschheit sichern
Während sich die Bewegung zunächst auf „evidenzbasierte“ Hilfsprojekte konzentrierte, gewann zunehmend ein ideologischer Zweig an Bedeutung, der „Longtermism“ genannt wird – ein Begriff, für den es noch immer keine gute deutsche Übersetzung gibt. Die Idee dahinter: Weil in der Zukunft bedeutend mehr Menschen leben werden als bisher gelebt haben, bedeutet die Maximierung des menschlichen Glücks zunächst mal, die Existenz der Menschheit zu sichern. Denn glaubt man Nick Bostrom, liegt das Schicksal der Menschheit darin, Intelligenz im Kosmos zu verbreiten. EA steht damit in der Tradition von technischen Utopien wie dem Transhumanismus.
Was die Menschheit wirklich bedroht
Longtermism darf jedoch nicht mit langfristigem Denken verwechselt werden. Wer glaubt, dass sich aus dem Nachdenken über existenzielle Risiken ein entschiedener Kampf gegen den Klimawandel ableiten lässt, der irrt. Da der Klimawandel voraussichtlich nicht zum Aussterben der Menschheit führen wird, gilt er in EA-Kreisen nicht als existenzielle Bedrohung. Ein Atomkrieg, eine von Menschen verursachte Pandemie, der Ausbruch eines Supervulkans, kaskadierendes Systemversagen und natürlich auch eine außer Kontrolle geratene Super-Intelligenz gehören dagegen ganz sicher zu den existentiellen Krisen, und sind somit auf jeden Fall zu vermeiden – wenn die Menschheit es denn schafft. Laut KI-Pionier Geoffrey Hinton könne und werde eine entsprechend intelligente KI Menschen so manipulieren, dass sie mehr Autonomie erlangt, eine Idee, die aus dem sogenannten AI-Box-Experiment stammt, das in xrisk-Kreisen seit den 2000ern diskutiert wird.