Zopolan Profile picture
8 Nov, 42 tweets, 11 min read
1/n @ChrisStoecker schreibt oft tolle Kolumnen. Dabei bereitet er z.B. Diskussionen aus der amerikanischen Netzwelt für den deutschen Medienmainstream auf. Gelingt dies in der aktuellen Kolumne über die #longtermism-Denkweise? Ein Thread. spiegel.de/wissenschaft/l…
2/n Stöcker stellt einen Teil der #effectivealtruism-Bewegung dar, nämlich #longtermism. Bei "EA" geht es darum, möglichst viel Gutes zu tun. Dabei wird oft festgestellt, dass beispielsweise Spenden bei bestimmten Organisationen deutlich effektiver sind als bei anderen.
3/n Es ist dabei nicht unmöglich, dass Spenden bei manchen Organisationen 100x effektiver sind als bei anderen. Wer dazu mehr lesen möchte, kann z.B. bei effektiv-spenden.org anfangen. @effektivspenden #effektiveraltruismus
4/n Neben Evidenz-Basiertheit und nüchternem Vergleichen verschiedener Projekte gibt es eine Formel, die ganz gut beschreibt, welche Probleme EA-Organisationen für besonders wichtig halten: Importance, tractability, neglectedness.
5/n Ist das Problem wichtig? (= Hilft man vielen?) Ist es greifbar, kann man etwas erreichen? Und ist es bisher vernachlässigt, d.h. kümmern sich noch nicht allzu viele Menschen darum? Hierzu etwa ein Vortrag von Owen Cotton-Barratt:
6/n Bereits das einfache Vergleichen der Effektivität von Spenden (etwa im Bereich "global health") war in den Anfängen der EA-Bewegung ziemlich "neglected", es wurde als sehr "tractable" angesehen und war äußerst wichtig, weil es vielen Menschen geholfen hat.
7/n In weiten Bereichen ist dies noch immer so, weshalb auch noch immer sehr viele EAs im Bereich "Global Health" oder Armutsbekämpfung aktiv sind.
8/n Aber es gibt noch viele andere "Cause Areas", d.h. Bereiche, auf diese Prinzipien angewendet werden. Viele sagen beispielsweise, dass alle drei Kriterien dafür sprechen, sich für Tiere in Massentierhaltung einzusetzen.
9/n Das zeigt auch, dass vielen EAs egal ist, ob andere ihren jeweiligen Einsatz sofort für nachvollziehbar halten.
10/n Das trifft nun auch auf den Bereich des "Longtermism" zu, der in den letzten Jahren in der EA-Bewegung immer mehr Aufmerksamkeit gewinnt. Dabei geht es darum, sich für die langfristige Zukunft einzusetzen und zwar unter der Annahme, dass die Menschheit das Potential hat, ...
11/n ...noch Millionen von Jahren zu existieren, sich möglicherweise auch auf andere Planeten auszubreiten und es damit unglaublich viele Menschen (in der Zukunft) gibt, die von heutigem Handeln profitieren können.
12/n Von welcher Art von heutigem Handeln können diese zukünftigen Menschen profitieren? Zunächst einmal davon, dass man verhindert, dass die Menschheit sich selbst auslöscht. Dies dürfte ein Ziel sein, das viele unterschreiben würden.
13/n Eine der populärsten EA-Webseiten ist 80000hours.org Diese Webseite fokussiert sich darauf, Tipps zu geben, wie man möglichst viel Gutes mit seiner Karriere bewirken kann. 80000 hours ist auch eher longtermism-fokussiert...
14/n ...und betreibt einen lohnenden #podcast: 80000hours.org/podcast/
15/n Der Philosoph @tobyordoxford hat mit "The Precipice" Buch herausgebracht, in dem er argumentiert, dass sich die Menschheit in einer kritischen Phase befindet und dass es dringend nötig ist, existientielle Risiken zu reduzieren: theprecipice.com
16/n Holden Karnofsky hält die gegenwärtige Zeit für "The Most Important Century". Auch dabei geht es um das große Potential einer langen Zukunft der Menschheit, der existentielle Risken im Weg stehen. forum.effectivealtruism.org/posts/7aDGZYo3…
17/n Wie ist es mit dem #Klimawandel ? Vor allem die Extremrisiken werden von Longtermism-VertreterInnen in den Blick genommen. Etwa bei @80000Hours : 80000hours.org/problem-profil…
18/n Viele Longtermism-Vertreter halten den Klimawandel aber entweder für kein existentielles Risiko oder für nicht "neglected". Das meint, dass er zwar sehr teuer und sehr unangenehm werden könnte, aber es ist nicht plausibel sei, ...
19/n ... dass er die Menschheit auslöscht. Dass er nicht "neglected" ist meint, dass sich bereits viele andere Organisationen mit ihm beschäftigen.
20/n Unter beiden Gesichtspunkten fokussieren longtermism-VertreterInnen sich eher auf andere Themen, zum Beispiel Biowaffen oder die Gefahren künstlicher Intelligenz.
21/n Endlich, zurück zur Kolumne von @ChrisStoecker Er möchte darin #Longtermism darstellen, aber von den gerade genannten Überlegungen erfährt man als LeserIn nichts. Ziel der Kolumne scheint eher zu sein, Longtermism als verschrobene Spielerei der Superreichen darzustellen.
22/n Stöcker erwähnt Positionen der longtermists zum Klimawandel, stellt aber nicht die sie motivierenden Überlegungen dar. Denn er selbst weiß ja bereits, wie wichtig der Klimawandel ist, darum scheint es aus seiner Sicht bereits ein intellektueller Offenbarungseid zu sein, ...
23/n ... wenn man andere Dinge priorisiert. Wenn Longtermists davon ausgehen, dass Klimawandel eher kein existentielles Risiko ist, schreibt Stöcker leider nur: "da runzelt man als über das Ausmaß und die Bedrohlichkeit der Klimakrise informierter Mensch dann doch die Stirn".
24/n Der Stil, in dem die Positionen der longtermism-VertreterInnen dargestellt werden, wirkt merkwürdig pseudo-investigativ. Z.B. schreibt Stöcker, dass Will MacAskill "nicht den Eindruck" vermittle, "dass die Klimakrise zu seinen zentralen Prioritäten gehört".
25/n Was leider nicht getan wird: MacAskill nach seiner Einschätzung zu fragen.
26/n Anstatt sich mit den Argumenten für oder gegen das Longtermism-Konzept auseinanderzusetzen, verweist Stöcker auf einen "viel beachteten und diskutierten, durchaus polemischen Essay" von Phil Torres, in dem dieser Longtermism "als 'üppig finanziert und ...
27/n ...zunehmend gefährlich' bezeichnet" (aeon.co/essays/why-lon…). Daraus werden Charakterisierungen der Longtermists zitiert, aber ob sie stimmen, bleibt unklar, weil in der Kolumne keine Argumente dazu diskutiert werden.
28/n Auch ansonsten baut die Kolumne vor allem auf Assoziationen und Andeutungen auf. Beispielsweise seien das Future of Humanity Institute @FHIOxford , das Future of Life Institute @FLIxrisk und das Global Priorities Institute @GPIOxford "unbescheiden benannte" Institutionen.
29/n Unbescheiden! Wie kann sich ein Institut nur mit etwas so großem beschäftigen wie der Zukunft der Menschheit? Eine Charakterisierung, die ich über das Institut für Weltwirtschaft @kielinstitute in Kiel zum Glück noch nie gelesen habe.
30/n Stöcker erwähnt nicht nur, dass Will MacAskill "in Jeans und T-Shirt" auftritt, sondern auch, dass Facebook-Gründer, Kryptowährungs-Unternehmer, gar Leute "aus der Krypto-Szene" Geld für Longtermism spenden und auch Elon Musk dies tut. EA und Longtermism seien "eng ...
31/n verknüpft" mit "#Transhumanismus ... und anderen Zukunftsvisionen, die sämtlich vor allem nach Science-Fiction klingen." Wohlgemerkt: Sie klingen nach Science Fiction - Assoziation mit Absurdem reicht in dieser Auseinandersetzung.
32/n Das freie Assoziieren geht weiter: "Denkt man all das mit den Unsterblichkeitsfantasien von Leuten wie dem Milliardär und bekennenden Trump-Fan Peter Thiel und den Weltraumabenteuern von Superreichen wie Musk und Jeff Bezos zusammen, ergibt sich ein unangenehmes Gesamtbild"
33/n (weder von Thiel noch Bezos erklärt Stöcker, was sie mit Longtermism zu tun haben außer, dass sie Silicon-Valley-Milliardäre sind. Von Trump ganz zu schweigen.)
34/n Stöcker fragt schließlich, ob die "ultrareichen Finanziers der Longtermism-Idee daran vor allem eins mögen: dass sie eine gute Ausrede zu sein scheint, sich nicht mit dem Leid und den existenziellen Gefahren der Gegenwart beschäftigen zu müssen? Sondern lieber mit den ...
35/n ...eigenen Hobbys?" Möglich ist alles, aber es bleibt nur eine Behauptung.
36/n Danach sagt Stöcker, dass wir "im Moment" (v.a. bezogen auf Klimapolitik) "vor allem ein Problem mit ... short-termism" haben, erklärt Longtermism dann zu einem mglw. "durchaus sinnvollen Gegengewicht". (Auf seine Ausführungen zu DIskontierung gehe ich lieber nicht ein.)
37/n Zum Schluss erklärt er, alle Generationen gleich zu behandeln habe, "zu Ende gedacht, allerdings unter Umständen finstere Folgen. Denn wenn die Menschheit noch sehr lange weiter existiert und alle Leben gleich viel Wert sind, sind die Zukünftigen gegenüber den Gegenwärtigen
38/n immer in der überwältigenden Mehrheit." Was wären das für Folgen? Anscheinend eine Art Prepping im Silicon Valley.
39/n Schön an dieser Kolumne: dass die Denkweisen von #effectivelatruism und auch #longtermism dargestellt werden. Gut ist, dass einige interessante Artikel verlinkt sind, die interessierten LeserInnen die Gelegenheit geben, sich mit dieser Denkweise auseinanderzusetzen.
40/n Schade ist, dass die Kolumne selbst oberflächlich bleibt und stark den Eindruck vermittelt, dass Konzepte nicht ernst genommen werden müssen, wenn sie nach Science Fiction klingen.
41/n Besonders schade ist, dass man von der durchaus bestehenden Diskussion um #longtermism (mit echten Argumenten...) wenig erfährt. Vielleicht wäre es eine Möglichkeit, für die nächste Kolumne Menschen wie Toby Ord selbst zu fragen, ...
42/n was die besten Argumente *gegen* #longtermism sind? Denn in der #effectivealtruism-Bewegung werden auch und gerade solche Fragen für interessant gehalten.

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Zopolan

Zopolan Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Thank you for your support!

Follow Us on Twitter!

:(