Jako gatunek istniejemy na tym świecie tylko krótką chwilę. (Tak, w tym tekście będę rzucał truizmami). Gdyby dzieje całego życia na Ziemi – od powstania pierwszej bakterii do dziś – sprowadzić do jednej doby, to Homo sapiens narodziłby się w Afryce jakieś 4 sekundy przed północą. Z kolei cała spisana historia naszej cywilizacji trwałaby w tej skali 0,14 sekundy. Mrugnięcie oka. Tyle wystarczyło nam, żeby przejść od glinianych tabliczek do Chata GPT.
Ale możemy też wywrócić powyższe rozumowanie do góry nogami. Co jeżeli cała dotychczasowa historia – ze wszystkimi imperiami, religiami, ideami i wynalazkami – to zaledwie nieśmiały początek naszej przygody?
Załóż przez chwilę, że ludzkość będzie funkcjonować, dajmy na to, milion lat. Jasne, nie mam pojęcia, czy tak będzie i czy pechowo wszyscy nie wyginiemy już za miesiąc. Jednak patrząc na przykłady innych gatunków, w tym ssaków, ten milion lat wcale nie byłby jakimś ewenementem. W takim ujęciu 99% zabawy dopiero przed nami (70% jeśli uwzględnimy prehistorię).

Gdyby to była gra komputerowa, to ledwie przed momentem wyszlibyśmy z samouczka i rozpoczynali właściwą kampanię.
Nie mam nawet planów na wakacje, a powinienem myśleć o sytuacji ludzkości za milion lat?
Dożywamy średnio siedemdziesiątki, więc jako jednostki pozostajemy naturalnie zaprogramowani na myślenie krótkoterminowe. Nawet jako zbiorowości – miasta, kraje, organizacje – wciąż kiepsko nam idzie podejmowanie inicjatyw, obejmujących więcej niż kilka dekad. Zwykle bimbamy sobie od świąt do świąt, od okresu rozliczeniowego do okresu rozliczeniowego, od wyborów do wyborów, niespecjalnie interesując się tym, co czeka nasze praprawnuki.
W tym miejscu na ratunek cywilizacji przybywają longtermiści. To ci gracze, którzy zorientowali się, że nasza beztroska zabawa toczy się w trybie Ironman. Zero zapisów. Zero checkpointów. Wszystkie nietrafione, błędne i głupie decyzje już z nami zostaną. A jeżeli dopuścimy lub (co gorsza) doprowadzimy do globalnego kataklizmu – koniec zabawy. Raz na zawsze wylogujemy się z wszechświata.

Longtermizm to światopogląd zakładający, że dopiero się rozkręcamy, a nasze działania będą miały dłuuugofalowy wpływ na naszych następców. Dlatego warto byłoby nie iść przed siebie na rympał, tylko zastanowić nad kolejnymi krokami. Tak, aby możliwie wydłużyć, ale też ułatwić ludzkości dalszą rozgrywkę.
Też mi odkrycie. Każdy chciałby zapewnić swoim dzieciom lepszy świat.
Niby tak, ale diabeł tkwi w skali i szczegółach. Żeby to lepiej zrozumieć, musimy przywołać inną XXI-wieczną ideę, z której longtermizm wypączkował. Chodzi o efektywny altruizm.
Ojcem tego poglądu jest australijski filozof Peter Singer. (Swoją drogą barwna i wpływowa postać. Jego argumenty miały ogromny wpływ m.in. na rozpowszechnienie praw zwierząt). Zgodnie z jego myślą, mieszkańcy krajów rozwiniętych mają moralny obowiązek wspomagać mniej zamożne części świata. I to nie od święta, ale konsekwentnie, przez systemowe przekazywanie części dochodów na skuteczną pomoc humanitarną.
Czym efektywny altruizm różni się od tego zwykłego?
Kluczowym słowem jest tu skuteczność. Nawet jeżeli mamy dobre serduszka i szczere intencje, dokonując przelewów na ślepo, często tylko marnotrawimy środki. Singer wzywa do pomagania z głową. Każda złotówka powinna być przekazana tam, gdzie zrobi najwięcej dobrego. To filozofia racjonalnego wspierania potrzebujących, oparta na liczbach, kalkulacjach i twardych danych.

Kupienie za 20 zł pluszaka lub zestawu kolorowych baloników dla cierpiącego dziecka jest miłe. Jednak znacznie sensowniejsze będzie wydanie tych samych dwóch dych na nudną moskitierę, która ochroni kogoś w Afryce przed malarią. Albo na lekarstwa, sprzęt, edukację i tak dalej. Innymi słowy, powinien interesować nas stosunek kosztów do liczby uratowanych istnień.
Efektywny altruizm szybko zdobył sporą rzeszę fanów, zwłaszcza wśród zachodnich hipsterów, geeków z Doliny Krzemowej i anglosaskich intelektualistów. Jednym z nich był niespełna trzydziestoletni William MacAskill z Oxfordu, który poszedł w swoich rozważaniach nawet o krok dalej niż Singer.

Jego rozumowanie było następujące. Zależy nam na szukaniu optymalnych sposobów na poprawianie dobrostanu ludzkości, tak? W takim razie, należy zastosować kryterium ilościowe i kierować środki tam, gdzie wesprą potencjalnie najwięcej osób. A która grupa jest najliczniejsza? Cóż…
W tym momencie Ziemię zamieszkuje 8 miliardów osób. Od początku istnienia naszego gatunku do dziś, szacunkowo urodziło się około 100 miliardów ludzi. Z kolei, jeżeli cywilizacja uchowa się kolejne (bądźmy skromni) 10 tysięcy lat – nawet zakładając wyhamowanie przyrostu naturalnego i stabilizację populacji – na świat przyjdzie jeszcze 1,3 biliona osób. Ponad 160 razy więcej niż żyje obecnie i kilkanaście razy więcej niż narodziło się przez całą dotychczasową historię. Oczywiście liczby mogą okazać się jeszcze bardziej imponujące, zależnie od tego, jak długo przetrwamy.

W ten sposób MacAskill doszedł do wniosku, że największą grupą, o którą należy zadbać są ludzie, którzy dopiero się pojawią. To maksymalnie efektywne, ponieważ niewielkie wyrzeczenie z naszej strony, nierzadko może zaoszczędzić naszym następcom ogromnych kosztów. I odwrotnie, błąd popełniony dzisiaj, może wyrządzić nieproporcjonalne duże szkody jutro.

Tak uformowała się przewodnia myśl longtermizmu: zróbmy przysługę naszym wnukom i nie zachowujmy się jak idioci. Przede wszystkim natomiast dopilnujmy, żeby nasze wnuki w ogóle mogły się urodzić. Unikajmy zatem jak ognia wszystkiego, co mogłoby przedwcześnie zakończyć naszą przygodę.
Jak na razie longtermizm brzmi rozsądnie. Gdzie wady?
Kiedy już zdrapiesz to zdroworozsądkowe sreberko, trafisz na dość paskudny dylemat etyczny. Wyobraź sobie hipotetyczną, przerysowaną sytuację. Masz przed sobą magiczny czerwony guzik, który natychmiast unicestwi gdzieś na świecie milion ludzi. Jesteś przyzwoitym człowiekiem, więc omijasz go szerokim łukiem.
W tym momencie pojawia się jednak duszek longtermizmu i szepcze ci do ucha, że jeśli skorzystasz z przycisku, to zmniejszysz ryzyko zagłady ludzkości, powiedzmy za tysiąc lat. Jeżeli naprawdę traktujesz przyszłe życia tak samo poważnie, jak istniejące, to masz ciężki orzech do zgryzienia.

Milion ludzkich żyć dzisiaj albo ryzyko unicestwienia wielu miliardów w przyszłości. Prawdopodobieństwo kataklizmu może być malutkie i wynosić np. 0,0001%, ale stawka w tym zakładzie jest bardzo, bardzo wysoka. Na tyle wysoka, że na pewno znajdzie się radykalny longtermista, który wciśnie guzik. Kilka razy, tak dla pewności. I wierzę, że przedstawiłby interesujące argumenty na obronę tej decyzji!
Wątpliwość polega na tym, że takie teoretyzowanie sprawdza się dobrze w auli Oxfordu albo na scenie TEDx‑u. Trochę gorzej w ukraińskim mieście bombardowanym przez rosyjskiego agresora. Bo czerwone przyciski istnieją naprawdę. Może nim być chociażby decyzja polityczna o zatrzymaniu wsparcia dla broniącego się kraju, jeżeli tylko uznamy, że zapobiegnie to eskalacji konfliktu. Utrata suwerenności przez jakieś państwo nie wydaje się przecież wygórowaną ceną za odsunięcie groźby globalnej wojny jądrowej. Przynajmniej dopóki nie chodzi o twój kraj.
Na początku rosyjskiej inwazji na Ukrainę – kiedy wszyscy zastanawiali się jak zatrzymać bandytę z Kremla – grupka amerykańskich i brytyjskich naukowców opublikowała List otwarty przeciwko nieodpowiedzialnej eskalacji i stosowaniu broni nuklearnej. Zawarli w nim dość osobliwy apel: “Załóżmy, że jakiś łobuz cię uderzy. Jeśli już zdecydujesz się na stanowczą obronę, zachęcam cię, abyś nie łączył tego z pluciem mu w twarz, wyśmiewaniem jego wyglądu i prowokowaniem do wyciągnięcia broni z kabury. Niestety, w kontekście konfliktu na Ukrainie widzieliśmy wiele przypadków analogicznej eskalacji bez znaczących korzyści militarnych i prawdopodobnie dotyczy to nie tylko jednej strony”. Próbowałem sobie wtedy wyobrazić, że podobny list otrzymują polscy żołnierze w czasie kampanii wrześniowej – i nadal czuję niesmak.
Pod tekstem podpisała się cała plejada zwolenników longtermizmu oraz efektywnego altruizmu. Inicjatorem akcji był Max Tegmark, znakomity (choć nieco ekscentryczny) matematyk i kosmolog, a także prezes Future of Life Institute. (Jakby co, FLI na swojej stronie zastrzega, że nie ma nic wspólnego z ruchem longtermistów. Nic a nic).
Nie zrozum mnie źle. Również wolałbym, żeby nasz gatunek uniknął kolejnej wojny światowej, pandemii, buntu maszyn i każdego innego, jak to się zgrabnie określa, zagrożenia egzystencjalnego. Podoba mi się odległa wizja ludzkości jako gatunku międzyplanetarnego, korzystającego z napędu warp, mechów, teleportacji i deskolotek.
Obawiam się tylko, że ten fetysz dalekiej przyszłości tworzy niepokojąco rozległe pole do wypaczeń. Bo czy jest coś, czego nie dałoby się usprawiedliwić troską o los naszych praprawnuków?

Ale to może tylko mój defetyzm. Tak czy inaczej o longtermizmie trzeba mówić. Nie dlatego, że jest to światopogląd, który uwiódł paru filozofów, ale dlatego, że znalazł on również wielbicieli wśród wszechwładnych technologicznych magnatów: od Dustina Moskovitza (Facebook i Asana), przez Jaana Tallinna (Skype), aż po Elona Muska. A dobrze wiedzieć, jak rozumują ludzie, którzy realnie meblują nam rzeczywistość.
Tak jak pisałeś — w teorii założenie słuszne i szlachetne, w praktyce nistety związane a narażaniem ludzi na niekorzystne skutki podjętych decyzji (bo każda decyzja ma swoich beneficjentów, ale też poszkodowanych — nawet zamówienie pizzy z podwójnym serem na obiad). Co więcej skutki te są jak najbardziej realne dla ludzi obcenie życjących, a podejmowane w imię prawdopodobnych/możliwych korzyście w przyszłości (ale też zapewne możliwych skutków niekorzystnych).
Sytuacja trchę jak w Minoity Report, choć tam skutki były bardziej krótkoterminowe — przynajmniej dla potencjalnych ofiar, bo z pewnością nie dla potencjalnych przestępców.
Czyli w sumie jak większości światopoglądów i filozofii z chrapką na bycie formą ustroju — w teorii wszystko pięknie, w praktyce już niekoniecznie.
Australijczyk, zachodni hipsterzy, geeki z Doliny Krzemowej i anglosascy intelektualiści. Znamienne że tymi efektywnymi altruistami (zwykle na cudzy koszt) są ci którzy już są bogaci i bezpieczni. Czystym przypadkiem.
Polecam krytyczne spojrzenie na zagadnienie: https://en.m.wikipedia.org/wiki/TESCREAL
Problem takiego podejścia polega też na tym, że nie jesteśmy w stanie przewidzieć jak będzie wyglądała przyszłość nawet w krótkim okresie. Podejmowanie decyzji, które mają spłacić się za tysiące lat to ogromna pycha człowieka. My pogody na jutro nie potrafimy przewidzieć że 100% dokładnością…
Co nie znaczy, że nie powinniśmy przeciwdziałać temu, o czym już wiemy, np. zmianom klimatycznym, czy ewentualnej kolizji z asteroidą.
Ciekawy tekst, nie słyszałem wcześniej o longtermizmie. Temat aktualny pod kątem obecnej sytuacji na świecie. Z jednej strony racjonalnie poświęcamy coś, kogoś — zwłaszcza jeżeli jest nam obojętny, natomiast z drugiej strony pytanie brzmi: skąd wiemy, że decyzje, które podejmujemy i poświęcenia na które się zgodzimy (chociaż pewnie i tak nie będziemy mieli nic do gadania) będą korzystne dla ludzkości w przyszłości? I kto ma decydować co jest dobre, a co złe, i na ile będzie kierował się przyszłym interesem ludzkości, a nie swoim obecnym? Na ile takie szacunki — co będzie najlepsze, jakie jest ryzyko — są racjonalne, naukowe, a na ile to zwykłe gdybanie, które można wykorzystać chociażby politycznie. Racjonalnie, biorąc pod uwagę np. efekt motyla, przyszłe zjawiska są w dłuższej perspektywie nieprzewidywalne. Ale dobry tekst, bo pobudza do myślenia i zadawania pytań.
Ciężko przekonać ludzką chęć samorozwoju i pewnego rodzaju egoizm, by poświęcić swój komfort dla dobra kogoś, kogo nie ma jeszcze nawet na świecie i kogo nigdy nie będzie nam dane poznać. Idea sluszna, ale czy realna?
Jedyne miejsce w polskim internecie, gdzie po wyjściu z niego — pozostaje w nas refleksja — wchodzimy więc ponownie i dostajemy kolejną dawkę. Widać też, że zakładka „Ładne strony” nie bez powodu jest w pasku 🙂
Dzięki za artykuł!
Mogłem się spodziewać, że zakładki nie pozostaną niezauważone. 😀 Gwoli ścisłości folder “Ładne strony” kryje w sobie… dosłownie ładne strony. To witryny ze świetnymi layoutami i typografią, które dostarczały mi pomysłów podczas projektowania różnych rzeczy.
Ludzkość za milion lat? Śmiechu warte. Rzymianie myśleli, że ich imperium potrwa wiecznie, a skończyli jako pasza dla barbarzyńców. Nasi prawnukowie będą się co najwyżej zastanawiać, jak uruchomić starą pompę wodną, żeby przeżyć kolejny dzień w postapokaliptycznych ruinach. Wątpię, żeby ktokolwiek jeszcze pisał wtedy o „longtermizmie” – chyba że patykiem na ścianie jaskini.
To ja właśnie uważam, że to strasznie pesymistyczne podejście! Przecież rozwój technologii idzie do przodu w tempie wykładniczym. 100 lat temu nie było internetu, 200 lat temu ludzie umierali od zakażeń, a 1000 lat temu myśleli, że choroby są karą boską. Teraz drukujemy organy, mamy AI i eksplorujemy kosmos. To dopiero początek! Jeśli nie rozwalimy się sami. Dajmy sobie szansę. 🚀✨
Odpowiedzialność za przyszłe pokolenia to pojęcie mi bliskie i pewnie wielu ludziom, ale może właśnie diabeł tkwi w nazwie. Ta troska musi się odbywać w określonym kontekście, to nie może być złoty cielec, któremu oddaje się cześć. Po tym wstępie zapytam, jak w końcu z tą Ukrainą? Pomagać, czy pozwolić Rosji na osiągnięcie swoich celów w ramach ucieczki przed scenariuszem naciśnięcia czerwonego guzika? Czy to “pokojowe” rozwiązanie nie jest aby fałszywą alternatywą?
Podstawowy problem to to wspólne dobro ludzkości. Co to właściwie jest? Taki Musk chce obronić ludzkość przed lewactwem i genderem, cokolwiek to jest. Gdzie leży problem — longitermizm to w istocie kolejna odsłona skrajnego kolektywizmu. Mamy tu stawianie dobra grupy nad dobrem jednostki. Do tego ta grupa to nie po prostu zbiór jej członków, tylko jakaś oderwana od rzeczywistości abstrakcja. Coś jak z klasą robotniczą za komuny. Koło przeciętnego robotnika to to nawet nie stało.
Dziękuję za ten bardzo dobry i rzetelny opis longtermizmu. Przedstawiłeś ten pogląd w zwięzły i zrozumiały sposób oraz perfekcyjnie wypunktowałeś jego wadę.
Od siebie dodam małą złośliwość: Elon i Zuckeberg chcą dbać o ludzkość za milion lat, a tymczasem nie potrafią nawet zadbać o własne media społecznościowe.
A ja nie wierzę, że jakikolwiek miliarder troszczy się o los przyszłych pokoleń. Wszystko służy doraźnym celom. A jak nie wiadomo o co chodzi, to zawsze chodzi o pieniądze.
Ciekawy tekst, ale… Co masz do ananasa na pizzy?! 😉
Ja jak ja, ale Włosi podobno mają specjalne obozy dla entuzjastów tej kulinarnej aberracji. 😀
Życie urządzają nam politycy a oni zajmują się liczeniem “słupków”, a nie longtermizmem. Natura rozwija się wg swoich uniwersalnych mechanizmów i nie ma na to rady. Nikt nie myśli dalekowzrocznie. Życie przyszłych pokoleń jest w rękach Natury.