Dwa fundamentalne założenia "naukowego ateisty"
Gdyby ktoś zapytał mnie co jest fundamentem absolutnym dla „naukowego ateisty”, to odpowiedziałbym bez namysłu: 1) indukcja i 2) probabilizm. Bez tych dwóch rzeczy „ateista naukowy” po prostu nie egzystuje. Przy czym zaznaczam, że nie zawsze możesz spotkać „naukowego ateistę”. Możesz też spotkać ateistę, który ignoruje naukę lub nie jest ona dla niego kompletnie istotna (a przynajmniej udaje, że tak jest). Ale tylko teoretycznie, z praktycznego punktu widzenia sytuacje te są bowiem tak ekstremalnie rzadkie, że można uznać, iż nie spotkasz w ogóle ateisty wojującego tego typu. Nie przypominam sobie żebym spotkał jakiegoś ateistę odrzucającego lub ignorującego naukę. Każdy polemizujący ze mną ateista wcześniej czy później zaczynał bronić „nauki” jak Częstochowy. Przy czym doprecyzujmy, że ateista tak naprawdę nie broni i nie posługuje się nauką. Wykorzystuje on jedynie wypaczony obraz nauki, którym jest pewna wulgarna jak na obecne standardy wersja tak zwanego scjentyzmu. W niniejszym tekście atakuję więc nie tyle samą naukę, ile po prostu prymitywny scjentyzm, którym ateista posługuje się jako orężem. Należy to bardzo mocno rozróżnić.
Tak więc indukcja i probabilizm to coś, bez czego wojujący „ateista naukowy” w zasadzie nie egzystuje w polemice z teistą. Nawet nie wystartuje. Apologeta teistyczny powinien więc położyć szczególny nacisk na zdobycie jak największej ilości krytycznej wiedzy o tych dwóch zagadnieniach. Dlaczego właśnie indukcja i probabilizm? Przyczyna jest prosta i przyjrzyjmy się pewnemu powtarzanemu jak mantra obiegowemu sądowi ateistycznemu: nauka zbadała już 99,99% Wszechświata i nie znalazła tam Boga. Prawdopodobieństwo, że Bóg schował się w tym pozostałym 0,01% Wszechświata jest więc ekstremalnie niskie i można zasadnie przyjąć, że Boga nie ma.
Takie jest założenie wyjściowe większości znanych mi „naukowych ateistów”. Nie trzeba być specjalnie bystrym aby dostrzec tu indukcję i probabilizm już na dzień dobry. Przy pomocy indukcji „ateista naukowy” uogólnia ten niewielki wycinek Wszechświata, jaki zbadała nauka, na prawie całość Wszechświata (owe 99,99%).
Na samym początku zauważmy, że jeśli Wszechświat jest nieskończony, jak się współcześnie zakłada wśród fizyków, to nie ma mowy o zbadaniu 99,99% Wszechświata przez „naukę”. W tym wypadku nie wiemy nawet czy zbadaliśmy 0,01%. Jest więc dokładnie odwrotnie niż mówi nam „naukowy ateista”, który po prostu oszukuje nas już na wstępie. Skąd on w ogóle bierze sobie te 99,99% zbadanego rzekomo przez naukę Wszechświata? Właśnie z indukcji. Pewien wycinek uogólnia on na całość. Wnioskowanie to jest jednak absolutnie bezpodstawne. Nie mamy żadnych logicznych podstaw aby domniemywać, że element, który oznaczymy jako S, będzie się zachowywał jak wszystkie pozostałe elementy zbioru, które możemy oznaczyć jako Sn. Zacytujmy w tym miejscu pewne fragmenty z Wikipedii:
„Wymogu całkowitej weryfikacji oraz możliwości falsyfikacji nie spełniają jednak uniwersalne zdania (prawa) nauki (nie można zweryfikować zdania z kwantyfikacją ogólną, np. Wszyscy ludzie są śmiertelni, bowiem, w tym konkretnym przykładzie, nic nie wiemy o przypadkach przyszłych)” (Wikipedia, hasło Justyfikacjonizm, stan na listopad 2017).
„Mały kwantyfikator (egzystencjalny, szczegółowy) z reguły pozbawia twierdzenia możliwości ich falsyfikacji. Natomiast duży kwantyfikator (ogólny, generalny) uniemożliwia często ich weryfikację. Twierdzenia ściśle ogólne, w tym prawa i złożone z nich teorie naukowe, nie dają się nigdy zweryfikować, ze względu na to, że ich zakres stosowalności jest czasoprzestrzenne nieograniczony. To oznacza, że nie można uzasadnić prawdziwości twierdzeń ściśle ogólnych w całym zasięgu ich domniemanej – zakładanej przez uczonych – stosowalności. Powyższa trudność bierze się stąd, że chcąc zweryfikować jakieś twierdzenie ściśle ogólne, np. „wszystkie istoty żywe są śmiertelne” lub „wszystkie obiekty fizyczne grawitują”, należałoby przebadać cały (być może nieskończony) Wszechświat i ustalić, że żadna istota żyjąca lub żaden obiekt fizyczny nie naruszają odnośnego twierdzenia. Aby sfalsyfikować jakieś twierdzenie czysto egzystencjalne (np. twierdzenie „istnieją pegazy”) trzeba by – podobnie jak w przypadku weryfikacji twierdzeń ściśle ogólnych – przebadać cały Wszechświat i stwierdzić w tym przypadku, że żaden z jego obiektów nie jest pegazem. W nauce np. nie można uzasadnić, że nie istnieje Bóg z uwagi na niefalsyfikowalność twierdzeń czysto egzystencjalnych. Uczony starający się dowieść, że coś nie istnieje, przestaje być uczonym. […] Weryfikacja praw i teorii, zawierających najistotniejsze wyniki badań naukowych, nie jest możliwa, ponieważ niewykonalne jest przebadanie całego Wszechświata w celu potwierdzenia ich prawdziwości. Uwaga ta dotyczy także wszystkich twierdzeń ściśle ogólnych, gdyż ich zasięg czasoprzestrzenny jest nieograniczony” (Wikipedia, hasło Uzasadnianie twierdzeń naukowych, stan na listopad 2017, kursywa od mnie).
Karl Popper konkludował:
„Stary naukowy ideał episteme – absolutnie pewnej, dowodliwej wiedzy – okazał się mrzonką. Wymóg obiektywności naukowej w sposób nieunikniony prowadzi do tego, że każde twierdzenie nauki musi pozostać na zawsze tymczasowe. Może ono zostać potwierdzone, lecz każde potwierdzenie jest relatywne wobec innych twierdzeń, które same z kolei są tymczasowe” (K. Popper, Logika odkrycia naukowego, PWN, Warszawa 1977, s. 225, kursywa ode mnie).
Warto tu przy okazji zauważyć na marginesie, że nawet jeśli przyjęlibyśmy, że nauka zbadała już 99,99% Wszechświata, to z tego wcale nie wynika, że Bóg musiałby się skryć w pozostałych zaledwie 0,01% Wszechświata. Nasz Wszechświat może być bowiem zaledwie mikronową częścią jakiejś dużo większej rzeczywistości i wtedy upada owo 0,01% jako pozostały wąski zakres, w którym Bóg mógłby się schronić. Nawet to założenie „naukowego ateisty” jest wątpliwe. I nawet jeśli zgodzilibyśmy się w drodze ostatecznego kompromisu, że Bóg ukrył się gdzieś w 0,01% Wszechświata, to myślę, że całkiem duże byłoby to 0,01%. Niżej jeszcze wrócę do koślawego szacowania istnienia Boga przez ateistów przy pomocy ich inwalidzkich prób stosowania zasad probabilistyki.
Tak więc niemożność logicznego uzasadnienia indukcji jest druzgocąca dla „naukowego ateisty”. Nie może on stwierdzić nic o całym Wszechświecie na podstawie kilku eksperymentów naukowych. W tym wypadku eksperymenty te mówią wyłącznie coś tylko o sobie. Nawet milion eksperymentów naukowych nic tu nie zmieni ponieważ każdy kolejny eksperyment może unieważnić poprzednie milion eksperymentów. Przeszłość nie jest żadnym gwarantem powtarzalności się w przyszłości i nie da się stworzyć tu pomostu za pomocą logiki. Skąd wiemy, że przyszłość będzie taka jak przeszłość? Bo do tej pory przyszłość była taka jak przeszłość. Ale przecież to jest uzasadnianie czegoś za pomocą tego samego, co ma właśnie zostać uzasadnione. Możemy to wnioskowanie powtarzać bez końca i nigdy nie wyjdziemy poza błędne zapętlenie polegające na tym, że uzasadniamy indukcję przy pomocy tej samej indukcji. Każda próba uzasadnienia, że przyszłość będzie taka jak przeszłość skończy się błędnym kołem lub regresem do nieskończoności gdyż wciąż będzie uzasadnianiem tego samego przez to samo. Jest to słynny problem Hume’a.
Gdy już „naukowy ateista” zda sobie sprawę w dyskusji, że nie przeskoczy problemu związanego z uzasadnieniem swych indukcyjnych postulatów, to wtedy wycofuje się na inne pozycje i zaczyna odwoływać się z reguły do „probabilizmu”. Probabilizm ma rzekomo uprawdopodobnić twierdzenia „ateisty naukowego” i załatać jego argumentację w tych miejscach, w których ateista poległ na swych indukcyjnych pozycjach. Od tej pory nie będzie on już twierdził, że to „z nauki wynika, że Boga nie ma”. Teraz to właśnie „probabilizm” ma uczynić czymś „wysoce prawdopodobnym” to, że Boga nie ma.
„Probabilizm” nie jest jednak żadnym wyjściem i powiela w sobie tylko te same problemy, które ma indukcjonizm. Aby „ateista naukowy” mógł cokolwiek zaatakować przy pomocy „probabilizmu”, znów musi założyć indukcję, czyli to, że przeszłość rozszerzy się na przyszłość lub jakiś wycinek danej próbki rozszerzy się na całość określonej dziedziny ogólnej. Weźmy choćby klasyczny i prosty przykład z rzutem monetą, po którym również widać, że zastosowany jako szacowanie zawiera w sobie nadal mnóstwo założeń indukcyjnych. „Prawdopodobieństwo” wyrzucenia orła lub reszki w kolejnym rzucie wynosi ½. Tak się tradycyjnie przyjmuje we wszelkich znanych mi modelach „prawdopodobieństwa”. Aby jednak tak było znowu musimy założyć indukcyjnie, że przyszłość będzie taka jak przeszłość. Ale przecież wiemy już, że to założenie jest tak naprawdę z sufitu. Przyszły los monety wcale nie jest „zerojedynkowy” w proporcji 50/50. Nie możemy przecież w żaden sposób logicznie wykluczyć również tego, że po podrzuceniu moneta zawiśnie już na stałe w powietrzu, zamaże swoje oznaczenia lub nawet rozpłynie się w nicość z jakiegoś nieznanego nam jeszcze powodu w świecie fizycznym. Jest to jak najbardziej logicznie możliwe i wnioski te pozostaną te same bez względu na to czym zastąpimy monetę – może to być choćby kostka do gry. „Naukowy ateista” zaczyna w tym momencie z reguły oponować, że „prawdopodobieństwo” tego jest „ekstremalnie niskie” ponieważ nie zdarzyło się jeszcze nikomu w przeszłości żeby moneta zawisła w powietrzu lub zupełnie rozpłynęła się. Ale takie veto znowu jest oparte na indukcyjnych nawykach z nieaktualnej już przeszłości, które są zupełnie bezzasadne, jak już wiemy.
Dlaczego „naukowy ateista” uważa, że „prawdopodobieństwo” innego scenariusza z monetą niż wypadnięcie orła lub reszki jest „ekstremalnie niskie”? Jest tak właśnie dlatego, że mniej lub bardziej świadomie ulega on indukcyjnej „intuicji” opartej na przyzwyczajeniu, która podpowiada mu, że „prawdopodobieństwo” czegoś wzrasta wraz z ilością powtórzeń. Skoro jak dotąd po podrzuceniu monetą nie realizował się inny scenariusz niż wypadnięcie orła lub reszki, to „prawdopodobieństwo” innego biegu wydarzeń po każdym kolejnym podrzuceniu monety wydaje mu się coraz mniejsze. Jednak to tylko złudzenie i można wykazać to właśnie przy pomocy tego samego przykładu z monetą. Wyobraźmy sobie mianowicie taką sytuację, że udało nam się wyrzucić 100 razy pod rząd orła. Z punktu widzenia indukcyjnej analizy przeszłości scenariusz ten wydaje się nam mało prawdopodobny bo raczej nikomu z nas coś takiego się jeszcze nie przydarzyło. Ale załóżmy, że teraz się wydarzyło: po podrzuceniu monety w górę sto razy otrzymaliśmy za każdym razem orła. Jest to jak najbardziej możliwe. Jakie wtedy będą szanse na wyrzucenie orła w kolejnym rzucie? Nadal ½. Prawdopodobieństwo wyrzucenia orła w kolejnym rzucie wcale nie wzrosło wraz z ilością powtórzeń. Indukcyjne rozumowanie, że prawdopodobieństwo czegoś wzrasta wraz z ilością powtórzeń, jest błędne. Teoretycznie możliwe jest nawet to, że orzeł będzie wypadał za każdym razem w nieskończoność, tak samo jak możliwe jest to, że będziemy dostawać orła i reszkę na przemian w różnych ciągach.
Dlatego właśnie Rudolf Carnap poniósł porażkę wraz ze swoją zasadą znaną jako zasada nierówności. Zasada ta indukcyjnie zakładała właśnie, że „prawdopodobieństwo” czegoś, z początku zerowe lub bliskie zeru, wzrasta wraz ilością powtórzeń tego czegoś, na przykład powtórzeń potwierdzenia jakiejś hipotezy naukowej. Odwołam się w tym miejscu jeszcze raz do Wikipedii:
„Przy akceptacji tezy, że indukcyjne uzasadnienie prawa lub teorii przez przesłanki polega na zwiększeniu jego prawdopodobieństwa początkowego, problemem uprawomocnienia indukcji nazywa się poszukiwanie takiej teorii prawdopodobieństwa indukcyjnego, w świetle której nierówność Carnapa nazwać można prawdziwą. Chodzi tu przede wszystkim o to, by wykazać, że istnieje nie prowadzący do sprzeczności sposób przyporządkowania sprawdzanym indukcyjnie hipotezom prawdopodobieństwa początkowego różnego od zera. Należy w tym miejscu zauważyć, że nie istnieje metoda niesprzecznego przyporządkowywania początkowego prawdopodobieństwa różnego od zera wszystkim godnym uwagi hipotezom i teoriom. Zgodnie z teorią prawdopodobieństwa indukcyjnego prawdopodobieństwo początkowe wszelkich praw i teorii naukowych jest równe lub bliskie zeru dla każdego, dostatecznie dużego, uniwersum a zatem żadna ilość zgodnych z nim wyników obserwacji nie jest zdolna zwiększyć ich początkowego prawdopodobieństwa i zbliżyć go do jedności. Nierówność Carnapa nie jest zatem nigdy spełniona. Głównie za sprawą wysiłków K.R. Poppera okazało się jednak, że niezależnie od dostępnych świadectw empirycznych wszystkie teorie mają zerowe prawdopodobieństwo. Konsekwencją tego jest sąd, że wszystkie teorie są nie tylko w takim samym stopniu nieudowodnialne, ale i nieprawdopodobne” (Wikipedia, hasło Justyfikacjonizm, stan na listopad 2017, kursywa od mnie).
Przy okazji tego cytatu wyszło na jaw kolejne pospolite oszustwo „ateistów naukowych”, którzy twierdzą z reguły, że „prawdopodobieństwo” teorii naukowych jest bliskie 100%, zaś „prawdopodobieństwo” istnienia Boga jest bliskie zeru. A tymczasem okazuje się, że to właśnie prawdopodobieństwo wszystkich hipotez naukowych jest zerowe, co jest swego rodzaju przewrotną ironią losu. Widzimy w takich momentach jak daleko od rzeczywistości grawitują „naukowi ateiści” ze swoimi fantazjami.
Tak więc ilość powtórzeń nie zwiększa prawdopodobieństwa tego, że coś nastąpi w przyszłości. Takie częste rozumowanie indukcyjne u „ateistów naukowych” jest po prostu błędne. Każdy kto tak rozumuje popełnia przy okazji błąd logiczny znany jako Odwrotny paradoks hazardzisty.
Nawet gdyby udało się ustalić, że istnienie Boga jest bardzo mało prawdopodobne, to i tak nie wykluczałoby to Jego istnienia. Zdarzenia o bardzo niskim prawdopodobieństwie występują nawet wokół nas (na przykład wygrane na loterii, istnienie każdego z nas z osobna jako wyjątkowego indywiduum, czy nawet wyjątkowe istnienie świata, który też jest jednorazowym wydarzeniem). W tym wypadku ateista nadal nie wykluczyłby w żaden poważny sposób istnienia Boga, stosując swoje naciągane „obliczenia” procentowe. Wnioskowania probabilistyczne nie są rozumowaniami dedukcyjnymi, a tym samym pewnymi. To jaki otrzymamy wynik przy ich pomocy zależy od wielu założeń, które przyjmiemy na wstępie. Nie wspominając też o tym, że jest wiele różnych metod wyliczania prawdopodobieństwa i zastosowanie ich do samych siebie pokazuje, że same są nieprawdopodobne.
Zagadnienie rachunku prawdopodobieństwa nie może być odniesione do Boga skoro poprawne wyliczenia w tej kwestii domagają się określenia zbioru podstawowego Ω, będącego zbiorem wszystkich możliwych zdarzeń elementarnych danego doświadczenia losowego, jak i określenia zbioru A zdarzeń elementarnych sprzyjających zajściu danego zdarzenia. W przypadku Boga nie da się określić żadnego z obu tych zbiorów, a więc tym samym nie da się również stwierdzić, że istnienie Boga jest „obarczone małym prawdopodobieństwem”. Sugerując, że istnienie Boga jest „mało prawdopodobne” ateista opiera się więc wyłącznie na swojej subiektywnej intuicji i niczym co jest poparte jakimś obliczeniem w tym miejscu.
Przedstawiłem wyżej dwa bezwzględne fundamenty rozumowania „ateisty naukowego”, który z reguły atakuje przy ich pomocy teizm: indukcjonizm i probabilizm. Oba te fundamenty są w zasadzie ściśle indukcyjne ponieważ „ateista naukowy” nawet w przypadku „probabilizmu” nie jest w stanie uwolnić się od rozumowania indukcyjnego. Apologeta teistyczny polemizujący z „naukowym ateistą” powinien mieć więc silną świadomość tego jak istotne dla wojującego ateisty jest z reguły błędne wnioskowanie indukcyjne. Bez tego rozumowania ten ostatni nie wykona w zasadzie żadnego ataku, nie tylko na teizm, ale na dowolny inny światopogląd, który uzna za „zabobon”. Tym bardziej więc jest wskazane aby apologeta teistyczny interesował się zwłaszcza tym obszarem zagadnieniowym, który został nakreślony powyżej.
Jan Lewandowski, listopad 2017