Tomasz Witkowski
W wykładzie O wolności Leszek Kołakowski powiedział: „Wierzyć w wolność wyboru i w tworzenie nowego można, a nawet, jak sądzę, należy; wolność jest naszym doświadczeniem elementarnym, doświadczeniem każdego; jest ono tak elementarne, że nierozkładalne na części, które dałoby się z osobna analizować, dlatego wolność może się wydawać rzeczywistością niedowodliwą. (…) Jesteśmy naprawdę sprawcami czynów, nie zaś tylko narzędziami różnych sił, jakie się w świecie ścierają, choć, oczywiście, poddani jesteśmy prawom natury. (…) Ta wolność jest zatem dana ludziom razem z ich człowieczeństwem, jest tego człowieczeństwa fundamentem, tworzy człowieka jako coś w bycie samym wyróżnionego”.
Jego słowa dość dobrze oddają stosunek naszej cywilizacji do kwestii wolności wyboru. Spostrzegamy ją jako fundament człowieczeństwa, traktując jednocześnie jako podwalinę życia społecznego. Bez przekonania o wolności wyboru bezużyteczne stałoby się pojęcie odpowiedzialności, a prawo przestałoby działać. A jednak nauka dostarcza nam od pewnego czasu dowodów na to, że wolność wyboru być może jest tylko iluzją.
Wśród świadectw pokazujących, że dotychczasowe, introspekcyjne przekonanie o celowym i dobrowolnym działaniu powinniśmy zastąpić wiedzą o mechanizmach neuropsychologicznych, znajdują się bez wątpienia wyniki eksperymentów Leona Festingera i sformułowana przez niego teoria dysonansu poznawczego, pokazująca, że niezwykle często uzasadnienia motywów naszego zachowania dokonywane są dopiero po wystąpieniu tego zachowania, a głównym celem, dla którego są formułowane, jest obrona naszego samopoczucia przed negatywnymi konsekwencjami odczuwanego braku spójności zachowań z deklarowanymi postawami. Podobnie wyniki badań Daryla Bema i teoria autopercepcji jego autorstwa pokazują, że ludzie gromadzą wiedzę na temat swoich motywów poprzez obserwację własnych zachowań i wyciąganie wniosków z tych zachowań, stwierdzając na przykład: „musiało mi się strasznie chcieć pić, jeśli wypiłem całą butelkę wody”.
Do koncepcji podważających istnienie wolnej woli i intencjonalnego działania zaliczyć należy również „hipotezę lewopółkulowego objaśniacza świata” Michaela Gazzanigi, którą sformułował, obserwując chorych z przeciętym spoidłem wielkim. U takich ludzi półkule mózgowe nie komunikują się ze sobą, funkcjonują niezależnie i chociaż obie wykonują pewną pracę, w pełni uświadamiane są tylko wyniki pracy półkuli dominującej, zazwyczaj lewej. Decyzje i działania, które spowodowane są przetworzeniem informacji i bodźców wyłącznie przez prawą półkulę, lewa półkula usiłuje racjonalizować. Stanowi wówczas rodzaj interpretatora, który wyjaśnia zachowanie, nie mając dostępu do rzeczywistych jego przyczyn i bodźców, które je wyzwoliły.
Najbardziej jednak wstrząsające dla rozumienia wolności wyboru były wyniki znamiennego w skutkach eksperymentu przeprowadzonego w 1983 roku przez Benjamina Libeta i jego współpracowników, w którym pokazali, że u badanych przez nich osób spontaniczny ruch palcem jest poprzedzany narastającą przez 550 ms aktywnością kory przedruchowej, ale świadomość woli wykonania tego ruchu następuje dopiero na około 200 ms przed ruchem. Wynik ten sugerował, że mózg zaczyna przygotowywać się do ruchu 350 ms wcześniej nim osoba badana uświadomi sobie chęć poruszenia palcem. Te proste rezultaty wstrząsnęły przypisaną człowiekowi i pieczołowicie od tysiącleci strzeżoną przez wielu myślicieli ideą wolnej woli. Dane empiryczne pochodzące z badania Libeta, jego replikacji i innych eksperymentów inspirowanych pierwszymi wynikami, zmusiły myślicieli do zrewidowania dotychczasowych poglądów na temat wolnej woli. Przyczyniły się również do opracowania przez Daniela Wegnera w 2002 roku teorii pozornego, mentalnego związku przyczynowo-skutkowego, która wyjaśnia wyniki badań Libeta, ale podważa to, co dotychczas sądziliśmy na temat intencjonalnego działania. Wegner zdefiniował w niej intencję jako rodzaj konstruktu umożliwiającego agentowi zrozumienie własnego zachowania w kategoriach przyczynowych, gdy jego stan mentalny (intencja) jawi mu się jako przyczyna, a działanie jako skutek.
Wcześniej, zanim Libet przeprowadził eksperymenty, odkrycia z zakresu etologii, psychologii ewolucyjnej i neurofizjologii doprowadziły do wtargnięcia empirii w dziedzinę moralności, będącej do niedawna, w znacznej mierze za sprawą „gilotyny Hume’a”, wyłączną domeną religii i filozofii. Domeną ochranianą przed wpływami nauki nie tylko przez zwolenników religijnego sposobu rozumienia świata, lecz również przez naukowców. Oto w jaki sposób wypowiadał się na ten temat znany ewolucjonista Stephen Jay Gould: „Nauka próbuje dokumentować fizyczny charakter naturalnego świata i tworzyć teorie, które koordynują i wyjaśniają owe fakty. Religia działa w równie ważnym, lecz zasadniczo odmiennym obszarze ludzkich dążeń, znaczeń i wartości. Są to zagadnienia, które nauki przyrodnicze mogą rozjaśnić, lecz nigdy nie zdołają ich rozwiązać”.
Czy rzeczywiście? Dzisiaj wiemy dużo więcej o pochodzeniu zasad moralnych niż mógł wiedzieć Hume. Odkrycie prawa dostosowania łącznego przez Williama Hamiltona, a także tak zwanych emocji moralnych i zmysłu moralnego, związanych ściśle z rozwiązywaniem dylematów moralnych i szereg innych, bardziej lub mniej doniosłych odkryć spowodowały, że zaczęliśmy patrzeć na moralność jako efekt działania procesów ewolucji i badać ją tak, jak badamy inne jej wytwory. Zbyt dużo o niej wiemy, aby pozostawić ją wyłącznie w magisterium religii, jak postulował to między innymi Gould. Dlatego też, wbrew podobnym postulatom, powstają i rozwijają się takie nauki, jak choćby neuroetyka, która czerpie dowody wyłącznie z empirii.
Zarówno eksperymenty Libeta, jak i empiryczne doniesienia na temat biologicznych źródeł moralności, wdzierają się na obszary dotychczas zarezerwowane wyłącznie dla filozofii. W ich świetle ostrze gilotyny Hume’a nie wydaje się tak ostre, jak w XVIII wieku. Podejście do etyki Georga Edwarda Moore’a z jego błędem naturalistycznym dzisiaj jawi się jako idealistyczne i dosyć naiwne, a dominująca w filozofii doktryna rozłączności nauki i moralności chwieje się w posadach. Odkrycia nauk empirycznych ponownie stawiają przed nami szereg pytań zasadniczej wagi, na które, zdawałoby się, znaleźliśmy odpowiedzi już wcześniej. Jaki jest zakres odpowiedzialności człowieka za dokonywane przez niego czyny? Czy moralność jest tworem ewolucyjnym? Czy prawa natury stanowią punkt odniesienia dla zasad moralnych? Czy powinny być brane pod uwagę przy dokonywaniu ocen moralnych? Czy nasze systemy społeczne i prawne zostały zbudowane na poprawnych założeniach?
Społeczność naukowa ciągle z dużą ostrożnością, a nawet nieufnością, traktuje omawiane odkrycia nauk empirycznych, a na ich uwzględnienie w konstrukcji prawa czy organizacji życia społecznego z pewnością przyjdzie jeszcze długo poczekać. Uzasadnienie tej rezerwy wydawać by się mogło zrozumiałe, zważywszy, że entuzjastyczne podejście do wprowadzania w życie społeczne nowych, i nie do końca sprawdzonych, koncepcji skutkowało w przeszłości takimi katastrofami, jak ta, którą w okresie międzywojennym spowodowała eugenika. Z drugiej strony jednak ta sama społeczność zdaje się być pozbawiona takiej rezerwy w stosunku do wielu pseudonauk, które przenikają mury akademii i roszczą sobie prawa do wyrokowania o ważnych elementach naszej rzeczywistości. Co gorsza, wiele z nich narodziło się właśnie w murach akademii.
Jeden z największych filozofów nauki, Karl Popper, w swojej wizji rozwoju nauki postrzegał uczonych jako bezstronnych badaczy zmierzających w stronę horyzontu wiedzy obiektywnej i prawdziwej. Dzisiaj, w obliczu danych empirycznych z jednej strony, a „sukcesów” rozwojowych pseudonauki z drugiej, obraz funkcjonowania tej społeczności z trudem wpisuje się w wizję wielkiego filozofa. Wiele powszechnie występujących w nauce zjawisk falsyfikuje wizję Poppera. Należy do nich z pewnością fenomen nazwany przez samych naukowców mianem junk science. Polega on na produkowaniu publikacji naukowych, których nikt nigdy nie czyta i nie cytuje. Liczby ilustrujące zjawisko „nauki śmieciowej” przemawiają do wyobraźni. Jak pisał Maciej Grabski, 20 procent wszystkich artykułów ukazujących się w czasopismach znajdujących się na najbardziej chyba w świecie naukowym cenionej liście filadelfijskiej nie jest nigdy, nawet raz, od momentu publikacji cytowana. Jeśli od tego odejmiemy tak powszechne wśród naukowców autocytowania i cytowania pojedyncze, często grzecznościowe, wynikające z poczucia wzajemności lub wdzięczności, to naukowy śmietnik rośnie w oczach. Biorąc pod uwagę fakt, że naukowcy powinni cytować wszystkie teksty, na których opierają swoją pracę, oznacza to, że artykuł, który nigdy nie został zacytowany, nie miał żadnego wpływu na jakiegokolwiek naukowca na świecie, a co za tym idzie, nie miał również jakiegokolwiek wpływu na rozwój nauki. Ta niecytowana produkcja społeczności naukowej pozostaje niesprawdzona, niezreplikowana i prawdopodobnie przez nikogo nawet nieczytana. Indeksy cytowań dla prac zamieszczanych w czasopismach naukowych spoza listy są dużo gorsze.
Ilustracją tego problemu jest wypowiedź A.K. Wróblewskiego: „Warto tu przytoczyć wyniki pewnego statystyka, który zbadał 53 tys. wypożyczeń z działu naukowego British Library, która prenumerowała wtedy 9120 czasopism uznanych za najważniejsze. Okazało się, że nikt nigdy nie sięgnął do ponad połowy z nich (4800), a dalsze 2274 czasopisma były konsultowane tylko raz”.
Wizji Poppera przeczy również powszechność oszustw polegających na fabrykowaniu fałszywych wyników badań, poprawianiu wyników niepotwierdzających hipotez, wybiórczym analizowaniu danych, plagiatach itp. Angielski miesięcznik „New Scientist” zapytał 70 tys. swoich czytelników w 1976 roku, czy wiedzą cokolwiek na temat przypadków oszustw naukowych albo czy podejrzewają kogoś o celowe manipulowanie danymi. W odpowiedzi otrzymano 204 wypełnione kwestionariusze. 92% tych, którzy je wypełnili i przesłali, stwierdziło, że wiedzą bezpośrednio lub pośrednio o oszustwie w nauce. Inna, nieco rzetelniejsza próba pomiaru powszechności występowania nieuczciwości naukowej została przeprowadzona na kilkutysięcznej populacji pracowników naukowych różnych szczebli w USA. Wynik jest szokujący. Aż 33% wszystkich indagowanych, anonimowych respondentów przyznało się do popełnienia w ciągu ostatnich trzech lat co najmniej jednego z listy dziesięciu zachowań uznanych za naruszenie zasad uczciwości naukowej. Warto przy tym zauważyć, że wyniki pochodzą z kraju, gdzie od lat prowadzi się intensywne działania zapobiegawcze, mające przeciwdziałać nieuczciwym zachowaniom naukowców. Można przypuszczać, że w Polsce lub w innych krajach, gdzie nie ma rozwiniętych mechanizmów kontroli i zapobiegania nieuczciwości naukowej, sytuacja może być dużo gorsza.
W naukach społecznych szczególnie niekorzystne zjawiska, które oddalają nas od idealistycznej wizji Poppera, to powszechny brak replikacji przeprowadzonych wcześniej badań, nadmierna i obronna specjalizacja, chroniczny brak prób syntezy i teorii szerokiego zasięgu i stałe oddalanie się badań od praktyki. Za sprawą opisanych przyczyn dużo bliższe rzeczywistości może zdawać się wyobrażenie o procesach rozwoju nauki, którego autorem był inny gigant filozofii nauki – Thomas Kuhn. Jego zdaniem uczeni skupieni wokół znanych sobie i uznanych powszechnie paradygmatów przypominają obrońców twierdzy, których wysiłki kierowane są przeciwko tym, którzy próbują owe paradygmaty zmienić, najczęściej za pomocą wyników badań empirycznych.
Wizja Kuhna jednak bardzo trafnie opisuje zachowania uczonych, którzy poświęcili się pseudonauce. Tutaj łatwo znaleźć przykłady uporczywości w obronie pozbawionych wartości paradygmatów. Bezprecedensowym przykładem takiej obrony jest próba utrzymania przy życiu – wbrew doniesieniom z badań – psychoanalitycznego sposobu wyjaśniania zachowania ludzi. Obrońcy tego paradygmatu, pomimo miażdżącej krytyki już od ponad stu lat, podejmują wysiłki zmierzające do jego konserwacji. Ostatnimi czasy są to zupełnie pozorne próby przekształcenia psychoanalizy w neuropsychoanalizę. Próby te najczęściej polegają na wyszukiwaniu anegdotycznych doniesień z badań, które w sposób cząstkowy potwierdzają całościową koncepcję funkcjonowania psychiki stworzoną przez Freuda. Te same badania nierzadko falsyfikują podstawowe założenia psychoanalizy.
Innym przykładem opisywanej przez Kuhna uporczywości jest homeopatia. Koncepcja stworzona ponad 200 lat temu przez Hahnemanna, sprzeczna z całą znaną nam dzisiaj wiedzą zgromadzoną przez chemię i medycynę, poszukuje teoretycznych uzasadnień gdzie popadnie, najchętniej w fizyce kwantowej. Przykładem takich poszukiwań jest hipoteza pamięci wody. Najbardziej chyba znanym zwolennikiem poglądu o zapamiętywaniu przez wodę substancji leczniczej, z którą miała styczność, jest francuski immunolog Jacques Benveniste. Według niego cząsteczki związków chemicznych emitują specyficzne promieniowanie elektromagnetyczne, a następnie tę zakodowaną informację o ich właściwościach przejmuje woda, w której substancja była wstrząsana podczas kolejnych, zgodnych z procedurą homeopatyczną, rozcieńczeń. Benveniste nie tylko wykonał szereg różnych eksperymentów, których jednak jak dotąd nigdzie na świecie nie udało się powtórzyć. Twierdził również, że można to zjawisko wykorzystać do przechowywania dużych ilości informacji. Jego wysiłki przyniosły mu nagrodę Ig-Nobla w 1991 roku.
Wizje Poppera i Kuhna nie mają charakteru precyzyjnej hipotezy naukowej, lecz stanowią raczej wynik syntezy ich własnych poglądów i obserwacji. Ocena ich trafności będzie z konieczności tak subiektywna, jak one same. Poddając je jednak krytyce, należałoby zaproponować wizję alternatywną, której trafności będą broniły inne przykłady z historii nauki. Moim zdaniem analogią, która najprecyzyjniej oddaje sposób funkcjonowania współczesnej społeczności naukowej, jest teoria pozornej, mentalnej przyczynowości. Według niej nieukierunkowany, niekontrolowany i rozmyty charakter procesów nerwowych jest wtórnie reinterpretowany przez umysł jako proces celowy. Podobnie nieukierunkowany i rozmyty jest charakter rozwoju nauki i pseudonauki, i analogicznie do tego, jak umysł wyjaśnia naszą rzekomą intencjonalność działań, społeczność naukowa nadaje znamiona celowości i kierunkowości zjawiskom, które mogą być wynikiem przypadku lub błędu.
Historia nauki pełna jest przykładów ilustrujących tę tezę. Niezwykle wymowną jej ilustracją jest przykład z medycyny. Na zaszczytnej liście laureatów Nagrody Nobla ciągle widnieje nazwisko Egasa Moniza. Ten portugalski neurolog, chirurg i polityk nagrodę otrzymał w 1949 roku za opracowanie „metody leczenia poważnych zaburzeń psychicznych przecięciem połączeń nerwowych płatów czołowych mózgu”, zwanej obecnie lobotomią przedczołową lub leukotomią. To on, jako pierwszy, przeprowadził w 1936 roku operacje przecięcia włókien nerwowych łączących czołowe płaty mózgowe ze strukturami międzymózgowia, których celem było usunięcie u chorych objawów pobudzenia, depresji lub napadowego lęku. Metodę rozpropagował i szeroko stosował jej wyznawca Walter J. Freeman. On sam przeprowadził ponad 2900 zabiegów, a w samych Stanach Zjednoczonych w latach 1936-1960 wykonano ich około 50 tys. W wyniku tych zabiegów niemal 60% pacjentów umierało. U niektórych, którym udało się przeżyć zabieg, niektóre objawy ustępowały lub też, wraz z jednoczesnym zanikiem odczuwania nadmiernego pobudzenia, wpadali w apatię lub całkowitej destrukcji ulegała sfera emocjonalna ich życia. Jeszcze inni wykazywali daleko idące rozhamowanie, zwłaszcza w obszarze popędów seksualnych. Większość cierpiała na padaczkę pooperacyjną oraz deteriorację osobowości. Dzisiaj chyba już nikt nie stosuje lobotomii jako metody leczenia, jej tragiczne skutki są powszechnie znane, a mimo to Komitet Noblowski nie tylko nie przyznał się do błędów, ale też odmówił odebrania Monizowi nagrody, choć taki wniosek złożyła Christine Johnson wraz z innymi osobami, których bliscy w latach 50. zostali poddani lobotomii.
Komitet Noblowski stanowi reprezentację społeczności naukowej. Jego decyzja utrzymania nagrody za lobotomię nie wpisuje się ani w wizję Poppera, ani nie broni żadnego paradygmatu. Jeśli pełni jakąkolwiek funkcję, to jest nią stworzenie iluzji celowości i kierunkowości działania społeczności naukowej tam, gdzie znaczenie miał jedynie splot przypadku i błędów.
Innym przykładem, w którym społeczność naukowa przez blisko 10 lat angażowała swoją energię w przypisanie celowości przypadkowi, było odkrycie w 1962 roku przez Nikołaja Fiediakina rzekomego polimeru wody, nazwanego poliwodą. Pomimo tego, że ówcześni uczeni dysponowali wystarczającą aparaturą i technikami analitycznymi pozwalającymi na wykrycie błędów, to jednak większa ich część potwierdzała istnienie polimeru wody i rozwijała koncepcje teoretyczne uzasadniające możliwość wystąpienia takiej formy wody. Należał do nich Leland C. Allen. Był bardzo aktywnym teoretykiem i badaczem wspierającym hipotezę poliwody. Jednak po latach pracy nad tą ułudą, jaką okazało się „odkrycie”, sam dokonał nowych obliczeń, w których zdyskredytował istnienie polimeru wody. Jego wypowiedź dość dobrze ilustruje, dlaczego procesy uzasadniania celowości działań uczonych tak często biorą górę nad krytycyzmem i sceptycyzmem, które są nieodłącznymi elementami myślenia naukowego: „Moje osobiste zaangażowanie w zjawisko poliwody poważnie umocniło moją wiarę w naukowe metody. Byłem silnie stymulowany zarówno doświadczeniem ludzkim, jak i naukowym, a uwaga skupiona na mojej pierwszej publikacji na ten temat umocniła moje przekonanie o dokonaniu prawdziwego wkładu w postępy nauki, bardziej niż to odczuwałem w przypadku innych prac badawczych uwieńczonych konwencjonalnym powodzeniem”.
Co prawda dużo krótsza, ale podobna fascynacja zjawiskiem zimnej fuzji spowodowała, że bezpośrednio po ogłoszeniu w 1989 roku przez Martina Flieschmana i Stanleya Ponsa informacji o jej przeprowadzeniu, 60 fizyków z liczących się ośrodków całego świata potwierdziło odkrycie. Rok później, kiedy zjawisko zimnej fuzji okazało się mistyfikacją, 230 fizyków, chemików i matematyków zebrało się, aby uczcić odkrycie zimnej fuzji, a w późniejszych latach kilkakrotnie jeszcze ogłaszano ponownie odkrycie sposobów na przeprowadzenie zimnej fuzji. Większość badań zawierała błędy lub oparta była na sfabrykowanych danych.
Historia nauki pełna jest podobnych przykładów, a reakcje społeczności naukowej na podobne odkrycia wskazują, że jednym z głównych celów, jakie realizują, jest uzasadnianie celowości i kierunkowości procesów rozwoju nauki. Obrona tej celowości w znacznej mierze przypomina działania naszego umysłu, które przypisują intencjonalność zachowaniom powodowanym przez niedostępne naszej świadomości czynniki.
Analiza zachowania jednostek, grup i społeczności, w tym również zachowania uczonych i społeczności naukowej, wykracza poza filozofię nauki, wkraczając w domenę nauk społecznych. Te zaś charakteryzuje unikalna właściwość, polegająca na tym, że generowane przez nie wyniki badań, koncepcje teoretyczne czy wreszcie nawet proponowane analogie i metafory mogą wpływać na badany, obserwowany czy opisywany obiekt. Dla przykładu, ogłoszenie wyników badań nad liczebnością populacji brodźca leśnego na terenie Polski w żaden sposób nie wpłynie na zachowanie tego ptaka. Ogłoszenie raportu o niskim poziomie wykrywalności przestępstw w danym kraju może przekonać bardziej bojaźliwych złoczyńców do popełnienia kradzieży lub innego występku. Emisja filmu Marsz pingwinów ani odrobinę nie zmieni zachowań tych pięknych stworzeń, ale masowe publikowanie doniesień o przemocy domowej może wpłynąć na zniesienie działających u wielu ludzi hamulców. Z czasem zawyżone pierwotnie statystyki mogą okazać się ponurą prawdą. Podobnie na zachowanie ludzi wpłynie publikowanie nieodpowiedzialnych zaleceń o konieczności rozładowania „nagromadzonej” agresji i emitowanie filmów pokazujących wzorcowe tego przykłady.
Przyjęcie przez uczonych wizji Poppera jako trafnego opisu funkcjonowania społeczności badaczy może skutkować obniżeniem wrażliwości na nieetyczne zachowania naukowców i zaniedbaniami w zakresie tworzenia efektywnych społecznych systemów kontroli nauki. Zjawisko to zresztą, jak pokazałem wcześniej, ma miejsce. Z kolei uznanie za trafny opisu Kuhna z dużym prawdopodobieństwem przyczyni się do kształtowania postaw obronnych, tworzenia podziałów pomiędzy zwolennikami różnych paradygmatów, a może nawet uniemożliwi współpracę pomiędzy przedstawicielami różnych dyscyplin. Również przejawy takiego zachowania są powszechne. Wielu przedstawicieli nauk ścisłych odnosi się z dużym dystansem do przedstawicieli nauk społecznych, traktując ich generalnie jako pseudonaukowców. Dla wielu z nich przyjęcie paradygmatu probabilistycznego opisu zdarzeń wydaje się sprzeczne z przyjętym przez nich modelem matematycznym.
Proponowana przeze mnie analogia, która może być przydatną przy opisie procesów rozwoju nauki, nie niesie ze sobą wymienionych wyżej niebezpieczeństw generowanych przez dwie poprzednie. Ponadto pozwala docenić znaczenie przypadku, zdemaskować uporczywe uzasadnianie twierdzeń wynikających z błędów i skłania do poszukiwania rzeczywistych, często ukrytych, przyczyn występowania niektórych zjawisk w nauce. Generuje jednak również zagrożenia. W tym podejściu poszukiwanie przypadkowości i demaskowanie działań „agenta” nadającego znamiona intencjonalności może również prowadzić do pozbawiania uczonych zasług, tam gdzie są one niewątpliwe. Nadmierna koncentracja na znaczeniu błędów i konieczności ich demaskowania może mieć negatywny wpływ na recepcję nowych wartościowych odkryć. Jednak permanentną cechą pracy badawczej jest sceptycyzm i krytyczne myślenie, których wielu współczesnym uczonym brakuje. Przyjęcie jako trafnej analogii pozornej, mentalnej przyczynowości procesów rozwoju nauki i pseudonauki może przywrócić znaczenie tym podstawowym atrybutom.
Wróć