Mariusz Karwowski
W najbardziej optymistycznym scenariuszu, z kwietnia, fala zachorowań miała wygasać w lipcu. W innym mowa jest o milionie zainfekowanych, ale przy szybkim odchodzeniu od środków bezpieczeństwa liczba ta rośnie nawet sześciokrotnie. Kolejny wariant nie pozostawia złudzeń: sytuacja ustabilizuje się najwcześniej za dwa lata, czyli po pojawieniu się szczepionki. To nie wróżenie z fusów ani patrzenie w szklaną kulę, lecz wnioski wynikające z wybranych modeli matematycznych wskazujących kierunek rozwoju pandemii, zarówno w kontekście globalnym, jak i lokalnym. W minionych miesiącach powstało ich bez liku. Nasze Ministerstwo Zdrowia korzysta z czterech. Model MOCOS z Politechniki Wrocławskiej skupia się na tym, jak wirus przenosi się w sieciach społecznych, np. między gospodarstwami domowymi. Naukowcy z Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego pokazują w swoich (SEIR i SEIR-stochastic), jak ściśle z wygaszaniem epidemii sprzężona jest liczba testów wykonywanych każdego dnia. Z kolei w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego UW sprawdzono jeszcze inny aspekt – czy i w jakiej formie lockdown jest skuteczny oraz jak kwarantanna w określonych miejscach w kraju wpływa na rozwój epidemii.
– Trzeba pamiętać, że model nie jest rzeczywistością. To konstrukcja myślowa oparta na paradygmacie matematycznym, który jest opisem pewnych cech rzeczywistości. Chodzi o to, żeby za jego pomocą opisać najistotniejsze cechy jakiegoś zjawiska, fenomenu, czegoś, co się zdarza w świecie realnym – tłumaczy dr Marek Michalewicz, dyrektor ICM.
We współczesnym modelowaniu wyróżnia się dwa odrębne nurty i akurat w przypadku epidemii oba wyraźnie zaznaczyły swoją obecność. Jedna grupa to modele generatywne, które za pomocą wzorów i dokonywanych na ich podstawie wyliczeń pomagają zrozumieć ukryte mechanizmy rzeczywistości, jej własności, po to, aby przewidzieć dany efekt, pozostający w kręgu zainteresowania naukowców. Ale są też modele, które abstrahują od rzeczywistości, nie dotykają jej, opierają się jedynie na zbiorach danych i nie wnikając w ich naturę, opisują zależności między nimi. Wykorzystywane są m.in. w rozwiązaniach z zakresu sztucznej inteligencji czy uczenia maszynowego.
– Nasz zespół pracuje na tym pierwszym rodzaju modeli. Polega to na tym, że kierując się najlepszą wiedzą, intuicją, przy użyciu matematyki i dynamiki układów złożonych, postulujemy pewne rzeczy: to zachodzi w ten sposób, a to w inny. Ponieważ tych założeń jest bardzo dużo, siłą rzeczy nie wszystkie mogą być empirycznie sprawdzone. W takim modelu epidemiologicznym nie opisujemy wirusa, tylko społeczeństwo – tłumaczy dr Franciszek Rakowski, kierownik prac nad modelem ICM.
Jego rdzeniem jest wierne odzwierciedlenie struktury kontaktów społecznych w Polsce. Opisuje zatem wirtualne społeczeństwo, statystycznie równoważne temu realnemu. Też obejmuje około 38 mln obywateli, różnych pod względem płci, wieku, połączonych w tzw. konteksty, czyli gospodarstwa domowe, szkoły, zakłady pracy… Każdy człowiek jest w nim pojedynczą cząsteczką, bytem obliczeniowym, który się przemieszcza, spotyka z innymi i w ten sposób potencjalnie reprodukuje wirusa. To tzw. model agentowy. Bardzo duży, uwzględniający wiele aspektów geoprzestrzennych, nie jest łatwo go skonstruować. Pomysł metodologiczny na model jest podstawą działania. Matematycy, informatycy, obliczeniowcy muszą podchodzić do tego ze świadomością, że aby odzwierciedlić dany aspekt rzeczywistości, trzeba mieć konkretne dane. Jeśli ich brak, model nie powstanie.
W ICM wprowadzono trzy rodzaje danych, które dotyczą: struktury socjodemograficznej kraju, przebiegu choroby oraz przebiegu epidemii, a więc rejestrowane przypadki, przebywający na kwarantannie itd. To ogromne ilości informacji, pochodzących m.in. z Głównego Urzędu Statystycznego czy serwisu LandScan. Do ich przetworzenia niezbędny jest cały sztab ludzi, ale przede wszystkim duże moce obliczeniowe. W ICM wykorzystują do tego superkomputer Cray XC40 o mocy ponad 1 petaflopa.
– Twierdzenie, że im więcej danych, tym lepszy model, jest nieuprawnione. Można zassać całą masę takich, które nie mają żadnego znaczenia i nic nie zmienią. Za to powiedzenie, że im więcej właściwie wyselekcjonowanych danych, tym model lepszy, jest już jak najbardziej na miejscu. I w tym właśnie przejawia się cały kunszt modelarza, żeby ocenił, których danych i w jaki sposób użyć – wyjaśnia dr Rakowski, przywołując przykład modelu zachowania ludzi, w którym uwzględnienie koloru włosów czy oczu nie jest absolutnie konieczne. Za każdym razem decyzja o tym, które aspekty włączyć, a które pominąć, pozostaje w gestii modelarza.
Główną zaletą modelu epidemicznego przygotowanego przez ICM jest możliwość przewidzenia skutków hipotetycznych działań administracyjnych. Modelując w miarę dokładnie strukturę społeczną, da się bowiem nie tylko zobaczyć, w jaki sposób wirus transmitowany jest w konkretnej populacji, ale i zasymulować, jaki wpływ na rozwój epidemii będzie miało otwarcie bądź zamknięcie szkół, granic czy określonych regionów. Co ciekawe, model przebiegu COVID-19 oparty jest na innym, stworzonym w ICM już przeszło dekadę temu na potrzeby epidemii grypy. Próbowano wówczas badać, jak zachowują się nowe szczepy wirusa wywołującego tę chorobę. Teraz postanowiono wrócić do tamtego rozwiązania, bo mimo różnic –czas inkubacji koronawirusa to czternaście dni, jedna osoba może zarazić przeciętnie pięć następnych – mechanizm rozprzestrzeniania się obu chorób jest taki sam: przenoszone są drogą kropelkową. Sięgnięto także po jeszcze jeden model – podróży, które obywatele odbywają po Polsce. W takim wykorzystywaniu jednych modeli do tworzenia czy uzupełniania innych nie ma niczego zaskakującego. W przypadku zjawisk rozwijających się w czasie to wręcz konieczność, by utrzymać skuteczność modelu.
– Im bardziej badamy epidemię, tym więcej rzeczy jest do opisania i włączenia do modelu. W nauce raczej nie ma zastosowania teoria mówiąca, by traktować ją jak mapę pokrywającą dane terytorium i jeśli je dobrze opiszemy, to dzieło można uznać za skończone. To raczej nadmuchiwany cały czas balon: eksploracja pola badawczego przynosi ciągle nowe tematy – tłumaczy dr Rakowski i dodaje, że jeśli wirus zacznie mutować, a w populacji będzie odporność tylko wobec pewnych jego szczepów, to wtedy będzie trzeba wprowadzić model mutacji i model odległości antygenowej, które podpowiedzą, jaka jest podatność na zachorowanie w zależności od różnicy pomiędzy szczepami dwóch organizmów.
Zdaniem naukowców z UW korzystanie z kilku modeli rozwoju epidemii jest ze wszech miar słuszne. Mimo współpracy między ośrodkami, świadomie nie zdecydowano się na uwspólnianie wyników tych prac. Gdyby bowiem w którymś zespole pojawił się błąd, obarczony nim mógł być wówczas cały model. A tego chciano uniknąć. W końcu określenie „modelowa rzeczywistość”, opisujące idealny stan rzeczy, dla badaczy zajmujących się tą materią ma zgoła odmienne znaczenie.
– Zdajemy sobie sprawę, że żaden z tych modeli nie jest absolutną wyrocznią i dobrze, że wszystkie nie zbiegają się do jednego. Jeśli mamy cztery modele wiodące i będą one dawały podobne przewidywania, to będzie to bardziej wiarygodne niż gdyby było jedno wnioskowane z supermodelu – ocenia dr Rakowski.
A własności predykcyjne to kluczowa cecha modeli matematycznych, bez której ich wartość jest znikoma. Ba, korzystanie z nich może skończyć się w… więzieniu. Kilka lat temu głośno było o indyjskich meteorologach obwinianych za to, że nie przewidzieli nadejścia cyklonu, który okazał się zabójczy dla kilkudziesięciu osób. Po trzęsieniu ziemi we Włoszech na cenzurowanym byli sejsmolodzy, którzy też przecież, obok urządzeń monitorujących drgania, korzystają z modeli matematycznych.
W drugą stronę też to działa. W Australii opracowano swego czasu związek chemiczny, który okazał się efektywny w leczeniu grypy. Sprawdzono to właśnie za pomocą modelu, który posłużył do odkrycia mechanizmu zapobiegania w przedostaniu się wirusa do organizmu. Modelować można także morfogenezę roślin. Metoda zwana systemem Lindenmayera umożliwia przewidzenie kształtu, jaki roślina przyjmie w dorosłej formie. Taki model pokazuje, jak dorodne będzie drzewo za kilkadziesiąt lat, jak na jego wzrost wpłynie inne, które zasłoni światło, albo ograniczony dopływ czynników odżywczych do korzenia.
– Potęga modelowania i nauk obliczeniowych bierze się stąd, że symulujemy zjawiska w dowolnej skali: od rozmiaru Wszechświata do poziomu molekularnego, a nawet składowych cząstek elementarnych. Wszystko można przełożyć na liczby, a jeśli wyniki się potwierdzą i są wartościowe, może to zapewnić sławę, a czasem nawet i bogactwo – śmieje się dyr. Michalewicz.
Modele mogą być konstruowane na podstawie obserwowanych i powtarzalnych następstw przyczynowo-skutkowych, wyrażanych poprzez prawa fizyczne lub matematyczne formuły wiążące ze sobą różne składowe procesu albo korelacje wyekstrahowane z Big Data (na tym oparta jest sztuczna inteligencja, ale i np. w medycynie czy epidemiologii naukowcy często posługują się takim podejściem). W życiu dochodzą do tego jeszcze koincydencje, czyli różnego rodzaju przypadki, które z naukowego punktu widzenia są niczym innym, jak wyjątkiem od reguły. W społecznej świadomości ich znaczenie bywa jednak wyolbrzymiane.
– Kiedy przechodzę pod drabiną i nagle złamię nogę, to mimo że oba te zdarzenia nie mają ze sobą związku, ludzie i tak łączą jedno z drugim. To jest podstawa zabobonu, w którym przypadki marginalne urastają do prawideł – przekonuje dyrektor ICM.
W kierowanej przez niego jednostce nie ma mowy ani o wróżeniu z fusów, ani o zaglądaniu do szklanej kuli. Wszystko opiera się na twardych danych, a samo modelowanie daje tyle możliwości, jak żadna inna metoda poznawcza. No, może oprócz eksperymentu, ale ten z kolei nie zawsze da się zastosować. Jak zobaczyć powstawanie wszechświata? Albo zmiany klimatyczne za sto lat? W laboratorium tego zrobić się nie da. Można jedynie modelować. Oczywiście pewna doza krytycyzmu jest wskazana, ale nie odrzucenie a priori.
– W historii nauki pierwszym stosowanym podejściem była analiza, która rozbiera rzeczy na czynniki pierwsze. Z czasem zaczęliśmy się przesuwać w drugą stronę i robić syntezę modeli. Teraz doszliśmy do modeli wieloskalowych. Komputery dają nam fantastyczne możliwości, czemu z nich nie korzystać – zachwyca się dyr. Michalewicz.
W ICM o potencjale tkwiącym w algorytmach wiedzą nie od dziś. Ich chlubą jest wprowadzony pod koniec ubiegłego wieku i utrzymywany operacyjnie do dziś numeryczny model prognozy pogody, obejmujący m.in. temperaturę, opady, ciśnienie, siłę wiatru i zachmurzenie. Wiele osób nie wyobraża sobie wyjścia z domu bez zajrzenia do serwisu meteo.pl. Ale i pandemię SARS-CoV-2 też przewidzieli. Już w 2018 roku zespół dr Anety Afelt alarmował na łamach „Frontiers in Microbiology” o tym, że w Azji Południowo-Wschodniej może rozwinąć się zagrażający człowiekowi nowy typ koronawirusa pochodzenia odzwierzęcego.
Wróć