logo
FA 1/2022 informacje i komentarze

Jakub Z. Kosicki

Biologiczny kontekst marzenia Alana Turinga

Biologiczny kontekst marzenia Alana Turinga  1

Rys. Sławomir Makal

W roku 1937 ukazała się publikacja On Computable Numbers, With an Application to the Entscheidungsproblem, która jej autora, Alana Turinga wprowadziła w poczet największych matematyków XX wieku. Historia zapamięta go, podobnie jak polskich matematyków: Mariana Rejewskiego, Henryka Zygalskiego i Jerzego Różyckiego, jako jednego z bohaterów w walce o złamanie kodu Enigmy. Mało kto zdaje sobie sprawę, że zaproponowana przez Turinga idea maszynowego uczenia jest nie tylko podstawą kryptologii i sztucznej inteligencji, ale także jednym z głównych narzędzi współczesnej ekologii i ochrony przyrody.

Metody maszynowego uczenia i ich potomstwo, czyli sieci neuronowe, otoczyły nasze życie i nauki biologiczne z każdej niemal strony, poczynając od analiz sekwencji nukleotydowych i białek, poprzez przewidywaniu bogactwa gatunkowego w biomach, na spersonalizowanej reklamie kończąc. I choć wielu twierdzi, że dla ekologii i ochrony środowiska jest to ślepy zaułek, gdyż metody te działają jak czarna skrzynka – coś tylko wpada i wypada – i niczego nie wyjaśniają, to nie jest tajemnicą, że postępu w tej dziedzinie nie da się już zatrzymać.

O wpływie inteligentnych maszyn na nasze życie najlepiej przekonał się Garri Kasparow, który w roku 1997 przegrał w 19 ruchach partię szachów z uczącą się maszyną Deep Blue. O mocy technik maszynowego uczenia przekonało się także 50 milionów użytkowników Facebooka, których przy pomocy uczących się algorytmów poddano spersonalizowanym naciskom w trakcie kampanii wyborczej. Choć z moralnego punktu widzenia takie postępowanie wywołuje oburzenie, to patrząc na sprawę z dystansu, słuszna wydaje się w tym miejscu parafraza myśli Alfreda Nobla – „to nie metody są złe, tylko ludzkie pokusy ich zastosowania”. Te same uczące się algorytmy wykorzystane w kampanii wyborczej USA używane są obecnie przez ekologów zajmujących się przewidywaniem zjawisk w środowisku. Ich rozwój ma swoje odzwierciedlenie także w innym gałęziach ekologii – ekologii ewolucyjnej. Za sprawa filmu Piękny umysł w reżyserii Rona Howarda świat zapamięta Johna Nasha jako genialnego matematyka, który otrzymał w roku 1994 nagrodę im. Nobla z ekonomii. Ale podobnie jak w przypadku wspomnianych wyżej kryptologów mało kto zdaje siebie sprawę, że nagrodzone Noblem odkrycie z dynamiki interakcji w teorii gier jest matematycznym dowodem działania doboru krewniaczego.

Dla ekologii i ochrony przyrody maszynowe uczenie nabiera znaczenia w momencie uwolnienia przez prezydenta USA Billa Clintona systemu GPS i przekazania go do działań cywilnych. Ta, na pierwszy rzut oka niepozorna, decyzja rozpoczęła największą rewolucję w badaniach biologicznych, porównywalną do rewolucji przemysłowej z XIX wieku. Możliwość pozycjonowania i śledzenia każdego obiektu na ziemi otworzyła drogę do badań migracji zwierząt, wyznaczania korytarzy ekologicznych czy nawet racjonalnego rybołówstwa. Co kilka minut każdy skrawek ziemi omiatany jest czujnikiem, czy to laserowym, spektralnym, czy klasyczną soczewką fotograficzną. Dane uzyskiwane przy pomocy tych urządzeń dostarczają informacji o wielu aspektach otaczającej nas przyrody, są przy tym tak szczegółowe, że można określić wysokość trawy porastającej stepy Ukrainy w rozdzielczości 10 cm2, czy zawartości wody w roślinach porastających zbocze Mont-Blanc. Także pozostałości hydrofonów na Atlantyku z czasów Zimnej Wojny są dzisiaj wykorzystywane nie do śledzenia radzieckich łodzi podwodnych, lecz do badań zachowań zwierząt morskich. To właśnie te urządzenia dowiodły, że samica kaszalota z okolic Halifax w Kanadzie słyszy wołającego samca, który opływa półwysep Valdes w Argentynie.

Postęp technologiczny objawiający się mocą obliczeniową komputerów, czujnikami montowanymi na niezliczonej liczbie obiektów latających, wykrywających subtelne elementy środowiska, a także rozwój przyjaznych dla użytkowania interpretatorów języków oprogramowania spowodował, że współcześni biolodzy środowiskowi stanęli przed innym wyzwaniem niż ich naukowi dziadkowie czy ojcowie. Okazuje się, że dla dzisiejszego biologa środowiskowego nie jest już problemem mała liczba danych, tak jak to miało miejsce jeszcze 20 lat temu, a kłopotliwy zaczął być ich nadmiar. Problem urósł do tego stopnia, że nieodłącznym orężem współczesnych ekologów stały się centra przetwarzania danych, gdyż w wielu przypadkach podręczne komputery zwyczajnie sobie z tym nie radzą.

Oczywiście idea i dane to jedno, pozostaje aspekt najistotniejszy, czyli ich analiza i interpretacja. W roku 2002 od mojego ówczesnego promotora, prof. Piotra Tryjanowskiego, otrzymałem 3.5-calową dyskietkę z, jak twierdził, przyszłościowym narzędziem analizy danych biologicznych. Była to jedna z pierwszych dystrybucji znanego dziś wszystkim języka programowania R. Dziś, po prawie 20 latach, R to podstawa w każdym szanującym się ekologicznym zespole badawczym. Wszystkie nowe metody analizy wielkoskalowych danych, są od razu włączane do repozytorium R. Jego stała struktura, przyjazna pomoc, funkcje demo i example sprawią, że nawet najtrudniejsze techniki matematyczne są zrozumiałe dla matematycznych ignorantów.

Zamknięcie marzenia Alana Turninga w „pudełku” o przekątnej ekranu 15.4 cala i jednocześnie uwolnienie tego marzenia w postaci dostępności machine learning methods to jedno. Jego idea za życia nie została doceniona. Turing umarł jako ofiara ówczesnego brytyjskiego, można powiedzieć bezdusznego, jak na dzisiejsze standardy, prawa. Choć od śmierci Turinga minęło 60 lat, tak samo jak enigmatyczna była jego śmierć, tak subtelnie ukryte można znaleźć odniesienia do jego osiągnięć. Wystarczy na chwilę wcielić się w postać fikcyjnego prof. Roberta Langdona, wykreowanego przez Dona Browna, i spróbować rozszyfrować zagadkę nadgryzionego jabłka giganta technologicznego z Cupertino. Czy to tylko przypadek, czy hołd, jaki Steve Jobs złożył twórcy komputera? Prawdy nie dowiemy się zapewne już nigdy. Skojarzenie jest jednak mimowolne.

Dla biologii, tak jak dla Kasparowa i użytkowników Facebooka, maszynowe uczenie ma niestety też ciemną stronę mocy. Postęp technologiczny ułatwił nam zdobywanie danych i ich analizę, ale w większości przypadków nie wpłynął pozytywnie na ostatni element naukowej układanki – mózg badacza. Otrzymywane z metod maszynowego uczenia wyniki pozostawią olbrzymie pole do spekulacji i naukowej szarlatanerii. Wiele funkcjonujących obecnie modeli makrokelogicznych jest zupełnie pozbawiona realizmu biologicznego. Przyczyn, dlaczego tak się dzieje, upatrywać zapewne należy w „ideologii” ekologii. W ujęciu modelowym ekologia przez wiele lat stała na dwóch barykadach. Jedna reprezentowana jest przez „deterministów”, gdzie główny slogan grzmi „każdy model przy tych samych warunkach początkowych da zawsze taki sam wynik”; druga strona to „stochastycy”, dla których świętym Gralem jest dość osobliwa postać chaosu „modele oparte na tych samych danych mogą dawać różne odpowiedzi”. Często w wydawałoby się jasnych kwestiach, dotyczących np. regulacji liczebności populacji, obie grupy prowadzą debaty jakby prowadzono rozmowę o wierszu Williama Wartona Gdy słuchałem wykładu wielkiego astronoma, a nie o konkluzjach płynących z wyników modelowania.

Takie właśnie postępowanie jest główną przyczyną marginalizowania przez wielu ujęcia modelowego w ekologii. Popularne w ostatnich latach individual based-models, czy modele agentowe będące połączeniem stochastyki i deterministyki, nadal nie wystarczają do przekonania malkontentów o znaczeniu wielkoskalowych modeli w ochronie globalnej bioróżnorodności. Czy na kolejny krok połączenia modeli teoretycznych z praktyką ekologiczną będziemy musieli czekać na nowy światowy zbrojny kryzys? Przy wszystkich swoich okrucieństwach przynosi narzędzia służące nauce, z ekologią włącznie. Czy jednak wart jest swojej ceny?

Dr hab. Jakub Z. Kosicki, prof. UAM, Wydział Biologii, Uniwersytet im. Adama Mickiewicza w Poznaniu

Wróć