Mariusz Karwowski
Myszy było najwięcej – przeszło 81 tysięcy. Szczurów blisko trzykrotnie mniej. Ryb policzono 19 tysięcy. Popytem cieszyły się też króliki, norki, bydło, konie, ptaki, koty, psy… W sumie w 2018 roku do badań naukowych wykorzystano w Polsce ponad 153,4 tys. zwierząt. W całej Europie liczba ta każdego roku przekracza 12 milionów. Służą do testowania m.in. nowych substancji mających być podstawą leków czy detergentów.
– Z powodzeniem do tych badań można by zastosować metody alternatywne – przekonuje dr Agnieszka Gajewicz-Skrętna.
Jest chemoinformatyczką. Zaczynała wprawdzie od chemii, ale dziś już nie wyobraża sobie jej bez połączenia z informatyką. Zresztą określanie tego, czym się zajmuje, jedynie przez pryzmat tych dwóch dyscyplin nie daje pełnego obrazu. Interdyscyplinarność chemoinformatyki rozpościera się bowiem także na matematykę, statystykę, chemometrię, toksykologię, a nawet inżynierię materiałową. To właśnie na styku tych nauk działają badacze stosujący w chemii metody komputerowe.
Początkowo służyły one jedynie do projektowania nowych farmaceutyków. Za pomocą algorytmów tworzono wirtualne biblioteki milionów kombinatorycznie wygenerowanych związków. Z tej bazy wybierano najbardziej obiecujące, które następnie optymalizowano. W ten sposób powstały m.in. leki przeciwbakteryjne (Norfloksacyna) czy przeciwwirusowe (Zanamiwir). Tradycyjnymi sposobami zajęłoby to nawet dwie dekady, a i tak bez pewności, że wybrany „kandydat” trafi pod postacią kapsułki, tabletki czy maści na apteczne półki. Dlatego, by znacznie ograniczyć koszty i skrócić czas, także przy tworzeniu środków ochrony roślin, do dziś sięga się po wypróbowane już metody chemoinformatyczne.
Repertuar zastosowań, od czasu gdy pod koniec ubiegłego wieku po raz pierwszy użyto tego terminu, znacznie się poszerzył. Sprzyja temu postęp technologiczny. Algorytmy wykorzystuje się m.in. przy ocenie ryzyka chemicznego stwarzanego przez istniejące bądź nowo projektowane związki. Służą do szukania cech strukturalnych, które mogą być odpowiedzialne za ich toksyczność. Pozwala to na lepsze zrozumienie mechanizmów stojących za szkodliwym działaniem niektórych substancji oraz wyznaczenie wartości toksyczności związku, który nie został przebadany metodami in vivo. Zaletą tego rozwiązania jest bez wątpienia ograniczenie w badaniach udziału zwierząt. Żeby ocenić w sposób kompleksowy tylko jeden związek chemiczny, np. pestycyd wykorzystywany w rolnictwie lub ogrodnictwie, konieczne jest przeprowadzenie eksperymentów z udziałem – uśredniając – blisko 7 tys. organizmów żywych. Koszt kilkuletniego procesu liczony jest w dziesiątkach milionów dolarów. Skalę przedsięwzięcia najlepiej obrazuje największa komputerowa baza związków chemicznych, w której zarejestrowano już przeszło 160 mln substancji organicznych i nieorganicznych. Co miesiąc pojawia się w niej milion nowych. Oczywiście, nie każda trafia od razu do środowiska. Występują w nim zresztą nie tylko związki syntezowane w sposób zamierzony, ale i powstające w efekcie działalności przemysłowej czy w wyniku naturalnych procesów fizycznych, chemicznych, biologicznych, fotochemicznych. Trudno więc oszacować rzeczywistą liczbę związków obecnych w środowisku. Pewne jest jedno: część z nich – według różnych źródeł od 15 do 46% – nie została nigdy w sposób kompleksowy przebadana.
Wśród metod komputerowych wyróżnia się dwie grupy, które stanowią obecnie „złoty standard” w ocenie ryzyka chemicznego. Pierwsza, klasyczna, to techniki ilościowego modelowania zależności pomiędzy strukturą chemiczną a aktywnością biologiczną (tzw. metody QSAR). Kluczem jest w tym przypadku powiązanie aktywności związków z ich budową chemiczną i właściwościami fizykochemicznymi. Do prawidłowego działania metody te wymagają odpowiednio dużego i reprezentatywnego zbioru danych eksperymentalnych. Pewnym ograniczeniem jest zbyt mała dla określonych grup związków ilość dostępnych danych, co uniemożliwia w praktyce stworzenie, a później przeprowadzenie walidacji modelu.
W takiej sytuacji sprawdza się druga grupa metod. To techniki szacowania przekrojowego, tzw. read-across. Właśnie w nich specjalizuje się moja rozmówczyni. Tak jak metody QSAR, opierają się one na założeniu, że związki o podobnej budowie wykazują zbliżoną aktywność biologiczną. Struktura bowiem determinuje toksyczność danego związku. Do wyznaczenia właściwości lub aktywności substancji „docelowych” stosuje się informacje na temat substancji „źródłowych”, które są ich analogami bądź należą do tej samej kategorii. Jak to działa w praktyce?
– Algorytm szuka w niewielkim, czasem tylko kilkuelementowym zbiorze związków „źródłowych” takiego, który jest najbardziej podobny do badanego właśnie przeze mnie. Znam wartość liczbową charakteryzującą daną aktywność tego pierwszego i wykorzystuję to do oszacowania jej w należącym do tej samej kategorii związku „docelowym” – wyjaśnia dr Gajewicz-Skrętna.
Wraz z naukowcami z National Institute for Environmental Studies, Research Center for Environmental Risk w Japonii pracuje nad zestawem nowych algorytmów do szacowania przekrojowego związków organicznych, które powstają jako produkty uboczne w procesach przemysłowych. Wśród nich są m.in. alkohole, węglowodory alifatyczne i aromatyczne, cyjaniany, etery, ketony, tiole alifatyczne, aldehydy, benzotriazole… Stanowią jedno z najważniejszych źródeł zanieczyszczeń środowiska wodnego, ale – jak przyznaje badaczka z Uniwersytetu Gdańskiego – są przy tym niezwykle wymagające, jeśli chodzi o ich modelowanie.
– Wynika to z olbrzymiego zróżnicowania strukturalnego w obrębie całej grupy, różnej liczebności poszczególnych jej klas oraz dostępności eksperymentalnych danych dotyczących ich toksyczności – tłumaczy.
Aby algorytm był użyteczny, trzeba najpierw zdefiniować i opisać ilościowo dany związek chemiczny. Tak jak człowieka charakteryzuje jego wzrost, waga, zawartość tkanki tłuszczowej, poziom cukru czy cholesterolu, w przypadku związku istotne jest określenie liczby atomów, np. węgla, wodoru, tlenu, masy cząsteczkowej, sposobu połączenia atomów… Tworząc ten swoisty rysopis, sięga się nie tylko do struktury, ale także – i tu właśnie otwiera się szerokie pole do interdyscyplinarności – różnych właściwości związku, np. jego cech elektronowych.
– Wszystkie te informacje specyficznie definiują każdy związek, ale silnik, czyli algorytm modelowania, będzie tożsamy i może być wykorzystany do różnych ich grup, np. nanocząstek, cieczy jonowych czy trwałych zanieczyszczeń organicznych – wyjaśnia dr Gajewicz-Skrętna.
W ramach badań, które prowadzi z japońskimi naukowcami, opracowała również, a teraz testuje, metody międzygatunkowej ekstrapolacji toksyczności. Przełożenie wyników na organizmy z różnych poziomów troficznych polega na ocenie ryzyka chemicznego stwarzanego przez związek chemiczny wobec np. ssaków czy ryb na podstawie eksperymentów na bezkręgowcach, np. rozwielitkach, lub wręcz na podstawie badań in vitro.
Aż trudno uwierzyć, że dopiero w połowie poprzedniej dekady uruchomiono europejski system gospodarowania chemikaliami REACH, który narzucił obowiązek dostarczenia oceny ryzyka dla wszystkich substancji produkowanych lub importowanych w ilości powyżej jednej tony rocznie. Wcześniej do ich wpływu na nasze życie podchodzono obojętnie. Teraz każdy producent może albo przebadać dany związek w sposób eksperymentalny, co wiąże się z niebagatelnymi kosztami, albo poszukać alternatywnych metod. Raporty Europejskiej Agencji Chemikaliów pokazują, że w 89% nowo rejestrowanych substancji część analizy opiera się na metodach alternatywnych do testów na zwierzętach, a 2/3 przypadków to właśnie metody szacowania przekrojowego. Przemysł dostrzegł więc potencjał, ale i korzyści: oszczędza się czas, jest taniej, bo nie trzeba kupować odczynników ani niczego utylizować, wreszcie nie bez znaczenia są także względy etyczne. Taka zmiana nastawienia to dla naukowców wyzwanie, by zaproponować narzędzia, które okażą się skuteczne i w wiarygodny, rzetelny sposób przewidzą toksyczność badanych związków.
– W zależności od modelowanej grupy związków najwięcej problemów nastręcza w tej chwili tzw. szum biologiczny w danych doświadczalnych oraz brak spójnych metod oceny jakości i wiarygodności wartości prognoz wyznaczonych za pomocą modeli komputerowych – zwraca uwagę badaczka z Gdańska.
Wspomina, że metody komputerowe przez długi czas miały czarny PR. Powodem braku społecznej akceptacji było ich nadmierne forsowanie do oceny ryzyka chemicznego, ale bez rzetelnej oceny. Zmiana dokonała się wraz z postępem naukowo-technologicznym. Tym niemniej, zdaniem bohaterki artykułu, nieuzasadnione jest na obecnym etapie przypisywanie metodom komputerowym większej wiarygodności danych od samego eksperymentu. „Nauczenie” modelu bez dostarczenia mu wysokiej jakości danych eksperymentalnych jest niemożliwe. Rola algorytmów sprowadza się więc póki co do wspierania eksperymentu, a dopiero w przyszłości, po udoskonaleniu metod, będzie można mówić o zastąpieniu go.
Ścieżkę postępu wyznaczył po trosze „test króliczy” amerykańskiego ginekologa Jamesa Chadwicka, który polegał na wprowadzeniu moczu kobiety do organizmu samicy królika, po czym zwierzę zabijano i przeprowadzano autopsję, a jeśli po pięciu dniach rozpoznawano w nim zmiany typowe dla poczęcia w postaci pobudzonych narządów rozrodczych, znaczyło to ni mniej, ni więcej, że kobieta jest w ciąży. Praktykowano go jeszcze w XX wieku, aż do czasu, gdy standardem stał się o wiele praktyczniejszy i niesprawiający cierpienia test ciążowy.
Kiedy podobnego rozwiązania można spodziewać się przy ocenie toksyczności związków chemicznych? Dr Agnieszka Gajewicz-Skrętna nie ma wątpliwości, że algorytmy staną się podstawowym narzędziem testowania. Przytacza memorandum Amerykańskiej Agencji Ochrony Środowiska, która do 2025 roku zapowiedziała znaczące ograniczenie prowadzenia badań z udziałem ssaków, a w ciągu kolejnych dziesięciu lat całkowite zaprzestanie ich finansowania. Niewiadomą pozostaje to, czy prędzej myszy komputerowe zastąpią laboratoryjne, czy moja rozmówczyni zdobędzie Koronę Maratonów. Pobiegła już w Tokio i Chicago, szykuje się na Berlin. Ten rok ma szansę zakończyć w połowie upragnionego celu.
Wróć