logo
FA 9/2023 informacje i komentarze

Grzegorz Bartosz

Jaka ewaluacja?

Prof. dr hab. Grzegorz Bartosz z Instytutu Technologii Żywności i Żywienia Uniwersytetu Rzeszowskiego, w refleksji nad systemem ewaluacji prezentuje jego wady, a także proponuje korektę spojrzenia na ocenę publikacji.

Ewaluacja działalności naukowej to kwestia, która od kilku lat spędza sen z powiek najpierw ekspertom wypracowującym optymalne zasady takiej ewaluacji, a następnie dyrektorom instytutów, dziekanom i rektorom żywo zainteresowanym maksymalizacją tradycyjnie już skromnego finansowania ich wydziałów, uczelni i instytutów przez ministerstwo.

Obowiązujący system ewaluacji niewątpliwie przyniósł wiele pozytywnych efektów. Wymusił bardziej zdecydowaną politykę kadrową wobec pracowników mało aktywnych naukowo. Przypisanie „ministerialnych” punktów czasopismom naukowym i wymuszona kryteriami ewaluacji presja na publikowanie w najlepiej punktowanych czasopismach skłoniły badaczy ze wszystkich ośrodków do lepszego pisania publikacji (niekiedy nie bez udziału wyspecjalizowanych w takiej działalności firm zewnętrznych) i publikowania w lepiej punktowanych czasopismach naukowych. Włączenie do kryteriów oceny praktycznych zastosowań badań, patentów i wpływu działalności jednostki na funkcjonowanie społeczeństwa i gospodarki, jakkolwiek kłopotliwe dla wielu badaczy uprawiających „czystą” naukę, wymusza konieczność uwzględnienia translacji wyników badań na praktykę, co zawsze winno być ważnym aspektem funkcjonowania nauki.

Mankamenty systemu

Czy można coś zasadniczo nowego wnieść do tego tematu, któremu kompetentne grona eksperckie poświęciły tyle uwagi i pracy? Nasuwa się odpowiedź negatywna, ale mimo wszystko także kilka uwag i propozycji. Dotyczą one głównie nauk przyrodniczych, o funkcjonowaniu których mam niejakie pojęcie.

Czy ewaluacja musi mieć w odniesieniu do najważniejszego, pierwszego kryterium (oceny poziomu naukowego prowadzonej działalności naukowej) charakter ilościowy, oparty na sumowaniu punktów? Obawiam się, że nie ma odwrotu od takiego rozwiązania. Można dyskutować, czy ewaluacja ekspercka dorobku naukowego instytucji naukowych nie byłaby bardziej miarodajna. Mam ogromne uznanie dla systemu oceny instytutów PAN przez Radę Kuratorów (przynajmniej w trybie znanym mi z Wydziału II PAN), który wprawdzie nie dotyczy przyznawania funduszy, ale obejmuje kompleksową ocenę działalności instytutów. Uwzględnia ona główne osiągnięcia badawcze, sytuację kadrową, lokalową i aparaturową, stopień umiędzynarodowienia i plany działalności. Na podstawie takiej oceny komisja formułuje zalecenia w moim przekonaniu dobrze służące rozwojowi instytutów, których wykonanie jest oceniane po czterech latach, a w skrajnych przypadkach zaleca wręcz likwidację instytutu czy połączenie go z innym. Taka pogłębiona ocena przydałaby się każdej instytucji, jeśli przedmiotem troski miałby być racjonalny rozwój działalności naukowej we wszystkich polskich ośrodkach. Zebranie gron ekspertów na tyle obiektywnych i mądrych, by taką wnikliwą ocenę przeprowadzić, byłoby jednak trudne i zajęłoby długie miesiące najlepszym naukowcom, którzy (właśnie oni) powinni raczej zajmować się intensywną działalnością naukową niż oceniającą. Pozostaje zatem porównywanie punktów – tylko jakich?

Warto jednak zwrócić uwagę na mankamenty obecnego systemu ewaluacji, bo żaden system nie jest idealny i każdy można udoskonalić. Polepszenie jakości pisania i publikacji prac (których ograniczona liczba podlega ewaluacji) doprowadziło do osłabienia kryterium roli dyskryminacyjnej kryterium punktowego, gdyż w większości ewaluowanych jednostek lista ewaluowanych publikacji kończy się na poziomie 100-140 punktów ministerialnych. Punktacja czasopism jest spłaszczona. Najlepsze czasopisma, takie jak np. „Science”, „Nature” czy „Cell”, mają 200 punktów, a taką samą, najwyższą wycenę punktową mają czasopisma o niewątpliwie niższej randze i niższych wymaganiach. Taka punktowa ocena publikacji nie skłania do włożenia (dużo) większego wysiłku badawczego w przygotowanie publikacji, które mogłyby przebić się do czasopism naprawdę wybitnych. Można więc powiedzieć, że publikacyjnie równamy raczej do górnej części półki czasopism średnich niż do czasopism z najwyższej półki.

Obowiązujący system nie rozróżnia oryginalnych artykułów doświadczalnych od artykułów przeglądowych. To nie jest słuszne, jeśli celem ewaluacji jest ocena badań prowadzonych w jednostce, a nie zdolności pisania artykułów przez jej pracowników. Nie można negować przydatności artykułów przeglądowych, ale to działalność wtórna, a celem ewaluacji winna być ocena oryginalnego wkładu badań jednostki w rozwój nauki.

Honorowanie pełną punktacją współautorstwa dobrze punktowanego artykułu powstałego w wyniku współpracy między różnymi ośrodkami promuje współpracę między różnymi ośrodkami. To słuszna zachęta, ale czy w jakiś sposób nie należałoby wyżej punktować publikacji, w których oceniany ośrodek pełni rolę wiodącą (inicjującą i koordynującą badania) lub też współwiodącą, w stosunku do publikacji, w których pracownik danego ośrodka jest tylko jednym z wielu uczestników badania kierowanego przez inną instytucję?

Oceniać oryginalne

Moja główna propozycja dotyczy jednak innej kwestii. Czy, zamiast oceniać zdolność do publikowania, nie lepiej byłoby oceniać efekty publikacji, czyli ilość cytowań prac danej jednostki opublikowanych w ocenianym okresie? To uniezależniłoby ocenę od mniej czy bardziej arbitralnej punktacji czasopism i jej administracyjnych zmian i byłoby bardziej miarodajne, odzwierciedlając raczej oddźwięk środowiska naukowego na publikacje niż umiejętność „sprzedania” wyników redakcjom czasopism (co oczywiście samo w sobie też jest cenne, ale mniej cenne niż wartość prac mierzona ich cytowalnością). Proponowałbym wyłączenie prac przeglądowych z takiego indeksu cytowań, by oceniać rolę jedynie prac oryginalnych. Można mieć obiekcję, że cytowanie prac nie jest natychmiastowe (w przeciwieństwie do listy prac opublikowanych), nic nie stoi jednak na przeszkodzie uwzględnieniu cytowań prac opublikowanych w okresie przesuniętym w stosunku do ocenianego okresu o rok czy dwa lata. Moim zdaniem optymalne byłoby kryterium cytowalności prac opublikowanych w (nieco antydatowanym) okresie kategoryzacji, bo oceniałoby w miarę bieżącą działalność badawczą jednostki (cytowalność wszystkich prac jednostki stawiałaby na przegranej pozycji jednostki o krótszej historii wartościowych badań, a chodzi przecież o ocenę badań prowadzonych ostatnio).

Czy warto w ogóle roztrząsać jeszcze problem kryteriów ewaluacji? Wiadomo, że gdzie dwóch Polaków, tam co najmniej trzy różne opinie. Zawsze warto jednak przed podjęciem jakiejkolwiek decyzji rozważyć jak największą liczbę opcji.

Wróć