logo
FA 12/2020 życie akademickie

Waldemar Siwiński

Rankingi bez tajemnic

Tekst prof. Macieja Duszczyka jest obszerny, wielowątkowy i wyposażony obficie w liczby. Aby nie przekształcić FA w monotematyczne wydawnictwo rankingowe, mój komentarz musi być siłą rzeczy krótki, syntetyczny i oszczędniej operujący cyframi.

Brytyjczyk Richard Holmes, ceniony ekspert rankingowy, mawia, że reakcja kadry akademickiej na rankingi jest na całym świecie podobna. Rankingi dzielone są na dwie grupy: te, które są złe i te potwierdzające doskonałość uczelni, w której dany akademik jest zatrudniony. Szczęśliwie prof. Maciej Duszczyk wyłamał się z tego schematu. Patrzy na rankingi z wiedzą „oddolną”, wynikającą z jego funkcji prorektora Uniwersytetu Warszawskiego, a zarazem z dystansem umożliwiającym szersze zrozumienie zarówno ograniczeń, jak i rozlicznych pożytków tego unikalnego zjawiska.

Odniosę się do trzech wątków – w takiej kolejności, jak w tekście MD: refleksji na temat rankingów światowych i pozycji w nich polskich uczelni; uwag do Rankingu Szkół Wyższych Perspektywy 2020 – za który jestem odpowiedzialny; a także przewidywań odnośnie do przyszłości rankingów i związanych z tym pomysłów na doskonalenie rankingu Perspektyw.

Będą to uwagi z perspektywy moich doświadczeń rankingowych. Od trzydziestu lat publikuję profesjonalne rankingi edukacyjne (szkół średnich, uczelni i programów MBA), od jedenastu lat jestem wiceprezydentem międzynarodowej organizacji twórców i analityków rankingów IREG Observatory on Academic Ranking and Excellence, a od półtora roku prowadzę – w ramach programu DIALOG – International Visibility Project (IntVP), którego celem jest zwiększenie kompetencji rankingowych grupy dwudziestu czołowych polskich szkół wyższych.

Rankingi są potrzebne

Analizując z powyżej zarysowanej perspektywy tekst prof. Duszczyka, czuję satysfakcję: moje i moich kolegów wieloletnie wysiłki w zakresie tworzenia rankingów, ich doskonalenia i popularyzowania nie poszły na marne. Oto prorektor znakomitej polskiej uczelni nie obraża się na rankingi, ale „wgryza się w temat” i formułuje pragmatyczne wnioski, co robić dalej, aby pożytku z rankingów nie zmarnować.

Autor prezentuje otwarte podejście Uniwersytetu Warszawskiego do rankingów, w dodatku z przyjaznym ukłonem do Uniwersytetu Jagiellońskiego, co cieszy, gdyż pozycje rankingowe UW i UJ – dwóch najlepszych polskich uniwersytetów – są ważne nie tylko dla społeczności tych uczelni, ale dla nas wszystkich. Zwłaszcza że tylko UW i UJ mają obecnie szanse na konkurowanie z najlepszymi i są na świecie widoczne… Są to przecież jedyne polskie uczelnie, które lokują się w czwartej setce (301-400) głównych rankingów, tuż w pobliżu setki trzeciej. A gdyby wypadły z grupy Top 400, nie mówiąc już o opuszczeniu Top 500, to szkody dla polskiego szkolnictwa wyższego byłyby dotkliwe i trudne do odrobienia.

Oczywiście rankingi międzynarodowe mają rozliczne wady. Przykładowo Ranking Szanghajski w ogóle nie przystaje do polskich uczelni i nie dla nich został skonstruowany. Pisałem o tym wielokrotnie, również na łamach „Forum Akademickiego” (ostatnio w FA 9/2019: UJ i UW na „szanghajskiej huśtawce”). Ranking QS natomiast ma tak uproszczoną metodologię, z 50% wagi dla badań reputacyjnych i 20% wagi za Student-Staff Ratio, że nieuchronnie jest oskarżany o podatność na manipulowanie przez uczelnie z krajów arabskich i azjatyckich. Ranking Times Higher Education sam nawet nie ma chyba do siebie zaufania, bo ukrył wszystkie wyniki cząstkowe, a jego przedstawiciele od dawna odpierają zarzuty o brak transparentności zapewnieniami, że ich dzieło jest prawie idealne, ale… wkrótce radykalnie zmienią metodologię. Z kolei Ranking US News Global ma najwięcej zalet, ale… Amerykanie w ogólne nie dbają o jego promocję, bo dla nich głównym produktem w tym zakresie jest publikowany od 1983 roku narodowy US News Best Colleges Ranking, najstarszy profesjonalny ranking edukacyjny na świecie.

Ale przy swoich wadach (dobrze zidentyfikowanych i przedyskutowanych na dorocznych konferencjach rankingowych IREG Observatory) wskazane rankingi, określane często jako Big-4 Group, stanowią razem unikalne zwierciadło pomagające uzyskać odświeżany co roku obraz światowego szkolnictwa wyższego i zarazem użyteczne narzędzie monitorowania zachodzących w nim zmian. Zaletą Big-4 jest różnorodność podejść metodologicznych i dyferencjacja źródeł danych, z jakich korzystają. Przykładowo rankingi QS i THE korzystają z baz Elsevier, ale US News opiera się w całości na bazach Clarivate Analytics. O pożytkach z takiego podejścia nie trzeba przekonywać – daje ono szerszą paletę silnych stron uczelni, a zarazem redukuje ryzyko jednostronnych ocen. Dlatego te cztery rankingi są podstawą analiz przeprowadzanych w ramach International Visibility Project. W powyższym kontekście warto przytoczyć opinię prof. Stanisława Kistryna, wieloletniego prorektora UJ, z jego wystąpienia na konferencji rankingowej IREG 2020: „Lepiej jest używać niedoskonałego narzędzia, niż jedynie narzekać, że nie ma idealnego pod ręką!”.

Nie wszyscy są jednak tak pragmatyczni jak prof. Kistryn. Co jakiś czas pojawiają się wezwania, formułowane w różnych krajach przez zainteresowanych badaczy i różne grupy akademickie, aby wreszcie sytuację z rankingami uporządkować (czytaj: pogonić je), bo ich wpływ jest na świecie zbyt duży. W taki sposób zrobiła kiedyś międzynarodową karierę prof. Ellen Hazelkorn z Irlandii, która nie tylko zwalczała rankingi, lecz postulowała nawet, aby zajęła się nimi… Organizacja Narodów Zjednoczonych i ustanowiła coś w rodzaju Global Ranking Board. Dzisiaj prof. Hazelkorn jest zawodową keynote speakerką, która jeździ (w warunkach pandemii: występuje…) po świecie z prostą tezą: „rankings are here to stay”!

Dlatego cenię sugestię prof. Duszczyka dla polskich uczelni zainteresowanych obecnością międzynarodową, że „z analizy danych rankingowych można wysnuć wiele ciekawych informacji o postrzeganiu danej uczelni przez tzw. międzynarodowe środowisko akademickie oraz o słabościach i przewagach w zakresie kształcenia czy badań naukowych”, a także jego jednoznaczną rekomendację: „Zainteresowanie rankingami jest zdecydowanie obowiązkiem władz uczelni badawczych”.

Ranking Perspektyw – wielka kalibracja

Ponieważ część swojego tekstu prof. Duszczyk poświęcił rankingowi „Perspektyw”, dla uporządkowania faktów przypominam, że tegoroczny Ranking Szkół Wyższych miesięcznika „Perspektywy” został ogłoszony – na łamach pisma, na stronie internetowej rankingu, w mediach tradycyjnych i społecznościowych oraz podczas uroczystości w Warszawie – w dniu 17 lipca, a errata rankingu została opublikowana 11 sierpnia, tuż przed otrzymaniem przez maturzystów 2020 świadectw dojrzałości. Wspominam celowo o maturzystach, gdyż jest to kluczowa informacja dla tych, którzy rankingu „Perspektyw” nie znają – otóż głównym adresatem rankingu są uczniowie szkół średnich, w szczególności maturzyści, którzy stoją przed koniecznością wyboru dalszej ścieżki edukacyjnej. Ranking ma im w tym pomóc poprzez dostarczenie uporządkowanej informacji o polskich uczelniach i prowadzonych przez nie kierunkach studiów. Temu celowi podporządkowana jest metodologia rankingu, opisana w serwisie: www.ranking.perspektywy.pl, oraz terminy jego publikacji.

Mówiliśmy o tym podczas Gali Rankingowej i wielokrotnie potem powtarzaliśmy, że przygotowanie tegorocznego rankingu było dla kapituły kierowanej przez prof. Michała Kleibera oraz dla analityków „Perspektyw” wyzwaniem szczególnym. Z trzech powodów.

Nowy stan prawny

Po raz pierwszy przygotowywaliśmy ranking uwzględniający nowy stan prawny wprowadzony przez ustawę z 20 lipca 2018 roku. O ile dla rankingu uczelni nie tworzyło to większych problemów, to w odniesieniu do Rankingu Kierunków Studiów (RKS) oznaczało w praktyce konieczność wypracowania metodologii od nowa. Będące konsekwencją ustawy „zniknięcie” wydziałów jako organów uczelni pociągnęło też za sobą skutek w postaci zniknięcia takiej jednostki sprawozdawczej w systemie POL-on. Konsekwencje tego faktu nie dla wszystkich są oczywiste. Słyszeliśmy często w rozmowach z przedstawicielami uczelni: „Ale przecież u nas wydziały istnieją!”. Owszem, istnieją na mocy zapisów statutów uczelni, ale nie ma ich w systemie sprawozdawczym państwa.

Poprzednie edycje RKS oceniały kierunki studiów prowadzone na wydziałach. Oznaczało to, że w wielu przypadkach ta sama uczelnia mogła występować w rankingu konkretnego kierunku studiów kilkakrotnie. Przykładowo w rankingu kierunku automatyka i robotyka Akademia Górniczo-Hutnicza oceniana była dwukrotnie (bo prowadziła je na dwóch wydziałach), a Politechnika Warszawska nawet pięciokrotnie (prowadziła ten kierunek aż na pięciu wydziałach).

Nowe podejście metodologiczne do RKS wykorzystuje możliwości tkwiące w ustalonej dla każdego kierunku „wiodącej dyscyplinie naukowej”. Uznaliśmy, że skoro nie możemy już „identyfikować” kierunku na wydziale (a także „przenosić” osiągnięć naukowych i dydaktycznych wydziału na oceniany kierunek), to będziemy w zamian „przenosić” na oceniany kierunek osiągnięcia „wiodącej dyscypliny naukowej” przypisanej do tego kierunku. Dla czytelników FA jest raczej oczywiste, że w wyniku takiego podejścia od edycji 2020 dana uczelnia będzie występować w Rankingu Kierunku Studiów tylko raz.

Ale po drodze należało rozwiązać problem rozproszenia prowadzonych na naszych uczelniach kierunków studiów. W obowiązującym wcześniej oficjalnym wykazie znajdowało się 118 kierunków (zgodnie z rozporządzeniem MNiSW z 13 czerwca 2006). Natomiast na liście obecnie prowadzonych w Polsce kierunków studiów znajduje się 1329 różnych nazw ustalanych dowolnie przez uczelnie. Dlatego w uzgodnieniu z uczelniami (nazwaliśmy tę operację „wielką kalibracją”) pogrupowaliśmy prowadzone kierunki studiów w 70 grup kierunkowych (obejmujących jeden lub więcej kierunków). W znakomitej większości odpowiadają one ukształtowanemu latami zwyczajowemu podziałowi w tym zakresie.

POL-on

O ile w poprzednich latach w systemie POL-on najpóźniej do końca marca były już zaraportowane i zweryfikowane komplety danych ze wszystkich uczelni za aktualny rok akademicki, o tyle w tym roku mieliśmy informacyjny dramat. Przy czym nie był on związany z pandemią, lecz z nieskutecznością styku uczelnia – OPI. Nie jest moją rzeczą rozstrzyganie o przyczynach tej sytuacji, pewne jest jedynie, że POL-on nie zweryfikuje i nie udostępni danych, jeśli się ich do tego systemu nie wprowadzi. Jeszcze w styczniu MNiSW oficjalnie przesunęło oficjalny termin zsyłania danych o kwartał, do końca marca br. Jak wiemy, zahaczyło to niestety o pandemię, w rezultacie czego przesunięto termin o kolejny miesiąc, a w praktyce nawet o dwa. Dane z POL-on, które są podstawą rankingu, otrzymaliśmy dopiero w trzeciej dekadzie czerwca.

Pandemia

Przejście w stan lockdownu nie tylko wydłużyło raportowanie danych do POL-on, ale też niezwykle utrudniło komunikowanie się z przedstawicielami uczelni w celu wyjaśniania niejasności w danych, ankietach czy też arkuszach „wielkiej kalibracji”. Wszyscy się starali i wszystkim dziękujemy za wysiłek w tym trudnym czasie. A błędy bierzemy oczywiście na siebie. Takie jest nasze zawodowe ryzyko.

Prof. Duszczyk stawia w swoim tekście tezę, że mogliśmy nie publikować w tym roku rankingu uczelni i kierunków studiów: „warto było rozważyć rezygnację z tegorocznej edycji rankingu i skupić się na pracach metodologicznych, aby w 2021 roku opublikować dopracowane i rzetelne wyniki”. I odpowiada natychmiast sam sobie: „Przeważyła prawdopodobnie chęć zaprezentowania wyników jubileuszowej, dwudziestej edycji. Okazało się to błędem”. Ależ, Panie Profesorze, sugerowanie nam tak miałkich pobudek to chyba jednak przejaw małostkowości. Zwłaszcza że dwudziestolecie rankingu świętowaliśmy już przed rokiem.

Maturzyści w centrum uwagi

Natomiast jeśli chodzi o ewentualną rezygnację z tegorocznej edycji rankingu, to opcja taka była teoretycznie do rozważenia, ale praktycznie nie do przyjęcia. Mieliśmy w maju i czerwcu lawinę pytań od maturzystów i ich rodziców o to, kiedy wreszcie ranking zostanie opublikowany. Rozgoryczeni uczniowie żalili się, że ich losy i przyszłość nikogo nie interesują. Nauczanie zdalne klas maturalnych w warunkach COVID-19 było w końcówce fikcją. Przez wiele miesięcy nikt w Polsce nie był w stanie powiedzieć abiturientom, czy i kiedy odbędzie się egzamin maturalny i jakie będą jego zasady oraz jak będzie przebiegać rekrutacja na studia. Tradycyjne „dni otwarte” na uczelniach zostały odwołane.

Ranking „Perspektyw” był w tej sytuacji dla abiturientów nadzieją, że jednak jakoś sensownie zdołają swoją ścieżkę życiową zaplanować. Dlatego zdecydowaliśmy się na wysiłek, aby w rozsądnym terminie ranking został opublikowany. Był to wysiłek nie tylko ekipy „Perspektyw”. Przykładowo, gdy okazało się, że dane odnośnie do własności intelektualnej przekazane przez uczelnie do POL-on były niezadowalającej jakości, decyzją prezes Urzędu Patentowego dwójka pracowników UP RP, pracując na okrągło przez tydzień, dane te zrekonstruowała na podstawie europejskich baz źródłowych.

Powtarzam, głównym adresatem rankingu są kandydaci na studia. Im nie przeszkadzało, że dana uczelnia znalazła się w jednym z 70 kierunków studiów na miejscu 12 zamiast (po erracie) na miejscu 11, bo były to głównie tego typu korekty. Łącznie uwzględniliśmy w rankingu 171 uczelni, które zostały ocenione w 1409 rekordach. Korekty dotyczyły niewielkiej części z nich. Wszystkie te zmiany, nawet najdrobniejsze, oznaczyliśmy zresztą w skorygowanych tabelach gwiazdką (*), aby ułatwić zainteresowanym śledzenie zmian.

Aby zdjąć trochę napięcia z autora (i współautorek) tekstu, przypomnę, że w głównej klasyfikacji, czyli w Rankingu Uczelni Akademickich, oceniającym sto uczelni, są trzy takie gwiazdki. W jednym przypadku rektor-elekt przeprosił nas w końcu lipca za swojego poprzednika (!) i przekazał brakujące dane, dzięki czemu jego uczelnia przeskoczyła z ósmej dziesiątki do szóstej. W drugim przypadku kanclerz renomowanej uczelni znalazł błąd w przesłanej przez siebie ankiecie, która liczbę studentów w języku angielskim podała według stanu na dzień wypełniania ankiety, a nie na koniec grudnia ub.r. – różnica była minimalna, współczynnik rankingowy wzrósł z 57,1 do 57,2 (!), ale dla tej uczelni było to ważne. W trzecim przypadku korekta też dotyczyła studiów w języku angielskim, a współczynnik rankingowy polepszył się o 1,3. Prof. Duszczyk nazywa to „poważną wpadką”, my traktujemy w kategoriach zwykłych dziennikarskich poprawek.

A propos korekt. Dla wszystkich, którzy robią rankingi, są one oczywistością. W dokumencie IREG Berlin Principles of Academic Rankings – zestawie zasad, które powinny być przestrzegane przez autorów rankingów na całym świecie – stwierdza się, że rankingi: „powinny być tak przygotowywane i publikowane, aby błędy i niedociągnięcia można było korygować. O powstałych błędach należy informować zarówno uczelnie, jak i społeczeństwo”. Dokument IREG Ranking Audit doprecyzowuje, że błędy w rankingach powinny być poprawione przynajmniej w publikacji internetowej (at least in an online publication of the ranking). „Perspektywy” rygorystycznie tych zasad przestrzegają.

Mamy ustaloną procedurę zgłaszania zastrzeżeń do rankingu i każdy natychmiast po jego opublikowaniu może zgłosić internetowo swoje uwagi. Są one w trybie pilnym analizowane, rozpatrywane i nanoszone. W najbliższym możliwym terminie, zazwyczaj po 3-4 tygodniach, publikujemy całościową erratę do wyników – najpierw na stronie rankingu i w komunikatach, a zaraz potem w kolejnej edycji miesięcznika „Perspektywy”. Wyczerpuje to nie tylko międzynarodowe rekomendacje IREG Observatory on Academic Ranking and Excellence, ale też spełnia wszystkie wymogi polskiego prawa prasowego.

Oczywiście, byłoby lepiej, gdyby udawało się tak przeprowadzać procesy ocen rankingowych, aby korekty nie były potrzebne. Ale nie udawało się to nawet przy państwowej ocenie jednostek naukowych realizowanej przez Komitet Ewaluacji Jednostek Naukowych. Jeszcze w tym roku dostawałem od uczelni kopie wyroków sądowych przyznających ich jednostkom kategorie wyższe niż te, które KEJN nadał im w 2017 roku. Z ocenionych wówczas 781 jednostek polskich uczelni od decyzji KEJN odwołało się ponad 40%, z których grubo ponad setka udowodniła, że należy im się wyższa kategoria niż przyznana przez ekspertów KEJN, i te wyższe kategorie otrzymała. A liczba wykazanych błędów, które nie miały skutku w postaci zmiany kategorii, była liczbowo o wiele wyższa.

Wcale się z tych perypetii parametryzacji nie cieszę, bo wiem, że procesy ewaluacji zawsze obarczone są ryzykiem. Nie zgadzam się tylko, aby wielki wysiłek „Perspektyw” przy opracowaniu dla maturzystów, w arcytrudnych warunkach COVID-19, aktualnego rankingu szkół wyższych – i błyskawicznym przygotowaniu korekty do niego – próbowano umniejszać.

A od KEJN sporo się też nauczyliśmy. Rozpatrując odwołania uczelni od decyzji ustalających kategorię, przyjął on zasadę, że „skutkiem odwołania nie mogło być obniżenie kategorii”, natomiast „ewentualne podwyższenie kategorii nie wpływało na kategorie innych jednostek z tej samej grupy” (FA nr 9/2019). Dokładnie tak samo postępujemy przy korekcie pozycji uczelni w rankingach „Perspektyw” – podnosimy pozycję uczelni, jeśli są ku temu przesłanki, natomiast nie wpływa to na pozycje innych uczelni w rankingu.

Kilka wyjaśnień metodologicznych

Wśród wielu wątków poruszanych przez prof. Duszczyka jest zarzut, że „nie umie zrozumieć”, dlaczego włączyliśmy do zestawu wskaźników naukometrycznych Field-Weighted Views Impact (liczba odsłon publikacji uczelni). I wyjaśnia, że „przecież wskaźnik odsłon można dowolnie »pompować«, tylko trzeba wiedzieć, że trzeba to robić”. Na „pompowaniu” się nie znam, natomiast mogę zaspokoić ciekawość mojego adwersarza i wyjaśnić, że włączenie FWVI było inicjatywą ekspertów Elsevier zaakceptowaną przez kapitułę. FWVI (uwzględniony z wagą 3%) to w opinii Elsevier jeden z najsilniejszych wskaźników w Scopusie (vide: Elsevier Research Metrics Guidebook), jeden z dwóch, które spełniają wszystkie wymogi jakościowe sformułowane przez tego renomowanego dostawcę danych – nie tylko do naszego rankingu, ale także do rankingów THE i QS. Dane te pobieraliśmy w czerwcu 2020, po kilku miesiącach pandemii, która spowodowała na świecie zmianę nawyków korzystania z prac naukowych, zwłaszcza mających odniesienia do COVID-19 i szczepionki na koronawirusa. Włączenie FWVI do rankingu „Perspektyw” należy potraktować jako pierwszą część naszej rankingowej odpowiedzi na zmiany w szkolnictwie wyższym i nauce wymuszone przez pandemię.

Odnosząc się do innych, drobnych procentowo, zmian w metodologii rankingu – nota bene zapowiedzianych publicznie na kilka miesięcy przez rozpoczęciem gromadzenia danych do rankingu – autor stwierdza, że „niestety, nie wiadomo, co stało za tymi decyzjami”. Wyjaśnialiśmy to wielokrotnie. Przy okazji rankingu 2020, podobnie jak w poprzednich edycjach, opublikowaliśmy też (na stronie rankingu i w jego edycji drukowanej) szczegółowe uzasadnienie wprowadzonych zmian i charakterystykę ich generalnego trendu: „Zmiany te odzwierciedlają filozofię odchodzenia w Rankingu Perspektyw od wskaźników »miękkich« na rzecz danych »twardych«”.

Przykładem realizacji tej filozofii jest zmniejszenie w rankingu 2020 wagi badania reputacyjnego kadry akademickiej z 12% do 10% i opinii pracodawców z 10% do 5%. Przy czym wskaźnik opinii pracodawców został zmniejszony po raz drugi z rzędu, jako że w rankingu 2019 zmniejszyliśmy go z 12% do 10%. Nawiasem mówiąc, do takiej zmiany przekonali nas wcześniej rektorzy uczelni medycznych, którzy zwrócili uwagę na ograniczenia systemowe w badaniu pracodawców, realizowanym na zlecenie „Perspektyw” przez renomowane firmy zewnętrzne, najpierw Pentor, a potem Indicator.

Oczywiście nie pozbawiamy maturzystów wiedzy o wartości rynkowej dyplomu poszczególnych uczelni, tylko wskaźnik słabszy (opinie pracodawców) zastępujemy stopniowo wskaźnikiem mocniejszym, jakim jest badanie ekonomicznych losów absolwentów. Przyjęliśmy też już wcześniej, że w edycji 2021 w ogóle zrezygnujemy z opinii pracodawców, przesuwając zarazem wszystkie „uwolnione” procenty na rzecz ELA. Dzięki temu stopniowaniu wprowadzane zmiany mają ograniczony charakter i buforują zbyt duże skoki pozycji uczelni mogące wyniknąć z powodu zmian w metodologii; zapewnia to zarazem możliwość porównywania uczelni w układzie „rok do roku”.

Pomysły na przyszłość

Cieszę się, że prof. Maciej Duszczyk uznaje dyskusję nad metodologią Rankingu Szkół Wyższych Perspektywy za pożyteczną – witam zarazem w gronie osób, które doceniają znaczenie tego rankingu i angażują swój czas w refleksję nad jego przyszłością!

Kapituła Rankingu przeprowadza taką dyskusję praktycznie na każdym posiedzeniu, ale obecnie widzimy potrzebę reasumpcji tej dyskusji, ze względu na szybkie zmiany w otoczeniu, w którym działają polskie uczelnie. Zmianą taką jest nowa sytuacja prawna wyznaczona ustawą z 20 lipca 2018 roku, którą już uwzględniliśmy w edycji 2020, ale nie jest to zapewne koniec zmian metodologicznych wynikających z tej ustawy dla rankingu. Ale też, co oczywiste, wpływa na to radykalna zmiana sytuacji, w jakiej działają uczelnie w Polsce i na świecie, która za sprawą COVID-19 przedefiniowała wiele dotychczasowych zadań i form funkcjonowania uniwersytetów.

Zmienia się też na całym świecie podejście do rozumienia zadań uczelni, coraz ważniejszy jest ich wpływ na życie społeczności i ogólnie dobrostan narodów – jest to szeroka wiązka zagadnień określanych skrótowo w rankingowych dyskusjach hasłem Impact. Tę dyskusję już kapituła prowadzi w szerokim gronie interesariuszy uczelni. Z uwagą wysłuchamy propozycji nowych jej uczestników. Zwłaszcza, iż mam przekonanie, że Pan Profesor Duszczyk dobrze rozumie zarówno rolę mediów w obronie wolności akademickich, jak i rolę rankingów w budowie reputacji polskiego szkolnictwa wyższego. To dobra podstawa do współpracy.

Zarazem z rezerwą odnoszę się do pomysłu, aby enigmatyczny „Task Force” pod auspicjami KRASP wziął na siebie odpowiedzialność za „zmodyfikowaną formułę przygotowywania (w tym w zakresie metodologii) i publikowania rankingu”. Oczywiście, jeśli KRASP chciałaby robić swój ranking, to nikt jej tego nie zabroni! Ale szans na to, aby grono konkurentów (bo tak również można spojrzeć na grupę czołowych polskich uczelni) przejęło odpowiedzialność za ranking, w którym są przecież oceniane i uzgodniło jego reguły raczej nie widzę. Nie znam zresztą ani jednego przypadku na świecie, aby w ogóle próbę taką podjęto…

Dziękuję redakcji „Forum Akademickiego” i prof. Maciejowi Duszczykowi za wcześniejsze udostępnienie jego artykułu o rankingach. To „dobra praktyka” dziennikarska, którą doceniam.

Wróć