Regina Lenart-Gansiniec, Wojciech Czakon

Rys. Paweł Kaniuk
Eksplozja zainteresowania sztuczną inteligencją oraz jej zastosowaniami w badaniach przesłania nieco postępującą równolegle transformację cyfrową nauki. Język nauki jest pełen odniesień do formatów publikowania (pdf), pakietów oprogramowania (r), sposobów przechowywania danych (chmura), interakcji wirtualnych lub hybrydowych (zoom), komunikacji przy pomocy mediów społecznościowych itd. To postępujące ucyfrowienie skupia uwagę na technice, a jednocześnie przesłania społeczny wymiar aktywności naukowej, bo przecież naukę ktoś uprawia, komuś się ona przydaje, a nawet służy.
W cieniu gorącej debaty o sztucznej inteligencji i innych rozwiązaniach wspierających indywidualną produktywność badaczy znaczenia nabiera kilka innych, nie mniej ważnych trendów: rozwój społeczeństwa obywatelskiego, demokratyzacja nauki, interdyscyplinarność oraz transdyscyplinarność oraz technicyzacja i platformizacja nauki. Jeszcze do lat 90. pomysły na badania naukowe czy szerzej ścieżki badawcze były zarezerwowane dla społeczności akademickiej. Wraz z rosnącą otwartością członków na samoorganizowanie oraz inicjowanie oddolnych inicjatyw oczekiwania zaczęły zmierzać w kierunku legitymizacji kierunków badań zgodnie z preferencjami społecznymi. Te cztery trendy prowadzą do wzrostu znaczenia całkowicie odmiennego od AI, wręcz rewolucyjnego zjawiska crowdsourcingu naukowego.
W skrócie można powiedzieć, że crowdsourcing naukowy to jedna z form crowdsourcingu, który z powodzeniem wykorzystywany jest przez organizacje komercyjne. Crowdsourcing polega na tym, że organizacja (inicjator) włącza grupę anonimowych, rozproszonych geograficznie osób do realizacji różnorodnych zadań, które zwykle wykonywali pracownicy. Opiera się on na „mądrości tłumu”, zgodnie z którą grupa osób posiada szerszą wiedzę niż pojedyncze osoby i może wypracować więcej wartościowych rozwiązań. Dzięki efektowi równoległej ścieżki różnorodne zadania mogą być realizowane przez grupę szybciej i dokładniej, niż gdyby wykonywała je jedna osoba. Crowdsourcing naukowy sprowadza się do zaangażowania przez badaczy grupy osób o zróżnicowanej wiedzy i umiejętnościach do wykonania określonego zadania i/lub zadań badawczych. Wśród tych osób znajdują się zarówno inni badacze, jak i pasjonaci nauki, niekoniecznie posiadający przygotowanie metodologiczne.
Platformy crowdsourcingowe, takie jak Amazon Mechanical Turk czy Prolific, dają możliwość przełamania granic przestrzennych czy czasowych, ułatwiając relacje pomiędzy społecznościami internetowymi a organizacją rozpoczynającą przedsięwzięcie crowdsourcingowe. Na platformach tych zarejestrowani zainteresowani wykonawcy zadań badawczych są zróżnicowani demograficznie i praktycznie są mieszkańcami wszystkich kontynentów. Jednakże crowdsourcing naukowy upowszechnia się wolniej niż chcieliby jego entuzjaści. Warto się temu zjawisku przyjrzeć dlatego, że wspomaga znacznie więcej niż produktywność indywidualną badacza, sprzyjając autentycznej demokratyzacji nauki.
Metafora wieży z kości słoniowej oddaje elitarność, ale też ekskluzywność i izolację nauki od społeczeństwa. Postrzegana jest jako zagrożenie dla samej nauki, bo stała się pożywką nieufności albo zobojętnienia, co prowadzić może do obniżenia legitymizacji nauki, a w konsekwencji do spadku nakładów na naukę. Takie zjawisko obserwujemy w naszym kraju, dlatego warto zająć się tym, co legitymizację nauki buduje. Obok rozwoju społeczeństwa obywatelskiego odnotować można postulaty demokratyzacji nauki odnoszące się do otwarcia nauki na możliwość włączenia się każdej osoby zainteresowanej w tworzenie wiedzy naukowej. To otwarcie łączy się z inkluzywnością czy transparentnością nauki, ale także koniecznością odbudowania zaufania społeczeństwa wobec wyników badań naukowych. Nie bez znaczenia są postulaty budowania przez naukowców ekosystemu opartego na kreatywności, współpracy, komplementarności, współtworzeniu, w którym uwzględnia się transfer i komercjalizację wiedzy naukowej oraz jej upowszechnienie. Doszukując się kluczowych mechanizmów sprzyjających funkcjonowaniu takich ekosystemów, znajdujemy pojęcia potrójnej helisy, tj. współpracy administracji publicznej, biznesu i nauki, a dalej poczwórnej i pięciokrotnej helisy, które włączają dodatkowo organizacje pozarządowe i obywateli, a także środowisko naturalne. Słowem, zachodzi krytycznie istotna potrzeba systematycznego i skutecznego przełamywania izolacji nauki od otoczenia.
Wieże z kości słoniowej występują także i w samej nauce, gdzie pracowicie budowane są granice poszczególnych dyscyplin. Ich rozwój i poszukiwanie własnej tożsamości, odrębnej od wcześniej powstałych dyscyplin, jest naturalny. Ale jednocześnie formalizacja tych granic zamyka badaczy w granicach dziedzin. Tymczasem inter-, jak i transdyscyplinarność tworzą współpracę naukową ponad granicami dyscyplin. Z całą pewnością można je nazwać mianem „must have” dla badaczy, chociażby z uwagi na potencjalne korzyści. W szczególności mowa tu o korzyściach w ujęciu finansowym, zasobowym czy pozycyjnym. W odniesieniu do współpracy interdyscyplinarnej przedstawiciele różnych dyscyplin naukowych integrują swoją wiedzę w celu tworzenia zupełnie nowej, łączącej wielość perspektyw oraz spojrzeń. Natomiast transdyscyplinarność łączy się z możliwością rozpoznania rzeczywistych problemów społeczeństwa, proaktywnego wspierania interwencji zorientowanych na rozwiązywanie tych problemów, a także poprawę warunków funkcjonowania ludzi oraz ich włączanie i zaangażowanie w realizację zadań badawczych. Wszystko to wpisuje się w postulaty wyjścia badaczy z wieży z kości słoniowej, silosów dyscyplinarnych na rzecz włączenia członków społeczeństwa w tworzenie wiedzy naukowej.
Realizacja tych postulatów jest niełatwa w świecie analogowym, wymaga bowiem znaczących nakładów. Jednakże technicyzacja oraz platformizacja nauki przełamują te ograniczenia, sprzyjając współpracy naukowej, dywersyfikacji wiedzy oraz jej wymianie. Pomocne w tym mogą okazać się nie tylko platformy cyfrowe, za pomocą których badacz może bezpośrednio kontaktować się z innymi badaczami i/lub osobami spoza środowiska naukowego. Mogą to być także platformy umożliwiające administrację realizacji zadań badawczych oraz archiwa i repozytoria, które mają za zadanie ułatwienie komunikacji naukowej czy popularyzację wyników badań naukowych. Jednym słowem, zarówno technicyzacja, jak i platformizacja stanowią odpowiedź na nierówny rozkład wpływów na badania naukowe przy jednoczesnym zwiększeniu zasobów, w szczególności finansowych, oraz zacieranie się granic pomiędzy produkcją naukową a popularnonaukową. Tak oto splatają się postulaty demokratyzacji nauki, jej wyjścia z izolacji, z możliwościami technicznymi, prowadząc badaczy w stronę crowdsourcingu naukowego.
Crowdsourcing naukowy może być wykorzystywany na każdym etapie procesu badawczego: od koncepcyjnego, przez empiryczny, kończąc na analizie danych oraz publikacji wyników prowadzonych badań naukowych. Na etapie koncepcyjnym procesu badawczego crowdsourcing naukowy może okazać się pomocny w uzyskaniu przez badacza dostępu do dużej ilości różnorodnych i specjalistycznych zasobów danych, identyfikacji luk poznawczych, formułowaniu celu badań oraz hipotez badawczych, czy szerzej: ulepszeniu istniejącej wiedzy i poszukiwania nowych rozwiązań w celu zmniejszenia ograniczeń dotychczasowych badań. W badaniach empirycznych, crowdsourcing naukowy pozwala na zaangażowanie członków społeczności wirtualnej w opracowanie lub poprawę protokołów eksperymentów bądź kwestionariuszy ankiet. Ponadto crowdsourcing naukowy może okazać się przydatny do przeprowadzania eksperymentów, badań sondażowych oraz sprawdzenia dowodów naukowych. Wreszcie crowdsourcing naukowy łączony jest z analizą zgromadzonego materiału empirycznego, w szczególności z jego przetwarzaniem, wizualizacją oraz integracją. Szczegółowiej, umożliwia on włączanie społeczności spoza i z akademii do tłumaczenia tekstów, analizy materiałów audio i wideo, treści, kodowania, transkrypcji, kategoryzowania, katalogowania, kontekstualizacji oraz mapowania zgromadzonych danych. Crowdsourcing to także możliwość wymiany materiałów naukowych, a nawet uzyskanie recenzji partnerskiej czy współpracy przy redagowaniu, a nawet pisaniu tekstu naukowego.
Nawet pobieżny ogląd artykułów naukowych (za pomocą dwóch baz danych Web of Science oraz Scopus; słowa kluczowe: crowdsourcing AND Amazon Mechanical Turk OR Profilic), w których badacze sięgali po crowdsourcing naukowy, pozwala na stwierdzenie, że najczęściej wykorzystywany jest on na etapie empirycznym procesu badawczego, w szczególności do pozyskiwania uczestników badań, w tym kwestionariuszowych oraz eksperymentalnych. Po crowdsourcing sięga się we wszystkich dziedzinach i dyscyplinach naukowych, a artykuły, w których był on wykorzystywany, ukazywały się w renomowanych, niedrapieżnych czasopismach naukowych, w tym z najwyższym impact factorem. W szczególności argumentowano to jego zaletami w zakresie wydajności, opłacalności, anonimowości oraz dostępu do różnorodnej wiedzy i umiejętności. Podkreślano aspekty finansowe i czasowe, bowiem badania eksperymentalne zamiast kilku tygodni oraz budżetów wartości kilkunastu tysięcy złotych, mogą za pomocą crowdsourcingu zająć kilka godzin czy opłacie kilkunastu dolarów (w przypadku platformy Amazon Mechanical Turk). Obietnica dostępu za pomocą platform crowdsourcingowych do ponad 500 000 osób ze 190 krajów także stanowiła jeden z istotnych argumentów przemawiających za takim sposobem tworzenia wiedzy naukowej.
Crowdsourcing naukowy ma swoje słabości, które dla uporządkowania pogrupowaliśmy w sześć kategorii związanych z: procesem, danymi, wiedzą, delegowaniem, jakością oraz etyką. Proces badawczy łączy się z ryzykiem niewłaściwej oceny przez inicjatora-pracownika naukowego, czy określone zadanie badawcze jest możliwe do przekazania społeczności wirtualnej. Jeśli badacz skieruje niewłaściwe zadanie do internautów, w trakcie trwania inicjatywy może okazać się, że nie będą oni posiadali wystarczającej wiedzy i umiejętności, a to w konsekwencji prowadzić może po porzucenia zadania w trakcie realizacji (faktycznie ma to miejsce w średnio ponad 30% zadań). Słabością może być także niskie zaangażowanie internautów. Łączy się to z zasadą „regulującą” crowdsourcing, a mianowicie „1-9-90”, gdzie jeden procent to tzw. superużytkownicy, w pełni zaangażowani, spędzający aktywnie wiele godzin na platformie i realizujący zadania bez względu na to, czy będą wynagradzani, czy też nie. Dalej, 9% członków społeczności wirtualnej wnosi wkład sporadycznie oraz może wystąpić zagrożenie porzucenia realizacji zadania w sytuacji zniechęcenia, poczucia zbyt dużego nakładu pracy czy czasu. I wreszcie, 90% uczestników inicjatyw crowdsourcingowych „konsumuje” informacje dostarczane przez innych, a więc są to wyłącznie czytelnicy.
Poza tym, członkowie społeczności wirtualnej z różnych powodów angażują się w crowdsourcing naukowy. W crowdsourcingu mówi się o „zasadzie 4F”, gdzie członków społeczności wirtualnej motywują: zabawa, dobre samopoczucie (spełnienie), sława oraz majątek. W przypadku tego ostatniego istnieje zagrożenie, że internauci mogą podejmować zbyt wiele zadań jednocześnie w celu maksymalizacji zysku. Może się także zdarzyć sytuacja taka, że jeden internauta będzie posiadał kilka alternatywnych kont na platformie, z których będzie się wielokrotnie logował i wykonywał to samo zadanie. Otwarta natura crowdsourcingu naukowego sprawia, że inicjator nie ma pewności co do tego, kto właściwie uczestniczy w tej inicjatywie. Nie mamy pewności, czy dostępne dane demograficzne są prawdziwe – najczęściej zafałszowania dotyczą dochodu, wykształcenia, wieku, płci oraz stanu rodzinnego. Wszystko to może potęgować niestaranność społeczności wirtualnych w realizacji zadań. Może to pójść nawet w stronę wykorzystania sztucznej inteligencji (np. boty) czy innego oprogramowania, które ma potencjał do automatycznego wykonywania kilku czy kilkunastu zadań jednocześnie w imieniu internauty. Przykład takiego oszustwa szeroko opisano w magazynie „Wired” (A bot panic HITs Amazon Mechanical Turk). Odnotować można także fora internetowe, na których członkowie społeczności wirtualnych prześcigają się w pomysłach na sposoby manipulacji i oszustw podczas realizacji zadań badawczych, a także oceniają wiarygodność badaczy oraz wskazują tych, których warto ignorować i bojkotować. Mowa tu o forach Turkopticon (https://turkopticon.net) lub Turker Nation (https://www.reddit.com/r/TurkerNation/?rdt=63204).
W przypadku słabości związanych z danymi w niektórych zadaniach crowdsourcingowych inicjator udostępnia internautom dane, które są następnie przez nich przetwarzanie, oceniane czy komentowane. Implikuje to obawę o nieuprawnione kopiowane, przetwarzanie i wykorzystywanie danych bez wiedzy inicjatora, co może prowadzić do naruszenia własności intelektualnej. Wszystko to wpisuje się w paradoks otwartości, który opisuje napięcie między koniecznością dzielenia się przez badacza wiedzą na platformach crowdsourcingowych a ochroną wiedzy. Jednym słowem, bez dokładnego opisu zadania badawczego istnieje ryzyko, że naukowiec otrzyma rozwiązanie niezgodne z jego oczekiwaniami. Z kolei zbyt dokładny opis naraża go na kradzież pomysłu na badania naukowe. Poza tym mogą się pojawić wątpliwości co do praw autorskich do danych przetworzonych przez społeczność wirtualną oraz rezultatów naukowej inicjatywy crowdsourcingowej. Dodatkowo, członkowie społeczności wirtualnej mogą uznać, że tworzone lub dostarczane przez nich treści i dane nie powinny być dostępne i wykorzystywane przez inne osoby.
Trzeba podkreślić, że społeczność wirtualna zaangażowaną w crowdsourcing naukowy stanowią zarówno osoby posiadające wyspecjalizowaną wiedzę oraz doświadczenie badawcze, ale także osoby, które wywodzą się spoza środowiska naukowego. Inicjator nie ma wiedzy odnośnie do poziomu wiedzy czy umiejętności. Założenie z góry, że internauci posiadają wystarczającą wiedzę i umiejętności może prowadzić do uzyskania przez inicjatora błędnych rozwiązań lub rozwiązań o niskim poziomie jakości. Ponadto, przekazanie do społeczności wirtualnej określonego zadania do wykonania bez uprzedniego jej przeszkolenia niesie ze sobą zagrożenie w postaci uzyskania różnorodnych wyników z naruszeniem rygoru metodologicznego.
Ponadto, delegowanie zadań do społeczności wirtualnych wymaga komunikowania się inicjatora z internautami. Brak komunikacji zwiększa ryzyko trudności dostępu do potencjału internautów oraz porzucenia przez nich zadania. Może zdarzyć się sytuacja, gdy internauta będzie chciał uzyskać informacje na temat nurtującego go problemu dotyczącego bieżącej inicjatywy. Brak odpowiedzi może skutkować zniechęceniem i porzuceniem przez niego zadania. Niewystarczające działania w zakresie delegowania zadań mogą prowadzić do uzyskania przez inicjatora nadmiaru informacji oraz potęgować trudność integracji wkładu większej liczby uczestników. Poza tym nieprawidłowe interakcje lub też ich brak, niewystarczające mechanizmy sprzężenia zwrotnego również mogą przyczynić się do zniechęcenia internautów, osłabienia ich zaangażowania i porzucenia zadania.
Otwarty charakter crowdsourcingu naukowego potęguje niepewności co do tego, kto bierze udział w realizacji zadania. Stąd może pojawić się obawa o jakość uzyskanych wyników/rezultatów pracy społeczności wirtualnej. Wreszcie, anonimowość członków społeczności wirtualnej, chęć szybkiej realizacji zadań czy wykonywania jednocześnie kilkanaście innych potęgują nieuważność czy pomyłki, co w ostateczności może wpłynąć na obniżenie jakości uzyskiwanych danych czy rozwiązań.
I wreszcie, po szóste, kwestia angażowania członków społeczności wirtualnej do podjęcia określonego zadania lub zadań badawczych wpisuje się w tzw. gospodarkę platformową. Crowdsourcing naukowy może zatem być odbierany przez społeczność badawczą, ale i różnorodnych interesariuszy, jako forma wyzysku. Sam Jeff Bezos, twórca platformy Amazon Mechanical Turk, powiedział: „Słyszałeś o oprogramowaniu jako usłudze. Teraz to jest człowiek jako usługa” (https://www.politico.eu/article/coronavirus-pandemic-worker-rights-amazon-uber-upwork). Co więcej, pandemia obnażyła słabości gospodarki platformowej i rzuciła więcej światła na warunki pracy „pracowników widmo”. Osoby wykonujące różnorodne zadania na platformie Amazon Mechanical Turk otrzymywały wynagrodzenie w wysokości 4-6 USD za godzinę. Ponadto inicjator może odmówić zapłaty pracownikom crowdworkowym za ukończoną pracę z uwagi na subiektywną ocenę jakości ich pracy.
Powodów sięgania lub nie przez badaczy po crowdsourcing naukowy jest wiele. Jednym z nich, chyba najistotniejszym, są sygnalizowane wcześniej słabości, które można nazwać nawet ciemnymi stronami crowdsourcingu naukowego. Nie można jednak nie wspomnieć o tych istotnych z punktu widzenia samego inicjatora-badacza, w szczególności odnoszących się do motywacji, postaw, aspektów poznawczych, społecznych oraz organizacyjnych.
Rezygnacja z crowdsourcingu naukowego może wynikać z braku zachęt związanych ze statusem w środowisku naukowym, potwierdzenia tożsamości zawodowej, rozpoznawalności naukowej czy aprobaty w międzynarodowym środowisku naukowym. Jeśli angażowanie społeczności wirtualnej w pracę naukową jest postrzegane przez badacza jako nadmiernie absorbujące, obciążające i wymagającego zaangażowania znacznych zasobów oraz czasu, crowdsourcing nie zostanie zainicjowany. Tak sygnalizowana niechęć może także wynikać z postrzeganych przez badacza niedociągnięć istniejących platform crowdsourcingowych oraz braku regulacji instytucjonalnych dotyczących włączania społeczności wirtualnej do badań naukowych.
Normy społeczne, poprzednie doświadczenia, postrzegana kontrola behawioralna, użyteczność, ryzyko oraz wysiłek mają znaczenie dla podejmowania crowdsourcingu. Naukowcy chętniej zdecydują się na udział w działaniach opartych na włączeniu członków społeczeństwa do badań w sytuacji, gdy ich współpracownicy też to robią. Sięgnięcie po crowdsourcing naukowy może wynikać z postrzeganej przez badaczy akceptacji określonego zachowania przez współpracowników z macierzystej uczelni czy szerzej: środowisko naukowe, a więc norm społecznych. Powiązane jest to z tzw. efektem Sagana, co sprowadza się do obaw naukowców o negatywne sankcje środowiska naukowego w sytuacji włączenia członków społeczeństwa w proces badawczy. Z kolei presja normatywna może przyczynić się do tego, że akademicy będą obserwować, akceptować, a potem wdrażać w swojej pracy naukowej społecznie przyjęte zachowania w środowisku naukowym. W tym ujęciu przypuszczalne naciski normatywne sprawiają, że naukowcy dostosowują się do norm, aby wzmocnić swój profesjonalizm oraz uzyskać legitymizację swojego sposobu pracy.
Badacze są racjonalni w swoich zachowaniach. Dlatego istotny jest postrzegany wysiłek, który ma być włożony w organizację naukowej inicjatywy crowdsourcingowej. Jeśli badacz uzna, że nakłady czasu i wysiłku przewyższają koszty, to nie zdecyduje się na crowdsourcing naukowy. Co więcej, nawet gdy badacz zdecyduje się na crowdsourcing naukowy, a napotka pewne trudności, może zrezygnować z niego w przyszłych projektach. Nie bez znaczenia jest przekonanie, że crowdsourcing spełni ich potrzeby związane z dostępem do zróżnicowanej wiedzy, umiejętności czy podniesieniem jakości prowadzonych badań. Ostatnią kwestią mogącą mieć znaczenie dla intencji sięgnięcia po crowdsourcing naukowy są przekonania pracowników, że uczelnia ceni ich wkład i zapewni możliwości zwiększenia potencjału zawodowego. W związku z tym czują się zobowiązani do odwzajemnienia tych przysług i wykazują skłonność do wykonania określonych działań. Jak już wspomnieliśmy, wykorzystanie crowdsourcingu w badaniach naukowych może prowadzić do różnych dylematów etycznych, przed którymi stają pracownicy naukowi, takich jak: reprezentatywność próby, uogólnianie, jakość uzyskanych danych czy wynagrodzenie dla członków społeczności wirtualnej. Prowadzi to do tego, że naukowcy będą zainteresowani możliwością uzyskania wsparcia w zakresie tworzenia mechanizmów zapewniających jakość w projektach badawczych realizowanych za pomocą crowdsourcingu. Dodatkowo, platformy crowdsourcingowe można postrzegać jako system zarządzania pracą, w którym naukowcy monitorują, zarządzają i reagują na pracę internautów, aby zapewnić jej jakość. Jak każdy system, tak i uruchomienie projektu badawczego za pomocą platformy crowdsourcingowej wymaga od naukowców wiedzy na temat jej funkcjonalności i działania. Dlatego na znaczeniu zyskuje możliwości uzyskania wsparcia technicznego przez naukowców.
Pierwszy rzut oka na wyzwania związane ze stosowaniem crowdsourcingu naukowego może być paraliżujący, bowiem ich liczba i znaczenie dla rygoru metodologicznego wydają się fundamentalne. Występują również wyzwania behawioralne, które ograniczają szerszą jego popularyzację. Znaczenie mają grupy odniesienia czy poznanie przez pracownika naukowego istoty crowdsourcingu i jego potencjalnych korzyści dla tworzenia wiedzy naukowej. Warto zatem, aby uczelnie udostępniły swoim pracownikom przykłady dobrych praktyk stosowania crowdsourcingu naukowego przez uczonych z innych placówek. Może to ośmielić i zachęcić do stosowania crowdsourcingu naukowego, gdyż naukowcy dostrzegą, że taki sposób tworzenia wiedzy jest aprobowany.
Takie działania podejmowane są przez uczelnie. Przykładowo, szczegółowe wytyczne i rekomendacje dotyczące korzystania z crowdsourcingu w pracy naukowej zamieściły dla pracowników naukowych takie uczelnie jak: Lehigh University w Bethlehem (https://research.cc.lehigh.edu/crowdsourcing), Laboratory for Innovation Science Uniwersytetu Harvarda (https://lish.harvard.edu/developing-best-practices-crowdsourcing) czy UC Berkeley (https://matrix.berkeley.edu/research-article/crowdsourcing-social-research). Natomiast grupa ExCitesS na University College London opracowała bezpłatny ogólnodostępny kurs zatytułowany „Wprowadzenie do nauki obywatelskiej i crowdsourcingu naukowego” (https://extendstore.ucl.ac.uk/product?catalog=UCLXICSSCJan17). A zatem dobrym rozwiązaniem może być opracowanie przewodnika po platformach crowdsourcingowych i ich funkcjonalnościach. Powinien on mieć charakter interaktywny, z możliwością szybkiego, intuicyjnego przeszukiwania haseł czy rozwiązań pojawiających się problemów.
Innym krokiem jest rozwój kompetencji badaczy w zakresie crowdsourcingu naukowego, które umożliwią podjęcie tego typu inicjatywy. Stoimy na stanowisku, że wsparcie w postaci szkoleń nie powinno być obligatoryjne, lecz dostępne dla zainteresowanych. Narzucanie czy włączenie crowdsourcingu naukowego w systemy oceny pracowniczej nie tylko nie zachęcą do niego naukowców, ale wręcz przeciwnie – będzie on traktowany jako kolejny obowiązek, który musi być realizowany. To raczej spotęguje sygnalizowanie wyzwania niż je zniweluje. Warto crowdsroucing naukowy włączać w praktyki naszych instytucji, ten obiecujący proces zasługuje na uwagę dlatego, że łączy.
Regina Lenart-Gansiniec, Wojciech Czakon, Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński w Krakowie