Wojciech Czakon, Grzegorz Mazurek
Zaledwie pokolenie temu świat nauki odkrył internet dzięki technologii www udostępnionej w 1991 roku. Niedługo później, w 1998 r., pojawiła się wyszukiwarka, która udostępnia ogromny zbiór informacji, a nazwa Google stała się synonimem wyszukiwania w internecie. Nie tak dawno (w 2001) powstała Wikipedia, czyli baza wiedzy współtworzonej przez wielu, a dostępnej dla wszystkich. Świeże jest też doświadczenie uczenia online w związku z pandemią COVID-19, które było możliwe dzięki pionierskiej technologii Zoom (2011) i podobnym systemom. Wyróżnikiem i wspólną cechą wymienionych technologii cyfrowych jest niski koszt dystrybucji i masowe zastosowanie.
Każde z tych rozwiązań w bardzo szybkim tempie zostało przyjęte na świecie, a ludzkość korzysta z nich miliardy razy w ciągu roku. Znacznie ułatwiły one dostęp do wiedzy, obniżyły koszty jej upowszechniania, a przy tym zmieniły procesy dydaktyczne i badawcze. Ta seria głębokich zmian odbywa się w bardzo krótkim czasie: jesteśmy jej świadkami, uczestnikami, a nawet współtwórcami w ciągu jednej kariery.
Dziś odczuwany autentyczny szok związany ze sztuczną inteligencją (SI) jest kolejnym przeobrażeniem technologicznym w biznesie, edukacji, a szczególnie w szkolnictwie wyższym. Upowszechnienie SI nie pozwala obojętnie przejść obok tego tematu, gdyż jego implikacje są bardzo głębokie i jeszcze nie do końca rozpoznane, co wynika z rosnącego potencjału dostępnych narzędzi, takich jak ChatGPT.
Tempo opisanych zmian technologii stawia środowisko naukowe wobec konieczności przemyślenia przyszłości akademii. Celem naszego artykułu jest wskazanie obszarów silnego wpływu technologii i możliwości wykorzystania nowych narzędzi informatycznych. Dostrzegamy pilną potrzebę refleksji na temat wpływu sztucznej inteligencji na naukę, komunikację naukową i na procesy dydaktyczne, w których dotychczasowe standardy znajdują się pod silną presją etyczną, prawną i pragmatyczną, stwarzaną przez nowe aplikacje i rozwiązania. Skorzystanie z szansy, jaką daje postęp technologiczny, wymaga postawienia fundamentalnych pytań i udzielenia wstępnych odpowiedzi, jak etycznie, dla dobra nauki i ku pożytkowi ludzkości używać aplikacji SI, takich jak ChatGPT.
Ci spośród nas, którzy interesują się rozwojem technologii, zostali nieco zaskoczeni pojawieniem się tego niezwykłego narzędzia SI. Jednocześnie ci ze środowiska akademickiego, którzy mniej albo wcale nie interesują się nowymi technologiami, nie mają świadomości potencjalnego przełomu w edukacji, który właśnie się wyłania. Tymczasem brak świadomości istotnych zdarzeń może mieć opłakane skutki także w szkolnictwie i nauce, jak uczy strategia (gdy najboleśniej odczuwamy zaskoczenie) albo sport (jak w boksie, gdy nokautujący jest cios, którego nie dostrzegliśmy).
Dlatego chcemy zwrócić uwagę na wtargnięcie zaskakująco skutecznego robota językowego ChatGPT, który zapowiada pojawienie się na masową skalę sztucznej inteligencji w systemie edukacji. Aplikacja zyskała pierwszy milion użytkowników na świecie w ciągu tygodnia, a pierwsze 100 milionów w dwa miesiące. Dla porównania: aż 9 miesięcy potrzebowała szalenie popularna wśród młodzieży aplikacja społecznościowa TikTok, aby osiągnąć 100 milionów użytkowników. A ChatGPT to przecież aplikacja użytkowa.
Z drugiej strony wiemy, że dyfuzja innowacji pośród użytkowników ma swoje fazy, entuzjaści niekoniecznie „zarażą” milczącą większość, bo nie każdy jest otwarty na nowość w równym tempie i nie zawsze w tym samym stopniu ją opanuje. W dalszej części formułujemy więc kluczowe pytania, które wymagają rozważnego przeanalizowania, poszukiwania użytecznych i rzetelnych odpowiedzi, aby nowe narzędzia SI w edukacji przyniosły potrzebne zmiany.
ChatGPT może samodzielnie pisać teksty lub ich fragmenty (i ich kolejne wersje) w dowolnym języku, może je też recenzować. Dodatkowo sam się uczy, pisząc i recenzując własne teksty. Jest chatbotem konwersacyjnym opartym na dużych modelach językowych wykorzystujących technologię głębokiego uczenia, a w jego zasobach są nieograniczone zbiory danych z całego świata. Obecnie ChatGPT pozostaje w gestii firmy Microsoft, która bardzo szybko go integruje ze swoimi sztandarowymi produktami i tworzy komercyjne, odpłatne wersje tego narzędzia. ChatGPT jest jednym z dostępnych narzędzi tego typu, dlatego odnosimy się nie tylko do niego, ale do szerokiej zmiany technologicznej polegającej na wykorzystaniu SI w edukacji.
To pozornie błahe pytanie dotyczy podmiotowości i sięga korzeniami początków robotyki. Trudno uznać aplikację zdolną do napisania eseju czy zdania nieskomplikowanego egzaminu za proste narzędzie. SI jest niewątpliwie czymś więcej, ale nie mamy jeszcze odpowiedzi na pytanie, czym jest naprawdę. O pokusach z tym związanych może świadczyć korporacyjne nazewnictwo robotów wspomagających pracowników: niektóre roboty są asystentami operatora, ale niektóre stanowiska pracy człowieka to „asystent robota”. O ile więc ChatGPT wtargnął przebojem do edukacji, to nadal trudno określić, w jakim charakterze. W znaczeniu technicznym miliony pytań zadawanych aplikacji pozwalają jej się uczyć. W trakcie eksperymentów indywidualnych staramy się odkryć granice przydatności tej aplikacji. Stajemy wobec kontinuum, w którym ChatGPT jest pełnoprawnym uczestnikiem edukacji, a my go uczymy, ale z drugiej strony to on ma ułatwiać nam uczenie się.
A może taka aplikacja jest zupełnie inną kategorią podmiotu, z którą ludzkość dotychczas się nie spotkała? Pojawia się więc wyzwanie filozoficzne, ontologiczne, do udzielenia odpowiedzi na pytanie, czym jest sztuczna inteligencja (w postaci ChatGPT), a wobec tego w jakim stopniu uczestniczy ona w procesach edukacji? Pytanie jest naglące dlatego, że ChatGPT jest pośród nas, a my nadal nie wiemy, czym jest. Nie dowiemy się tego od kluczowych decydentów i czynników oficjalnych (policy makers), jak ministerstwa, instytucje akredytujące i certyfikujące uczelnie, bowiem prezentują one różne punkty widzenia albo stosują strategie obserwacji i wyczekiwania. To niezwykłe narzędzie ma niewątpliwie dużą moc zmieniającą teorie, koncepcje i paradygmaty naukowe. Czy zmieni sposób uprawiania nauki, zarządzania nauką i wpłynie na efekty kształcenia? Wiele wskazuje, że to już ma miejsce.
Słynne prawa sformułowane przez Isaaca Asimova nadal uważane są za memento przy rozwoju robotyki. Pierwsze z nich stanowi, że robot nie może szkodzić człowiekowi. Od jakiegoś czasu wiemy, że może przynieść pożytek, odpowiadając na proste pytania, wykonując bardziej złożone zadania (np. kodowanie) czy pisząc teksty. Tej wiedzy nie towarzyszy jednak analogiczna świadomość konsekwencji (i szkód), które może przynieść użycie narzędzi SI. A przecież jeśli jeden student skorzysta z ChatGPT, a drugi nie, to ten drugi znajdzie się w gorszym położeniu. Podobnie, jeżeli jeden autor książki pisze ją sam, a drugi użyje ChatGPT, to ten pierwszy nie nadąży za konkurentem.
Długoterminowe skutki mogą być jednak bardziej bolesne. Wykształcony człowiek pozna z łatwością niedociągnięcia tekstów pisanych przez ChatGPT. Ta zdolność bierze się z kompetencji i wykształcenia, które zdobył wcześniej. Czy jednak bezrefleksyjnie korzystając z ChatGPT w edukacji nie pozbawimy się tych właśnie kompetencji? Wyzwaniem dla wykładowców, nauczycieli i systemu edukacji pozostaje określenie konsekwencji (także negatywnych), jakie SI może przynieść jej użytkownikowi, innym osobom, grupom i całemu społeczeństwu i to w krótkim i długim terminie.
Drugie prawo Asimova mówi, że robot musi wykonywać polecenia człowieka, chyba że są sprzeczne z prawem pierwszym. Pojawia się tu kolejny paradoks, bowiem nie znając ewentualnych szkód, ChatGPT może „niechcący”, jak sam zapowiada na stronie powitalnej, wprowadzić nas w błąd. Oznacza to, że jego twórcy są świadomi praw Asimova. Tymczasem przypisywanie sobie autorstwa materiału napisanego w całości przez SI może zostać w przyszłości uznane za naruszenie etyki, zaś digitalizacja tekstów umożliwi masową weryfikację autorstwa pod tym kątem. Wobec tego wydane dziś polecenie napisania, streszczenia albo sparafrazowania tekstu może teraz nie przynosić szkody, ale jest ona prawdopodobna w przyszłości. Wyzwaniem jest więc określenie poleceń, które ChatGPT może wykonywać, oddzielenie ich od tych, których nie może w żadnym przypadku posłuchać, a także wskazanie tych, które wymagają zastrzeżeń i autoryzacji.
Trzecie prawo Asimova stanowi, że robot musi dbać o swoje przetrwanie, chyba że jest to sprzeczne z prawem pierwszym i drugim. To prawo budzi najmniej wątpliwości natury pragmatycznej. Użyteczność ChatGPT jest tak urzekająca, zwłaszcza wobec mniej skomplikowanych, ale czasochłonnych zadań, że sami zadbamy o jego przetrwanie. A dalej o pojawienie się podobnych rozwiązań, które już zapowiedzieli konkurenci. Z tego możemy wyciągnąć wniosek, iż SI już z nami zostanie. Wobec czego kolejne pytania stają się bardzo ważne i pilne.
Współczesny stan regulacji odnośnie do SI wciąż pozostaje niejasny dla większości użytkowników, w tym dla naukowców (może z wyjątkiem prawników zajmujących się własnością intelektualną), zaś regulacje dotyczące definiowania, obrotu, sankcji za naruszenia praw w obszarze SI jeszcze się nie wyłoniły. Dla wielu stwarza to pokusę, aby używać ChatGPT bez żadnych ograniczeń, a w przypadku jakichkolwiek pytań gromko anonsować, że przecież to nie jest niedozwolone. Brak regulacji tworzy przestrzeń, którą wypełni praktyka, a doświadczenie wskazuje, że w takiej sytuacji zwyciężą najsilniejsi (najszybsi, najzwinniejsi, najbardziej dyskretni itd.).
Dlatego pojawia się wyzwanie natury legislacyjnej, tj. zdefiniowania zakresu dopuszczalnej interwencji SI w twórczość człowieka, aby móc tę twórczość uznać za autorską. Dalej występuje potrzeba uregulowania rekomendowanego użycia SI, dopuszczalnego użycia, niedopuszczalnego użycia SI, obowiązku ujawnienia samego faktu i zakresu użycia SI w celu uzyskania ocen, a dalej potwierdzenia kwalifikacji w postaci certyfikatów lub dyplomów. Oprócz regulacji ogólnych, potrzebne są jeszcze regulacje na poziomie uczelni, bowiem ich metody postępowania w tym zakresie – z dużym prawdopodobieństwem – będą różne.
ChatGPT to własność intelektualna jednej organizacji, która dąży do zintegrowania go ze swoimi sztandarowymi produktami i do tworzenia komercyjnych wersji tego narzędzia. Czy ta własność pozostanie w długim terminie przy obecnym dysponencie, czy też będzie stanowić nieuregulowany element infrastruktury społecznej, jak widać na przykładzie internetu? Wydaje się, że choć samo narzędzie będzie w gestii jednego podmiotu, to podobne rozwiązania pojawiać się będą wkrótce u innych graczy (co zapowiedziała już firma Google).
Komercyjne zastosowania tych narzędzi będą stanowić poważne wyzwanie dla szkół wyższych, podobne w swoim charakterze do wykreowanego przez platformy typu MOOC (masowe otwarte kursy online). Istnieją uczelnie, które opłacają dostęp do tych platform dla studentów (np. studenci Akademii Leona Koźmińskiego mogą za darmo korzystać z kursów na platformie LinkedInLearning, która teoretyczne jest konkurentem dla uczelni). Być może na tej samej zasadzie ChatGPT będzie dostarczany studentom jako dodatkowe narzędzie, a główną wartością płynącą z jego powszechnego użycia będzie tworzenie krytycznej nadbudowy myśli i inteligencji wobec treści generowanych przez sztuczną inteligencję.
Proces pisania jest procesem twórczym, w którym ostateczny kształt i treść zdania są efektem niepowodzeń, zmian, usuwania i dopisywania fragmentów, weryfikowania faktów, sprawdzania, redagowania i korekty. ChatGPT zlikwiduje ten proces „kultywacji gruntu”, zaś rolą człowieka będzie raczej wygładzenie i zmodyfikowanie treści stworzonych przez maszynę niż ich wstępne opracowywanie. Im lepsze krytyczne myślenie człowieka (wykładowcy, nauczyciela, studenta i ucznia), tym ta ingerencja będzie dojrzalsza.
Warto jednak podkreślić, że takie narzędzia, jak ChatGPT nie służą i nie powinny służyć całkowitej eliminacji pisania esejów, prac okresowych czy dyplomowych: chodzi raczej o eliminację przygotowania takich prac pisemnych, których celem jest sama ocena studenta, a nie jego rozwój intelektualny, naukowy, kulturowy czy społeczny. W edukacji wyższej eseje czy prace pisemne powinny być drogą do celu, a nie samym celem. Stąd ChatGPT (i inne podobne narzędzia) jest świetną okazją do takiego kształcenia studentów, aby rozumieli różnicę między inteligencją ludzką a maszynową i aby nie mylili nawet najbardziej sprawnych odpowiedzi sztucznej inteligencji z możliwościami ludzkiego umysłu, krytycznym myśleniem i analitycznym podejściem do złożonych zagadnień.
Romantyczna wizja ludzkości kładzie nacisk na wyjątkową zdolność człowieka, jaką jest odkrywanie, a potem doskonalenie i rutynizacja umiejętności, także odnoszących się do obszarów nieznanych (jak obecnie SI). Rzecz jednak w tym, że eksperymentowanie indywidualne jest najmniej efektywne przy opanowaniu nowych umiejętności. Głównie dlatego, że wielu eksperymentuje bez żadnej systematyczności, a wszyscy eksperymentują równolegle z tego samego poziomu. To jeden z głównych powodów, dla których nauka jest społecznie cenna, bowiem odkrywanie, eksperymentowanie i aplikacje odbywają się w sposób rygorystyczny, wiarygodny i efektywny. Dlatego dziś potrzebna jest nauka o wykorzystaniu SI w procesach edukacyjnych w szczególności, a także o współdziałaniu człowieka i SI. Tym bardziej że uzasadniona jest teza, że SI się upowszechni (a nie zostanie zablokowana na drodze zakazów).
Dlatego sądzimy, że wielkim wyzwaniem jest opracowanie procedur, zasad, umiejętności, testów itd., które pozwolą badaczom nauczyć się korzystania z SI, a dalej uczyć innych tego samego. Warto podkreślić, że w tradycyjnym programie studiów było miejsce na tzw. propedeutykę studiowania, który to przedmiot obejmował naukę korzystania z biblioteki. Analogicznego przedmiotu w epoce Google nie ma, bowiem zakładamy milcząco, że każdy przecież potrafi korzystać z wyszukiwarki. Tymczasem nic nie uzasadnia tego przekonania, bo uczniów i studentów nikt tego nie uczy, nie ma standardowej umiejętności przeszukiwania zasobów internetowych, a nawet standardów opisu tej umiejętności. Podobnie rzecz się ma z Wikipedią, która ma wady i zalety, ale nie przekazujemy ich uczniom i studentom. Jesteśmy przekonani, że pojawienie się SI wymusi wprowadzenie przedmiotu dotyczącego wykorzystania narzędzi cyfrowych w edukacji. Także narzędzi, które automatycznie będą wykrywały naruszenia zasad, w tym niesamodzielnych prac z użyciem ChatGPT.
Zakładamy, że dla nauczających na poziomie wyższym wychwytywanie treści tworzonych przez ChatGPT nie będzie trudne. Treści te są (obecnie) zgrabnymi, akceptowalnymi, poprawnymi językowo tekstami, jednak widać ich powierzchowność i swoistą płytkość. ChatGPT ma szereg niedoskonałości: nie potrafi przytaczać i analizować dowodów, tworzyć logicznych powiązań bądź układać ich w hierarchię ważności, nie zastosuje źródeł informacji, które są pożądane w pewnych kontekstach.
Po pierwszej fali entuzjazmu użytkownicy ChatGPT gromadzą także mniej entuzjastyczne oceny o użyteczności tego narzędzia. Potrzebny jest czas na rozpoznanie, czy spełnia on pokładane w nim nadzieje. W międzyczasie sama aplikacja ewoluuje, pojawiają się automatyczne detektory tekstu pisanego przez SI, a media społecznościowe środowiska edukacji aż huczą od dobrych rad, wątpliwości, sugestii i doświadczeń.
Podobnie jak w przypadku standardowych programów nauczania, od strony edukatorów i studentów potrzebne jest rozwinięcie nowych kompetencji, aby dobrze przygotować wejście w aktywność zawodową. W czasie swojej prezydentury Barack Obama twierdził, że nadchodzi nowe pokolenie digital born, tj. ludzi, którzy nie znają świata sprzed epoki cyfrowej. Tym nowym pokoleniom miałoby jakoby łatwiej przychodzić poruszanie się w świecie cyfrowym. Dlatego Obama wzywał do nauki kodowania, które postrzegano wówczas jako kluczowe. Dziś wiadomo, że umiejętność kodowania nie jest dana każdemu, a to zalecenie okazało się nieprzydatne dla większości młodych ludzi. Za to czytanie jest niezbędne każdemu, zaś rolę SI w edukacji można postrzegać jako umiejętność zupełnie podstawową, jak czytanie.
Studenci będą coraz częściej konfrontowani z treściami wygenerowanymi przez SI i sami będą zadawać SI różne zadania do wykonania. Aby poprawnie tego dokonać, potrzebna jest umiejętność właściwego formułowania pytań. W systemie edukacji od wielu lat mówi się o takiej kompetencji z zastrzeżeniem, że nie powinna wyprzeć mechanicznych, pamięciowych sposobów uczenia się. Nie wzywamy do porzucenia tradycyjnych metod edukacji, bowiem wyposażają one w wiele niezbędnych umiejętności, ale widzimy potrzebę uczenia studentów użytecznego, prawidłowego zadawania zadań takim aplikacjom jak ChatGPT.
Ponadto jako bardziej jaskrawą dostrzegamy umiejętność oceny tekstu wygenerowanego przez ChatGPT. Jest to istotne dlatego, że można spotkać użytkowników zasobów cyfrowych, którzy bezrefleksyjnie traktują Wikipedię jako wystarczające i w pełni wiarygodne źródło informacji. Podobnie można znaleźć osoby nieświadome, że wyszukiwarka Google nie dostarcza wcale najtrafniejszych odpowiedzi, ale pozycjonuje wyniki, czyli sprzedaje miejsce na liście wyszukiwań. Dlatego trzeba zbudować kompetencje konieczne do poszukiwania wiarygodnych informacji. Metodologia naukowa dostarcza wielu narzędzi oceny wiarygodności: od krytycznej oceny, przez triangulację źródeł aż do symulacji.
Te umiejętności nie mieszczą się w wachlarzu standardowych kompetencji studenta. O ile bowiem fake news, manipulacja czy propaganda w mediach społecznościowych zyskały zainteresowanie polityków, technologów i badaczy, o tyle SI pozostaje pod tym względem daleko w tyle. To niejedyne nowe kompetencje potrzebne studentom. Zapewne jeszcze ważniejsze jest uczenie, jak współpracować z SI, aby skutecznie wykonywać przyszłe zadania zawodowe, mając świadomość, że to człowiek, a nie SI, odpowiada za ich treść i skutki.
Dzisiejszy format komunikacji naukowej jest w znacznym stopniu zestandaryzowany. Struktura artykułów określona jest nie tylko wzorcem, którego uczymy młodych adeptów nauki, ale także wymuszana przez czasopisma w postaci tzw. author style guidelines. Poza stylem, te dokumenty formułują konkretne oczekiwania odnośnie do długości tekstu, jego części, listy referencji bibliograficznych, sposobu przedstawiania wyników, dyskusji tych wyników względem wykorzystanych referencji bibliograficznych. Przykładowo w naukach o zarządzaniu artykuł zwykle ma 6-10 tysięcy słów i 50-150 referencji (co może udałoby się ograniczyć, z pożytkiem dla autorów i odbiorców).
Z jednej strony standaryzacja otwiera pole do automatyzacji, bowiem warunkiem koniecznym automatyzacji jest ujednolicenie procedur, ich etapów i pojedynczych czynności. Właśnie to odkrycie Henry’ego Forda otwarło drogę dla motoryzacji masowej, przystępnej cenowo, bo taniej w produkcji. Pojawia się więc pokusa zlecania SI redagowania lub edytowania standardowych części tekstu. Dziś ChatGPT jest w tym zakresie chromy, a przy operowaniu referencjami literaturowymi wręcz kłamliwy, nieporadny i nieaktualny. Postępu nie da się zatrzymać i te niedostatki SI zostaną usunięte, być może w płatnych wersjach oprogramowania, zatem automatyzacja standardaryzowanych treści w publikacjach naukowych jest nieunikniona. To prowadzi do fundamentalnego pytania o sens pisania takich tekstów, skoro SI będzie je generowało coraz lepiej.
Z drugiej strony badacze nauk o zarządzaniu wiedzą, że automatyzacja może prowadzić do absurdów polegających na usprawnieniu procesów nikomu już niepotrzebnych. Słynny manifest modnej trzy dekady temu metody zarządzania, tj. reengineeringu, brzmiał „don’t automate – obliterate!” (czyli: nie automatyzuj tego, co i tak jest niepotrzebne). Nadchodzi więc nieuchronnie czas refleksji nad tym, czy obecna postać komunikacji naukowej jest niezbędna? Na przykład czy wobec upowszechnienia się systematycznych przeglądów literatury i metaanaliz w każdym artykule wciąż potrzebna jest sekcja omawiająca istniejącą literaturę? Czy standardowe, w gruncie rzeczy powtarzalne treści nie mogłyby zostać usunięte albo przesunięte do nowego rodzaju komunikatów naukowych?
A wspomnieć trzeba o najważniejszym elemencie obecnego systemu komunikacji naukowej, którym jest system peer review. Temu elementowi przypisuje się zarówno warunkowanie rygoru i wiarygodności tekstów, jak i wszelkie nieprawidłowości. Do jego słabości należy rekrutacja i dobór recenzentów, nie wszyscy bowiem są jednakowo kompetentni, nie wszyscy także są jednakowo skłonni do świadczenia bezpłatnej pracy na rzecz środowiska naukowego. U organizatorów konferencji, wydawców, organów nadzorujących awanse naukowe zachodzi więc naturalna pokusa, aby wykorzystać SI do recenzowania tekstów naukowych.
Dochodzimy w ten sposób do paradoksalnej sytuacji, która nie jest żadną fikcją naukową, ale nieodległą i wyobrażalną przyszłością, w której teksty pisane przez SI będą oceniane przez SI. Ten mechanizm uczenia maszynowego właściwie nie wymaga udziału człowieka. Eliminuje go z procesu tworzenia i gromadzenia wiedzy, a dalej – być może – i z samej wiedzy. Nie wieszcząc apokalipsy, wzywamy do głębszej refleksji, jak przekształcić system komunikacji naukowej, aby rzeczywiście służył on pogłębieniu wiedzy ludzkiej i jedynie wykorzystywał SI, a nie zdawał się na to narzędzie.
Naszym zdaniem, powszechne stosowanie ChatGPT w uczelniach i szkołach jest pozytywnym zjawiskiem, i to na wielu poziomach. Przyniesie ono korzystną zmianę w edukacji, zarówno jeśli idzie o jakość tworzonych treści, jak i o krytyczne myślenie, weryfikację źródeł informacji i materiałów dostarczanych przez narzędzie SI. Mówiąc inaczej, zamiast ustawiania umysłu w pozycji stand by (bowiem aplikacja załatwia wszystko za nas), co czyni już wiele narzędzi i zabawek (np. nawigacje, tłumacze online), ChatGPT zmusza do wysiłku, wyostrza zmysły i wymusza kreatywne i krytyczne myślenie tak u autora materiału, jak i u jego czytelnika. Mówiąc inaczej, ChatGPT nie zastąpi ludzkiej inteligencji, ale zapewni nowe, ożywcze otwarcie dla procesów myślowych jako swoisty katalizator, a nawet dodatkowy bodziec (wręcz steryd) dla umysłu i procesu twórczego.
Nie wolno udawać, że wprowadzenie ChatGPT niczego nie zmieniło w szkołach różnych szczebli, na uczelniach i uniwersytetach w Polsce i na świecie: jest wręcz przeciwnie, a ci, którzy chcą przeczekać zainteresowanie sztuczną inteligencją, szkodzą nie tylko własnym instytucjom, ale i całej społeczności akademickiej. Wyrażamy przekonanie, że strategia „strusia” spowoduje erozję albo wręcz destrukcję zaufania do całego ekosystemu naukowo-dydaktycznego. Jak bowiem pracodawca ma ufać dyplomowi uczelni, jeśli ta uczelnia nie ma polityki wobec stosowania SI, nie uwzględnia SI w swoim kodeksie etycznym bądź nie ma własnego stanowiska względem prawa autorskiego, gdy wykorzystywane jest SI. Może wówczas zachodzić podejrzenie, że absolwent tej uczelni nie posiada kompetencji, o których zaświadcza dyplom, bowiem mógł uzyskać niezbędne zaliczenia, stosując SI.
Warto na koniec przytoczyć wniosek prof. Christiana Terwiescha z Wharton Business School, który – obserwując, jak ChatGPT radził sobie z zadaniami z zarządzania operacyjnego na poziomie MBA – podkreślił potrzebę współpracy między ludźmi a narzędziami sztucznej inteligencji wokół przyszłych metod egzaminacyjnych i takiego formułowania programów kształcenia, które zapewnią pomyślną przyszłość edukacji biznesowej.
Prof. dr hab. Wojciech Czakon, Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński w Krakowie
Prof. dr hab. Grzegorz Mazurek jest specjalistą w dziedzinie zarządzania, pełni funkcję rektora Akademii Leona Koźmińskiego w Warszawie.