Artur Wolski
„Nieznajomość dobra prowadzi do zła” – mówił ojciec europejskiej filozofii Sokrates (V w p.n.e.). W medycynie nawet niewielki błąd w diagnozie, zła interpretacja badań, niewłaściwie dobrany lek i dawka mogą prowadzić do poważnych konsekwencji ze śmiercią chorego włącznie. Czy w XXI w. sztuczna inteligencja wsparta systemami multimedialnymi pozwoli skuteczniej leczyć, poprawi jakość dokumentacji medycznej i wygeneruje dodatkowy czas w pracy lekarza, który zostanie wykorzystany na podniesienie jego kwalifikacji zawodowych oraz na lepszy kontakt z pacjentem? Naukowcy wierzą, że tak będzie, poszukując dobra w nauce, które posłuży ludzkości.
Obecny system sporządzania dokumentacji medycznej zabiera lekarzowi bardzo dużo czasu niezależnie od tego, czy jest to oddział kliniczny, sala operacyjna, oddział ratunkowy, pracownia diagnostyczna czy też przychodnia. To niestety ogranicza lekarzom możliwości kontaktu z chorym. Dotyczy to zwłaszcza wizyt w gabinecie.
To opinia prof. dr. hab. Krzysztofa Narkiewicza, kierownika Kliniki Nadciśnienia Tętniczego i Diabetologii Gdańskiego Uniwersytetu Medycznego. Wpisywanie danych medycznych do komputera i wynikający z tego utrudniony kontakt wzrokowy podczas zbierania wywiadu może sprawiać wrażenie, że lekarz skupia się na systemie informatycznym, a nie na rozmowie z chorym. Ostatnią rzeczą, o której marzy chirurg po wyczerpującej operacji, jest siadanie przy komputerze i uzupełnianie dokumentacji medycznej, dodaje prof. Krzysztof Narkiewicz.
Co było impulsem do podjęcia wyzwania inżynieryjnego mającego usprawnić pracę lekarza?
Do podjęcia wyzwania zachęcił nas ogłoszony przez Narodowe Centrum Badań i Rozwoju IV konkurs INFOSTRATEG na projekty tematyczne – mówi prof. dr hab. inż. Andrzej Czyżewski z Katedry Systemów Multimedialnych, Wydział Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej. Program INFOSTRATEG został przygotowany, by wspierać rozwój polskiego potencjału sztucznej inteligencji (SI) poprzez opracowanie rozwiązań wykorzystujących sztuczną inteligencję i blockchain, mających bezpośrednie zastosowanie w praktyce. Złożyliśmy wniosek z zastosowaniem sztucznej inteligencji dla lekarzy, który obecnie realizujemy, oczywiście po akceptacji konkursowej NCBR. Tytuł projektu, którego jestem kierownikiem, to: ADMEDVOICE – Adaptacyjny system inteligentnego przetwarzania mowy lekarzy wraz ze strukturalizacją wyników badań i wspomaganiem procesu terapeutycznego.
Warto dodać, że tematyka wagi zmysłów w komunikacji była poruszana też i przez filozofów. Np. Arystoteles (IV wiek p.n.e.) mówił, że „nic nie jest w umyśle, czego wcześniej nie było w zmysłach”. I mimo upływu dwóch tysięcy lat człowiek nadal kontaktuje się zmysłowo z otoczeniem. Niechlubnym wyjątkiem jest jednak praktyka lekarska, która kontakt zmysłowy zamieniła w biurokratyczny. Lekarz zamiast rozmawiać z chorym, słuchać jego głosu i patrzeć mu w oczy, swój wzrok kieruje na ekran komputera, wypełnia ogrom administracyjnych procedur. Medycy robią to w gabinetach lekarskich, na salach operacyjnych, niestety nawet w szpitalnych oddziałach ratunkowych. Od lat współpracuję z wieloma wybitnymi lekarzami różnych dyscyplin medycznych, którzy akcentują ten problem. Zwracał na to moją uwagę m.in. prof. Henryk Skarżyński, światowej sławy otolaryngolog, audiolog i foniatra, twórca i dyrektor Instytutu Fizjologii i Patologii Słuchu oraz Światowego Centrum Słuchu w Kajetanach. I zawsze słyszę, mówi prof. Andrzej Czyżewski, że lekarze ubolewają na ciągły brak czasu dla pacjenta i chociaż minimum rozmowy z nim, bo muszą wypełnić tomy dokumentacji medycznej. Najbardziej męczące jest wielogodzinne siedzenie w opisowni po zakończonej operacji i tworzenie całych historii pozabiegowych. Mnie, inżynierowi, przychodzi natychmiast taka myśl do głowy: a co by było, gdyby tworzyć takie dokumentacje np. w trakcie zabiegu? Wtedy nie trzeba by rozpisywać czasu lekarza podwójnie: raz na zabieg, a potem na opis. Przecież to modelowy przykład złej logistyki pracy.
Panie profesorze, czy projekt, nad którym pracuje duży zespół naukowców, wniesie coś pozytywnego również i dla pacjenta? Jeśli tak, to co się zmieni?
Tworzona głosowo dokumentacja będzie dokładniejsza, co da większą wiedzę o chorobie i możliwość skuteczniejszego podjęcia działań diagnostyczno-leczniczych w celu przywrócenia zdrowia. Oczywiście można zarzucić takim opisom zbyt rozbudowany charakter przypominający raczej wypracowanie a nie lakoniczny zbiór informacji medycznych. Dziś nie stanowi to jednak problemu, bo dysponujemy w komputerze narzędziami do obróbki tekstów, potrafiącymi streszczać informacje czy wyszukiwać słowa kluczowe. Reasumując: pacjent będzie miał więcej kontaktu bezpośredniego z lekarzem, który nie utonie w komputerze przy wypełnianiu dokumentów, a tworzona dokumentacja medyczna chorego będzie bardziej szczegółowa, co może mieć niebagatelne znaczenie przy np. długotrwałym leczeniu lub występowaniu wielu chorób towarzyszących. A słowa-klucze mogą przydać się przy kolejnych zlecanych badaniach, aby trafnie postawić diagnozę i rozpocząć skuteczne leczenie.
Jaki jest konkretnie cel projektu?
65 procent swojego czasu pracy lekarz poświęca na tworzenie dokumentacji. Chcemy, aby dzięki naszemu projektowi z wykorzystaniem sztucznej inteligencji czas ten mógł przeznaczyć na rozmowę i kontakt z chorym.
W raporcie The Future of Jobs Report 2023, opublikowanym przez World Economic Forum, umiejętność komunikacji jest wymieniana jako jedna z głównych kompetencji potrzebnych w miejscu pracy, w kontekście zachodzących zmian technologicznych i społecznych. W tym samym badaniu ponad 75% pracodawców deklaruje, że wdroży sztuczną inteligencję w ciągu najbliższych pięciu lat. Tak więc polska nauka wpisuje się w trendy rozwoju światowych badań nad sztuczną inteligencją, której aplikacje znajdą zastosowanie w medycynie – dodaje prof. Andrzej Czyżewski.
Realizacja projektu rozłożona jest na etapy. Jakie?
Nasza praca rozpisana jest na kilka etapów, w których uwzględniamy rozpoznanie mowy a następnie tak zwaną „obróbkę” pozyskanych tekstów. Konkretnie są trzy fazy: pierwsza to zebranie mowy kilkudziesięciu lekarzy reprezentujących dziesięć specjalności medycznych z silną reprezentacją kardiologii z uwagi na włączenie do procesu badawczego zespołu prof. Krzysztofa Narkiewicza. Mamy już zebranych i nagranych przez medyków ponad 20 tysięcy takich tekstów, a pochodzą one z prawdziwych dokumentacji medycznych. Dla zapewnienia bezpieczeństwa danych wrażliwych teksty zostały zanonimizowane. Próby z wykorzystaniem istniejących już systemów sztucznej inteligencji, ale bez uwzględnienia języka polskiego, wypadły niepomyślnie. Było od 20 do 60% błędów, co całkowicie przekreślało wykorzystanie istniejących już opracowań. Dlaczego? Bo polski język medyczny zawiera nie tylko skomplikowane nazwy chorób, czasem inaczej brzmiących niż np. w języku angielskim, niemieckim, hiszpańskim czy francuskim. Mamy też tysiące nazw handlowych leków występujących tylko na polskim rynku medycznym. Dodatkowo w tekstach pojawia się wiele skrótów medycznych, które są oczywiste w konkretnej specjalizacji, ale już mało czytelne dla lekarzy pracujących w innych działach medycyny. Tak więc to mocno komplikowało stworzenie bezpiecznego opracowania, które nie będzie popełniało nawet minimalnych błędów. Pamiętajmy, że błąd może kosztować utratę ludzkiego życia. Wtedy przecież lekarz szybciej napisze to ręcznie, niż będzie tracił czas na poprawianie pojawiających się błędów w komputerze. Krótko mówiąc, w pierwszej fazie chodziło o stworzenie tak zwanego korpusu mowy. Jako bazę wykorzystujemy tu: słowniki schorzeń pobrane z oficjalnych stron Ministerstwa Zdrowia, międzynarodową klasyfikację chorób, wykaz leków czy teksty z największego szpitala klinicznego, czyli Uniwersyteckiego Centrum Klinicznego w Gdańsku. Nasz projekt będzie trwał jeszcze dwa lata i przewidujemy stały proces wzbogacania bazy i douczania systemu, aby mógł stać się częścią systemu medycznego CGM CLININET HIS, który jest doskonałym przykładem współpracy doświadczonych lekarzy i programistów. Stworzone oprogramowanie umożliwia zarządzanie pracą całego szpitala w sposób elektroniczny. I to wszystko z zachowaniem maksymalnego bezpieczeństwa dla danych wrażliwych. Warto wspomnieć, że dodatkową trudnością w tym etapie było pokonanie braku umiejętności lektorskich u lekarzy w przekazywaniu i nagrywaniu tekstów. Czytają oni niewyraźnie i w taki sposób, który nie nadaje się do wytrenowania algorytmów sztucznej inteligencji.
Najlepsze warunki do nagrań głosowych są zawsze w studiach radiowych czy wyspecjalizowanych studiach telewizyjnych. A jak poradzą sobie państwo z nagraniami, które np. lekarz będzie realizował w maseczce chirurgicznej na sali operacyjnej albo na konsylium lekarskim, gdzie równolegle obecnych i mówiących jest kilkunastu specjalistów? Czy tu rozwiązaniem będzie sonda akustyczna?
Tak, to prawda, sonda akustyczna, którą wynaleźliśmy i opatentowaliśmy na Politechnice Gdańskiej, jest naszym silnym argumentem wzmacniającym wagę i znaczenie realizowanego projektu. To jest niewielkie i, co ważne, niedrogie urządzenie. Zastępuje wielomikrofonowe systemy, bo przy nagrywaniu zawsze jest problem z mową równoległą, gdy kilka osób mówi w tym samym czasie. A taka sytuacja jest na sali operacyjnej czy w szpitalnych oddziałach ratunkowych. Gdyby nie było sondy akustycznej, to każdy mówca musiałby być omikrofonowany osobno. W sytuacji dużego napięcia, gdy najważniejszą sprawą jest ratowanie ludzkiego życia, nikt nie będzie zajmował się przypinaniem niewysterylizowanych mikrofonów do kitli operatorów. Nasza sonda akustyczna potrafi pobierać głosy z różnych kierunków i od różnych osób oraz rejestrować je osobno. Powstały zapis jest czytelny i zrozumiały. Każdy z tych głosów może być przekładany z mowy na tekst i uzyskujemy osobne zapisy dla wszystkich mówców.
A co przewidziano do realizacji w fazie drugiej i trzeciej?
Druga faza to trening sieci neuronowych, aby efektywnie rozpoznawały polską mowę lekarską. Jest taka dziedzina wiedzy nazywana przetwarzaniem języka naturalnego. Lekarz, mimo że posługuje się nomenklaturą medyczną, jednak nie jest robotem i często mówi, dyktując opisowo, w sposób naturalny. Natomiast rozpoznanie kontekstu i tego, o czym mówi, spoczywa na sztucznej inteligencji, która wyławia słowa kluczowe i bada ich układ w celu zrozumienia intencji lekarza.
Trzecia faza to rozumienie treści w taki sposób, żeby komputer podsuwał lekarzowi odpowiednie części formularza tworzonej dokumentacji medycznej. System sam rozpozna, kiedy ma być np. skierowanie, recepta czy zaciągnięcie z baz szpitalnych danych patomorfologicznych chorego. Sprawne działanie systemu pozwoli lekarzowi zaoszczędzić dużo czasu przy tworzeniu opisów i ograniczy szukanie w poszczególnych zakładkach właściwych druków, które trzeba wypełnić.
Jak, będąc lekarzem, koordynatorem zespołu lekarskiego projektu ADMEDVOICE, ocenia pan możliwości wykorzystania zaoszczędzonego czasu lekarza po wprowadzeniu aplikacji? – pytam prof. Krzysztofa Narkiewicza.
Jestem przekonany, że nowa aplikacja zaoszczędzi lekarzowi czas konieczny do sporządzenia dokumentacji medycznej. Znaczna część tego procesu będzie się toczyć automatycznie, z nagrywaniem głosu i wydawaniem systemowi komend słownych, umożliwiając lekarzowi „oderwanie się” od klawiatury.
A jak z perspektywy praktyka ocenia pan znaczenie komunikacji medycznej między lekarzem a chorym w procesie diagnostyki, leczenia i rehabilitacji?
Moim zdaniem umożliwi to nie tylko łatwiejsze zbieranie i przechowywanie informacji medycznych, ale przede wszystkim da większą możliwość komunikacji z chorym: wsłuchania się w jego wątpliwości, udzielenia odpowiedzi na zadane pytania, wytłumaczenia opcji diagnostycznych i terapeutycznych czy też motywowania chorych do przestrzegania zaleceń. To niezwykle ważne dla budowania więzi chory – lekarz. Bez tego nie ma sukcesu leczenia i to we wszystkich chorobach.
Reasumując: czy nauka w projekcie ADMEDVOICE oprócz rozwiązań inżynieryjnych szuka również pierwiastków humanistycznych, czyli tych dobrych i najlepszych działań, które mogą posłużyć ludzkości w ochronie i wzmocnieniu ludzkiego zdrowia?
Zdecydowanie tak, odpowiada prof. Andrzej Czyżewski z Politechniki Gdańskiej, kierownik projektu ADMEDVOICE.
Pozostali koordynatorzy projektu to Mariusz Budzisz (eTRUST sp. z o. o.), Dariusz Szplit (współpraca z UCK).
Z koordynatorami i kierownikami projektu ADMEDVOICE rozmawiał red. Artur Wolski, komentator naukowy.