logo
FA 5/2021 życie naukowe

Rozmowa z prof. dr. hab. Romanem Słowińskim, wiceprezesem Polskiej Akademii Nauk, kierownikiem Zakładu Inteligentnych Systemów Wspomagania Decyzji w Instytucie Informatyki Politechniki Poznańskiej

W pętli systemu

Komputery stały się niezbędnymi uczestnikami procesu podejmowania decyzji. Cedujemy na nie coraz większą część zadań intelektualnych. Jest to korzystne do momentu, gdy system działa w sposób transparentny i dobrze argumentuje swoje zalecenia – o inteligentnych systemach wspomagania decyzji opowiada prof. Roman Słowiński, laureat Nagrody Prezesa Rady Ministrów przyznanej za stworzenie szkoły naukowej, która łączy specjalność badań operacyjnych i sztucznej inteligencji w kontekście nowych technologii informacyjnych.

Dla informatyka może to brzmieć jak bluźnierstwo, ale od pewnego czasu – z uwagi na ich niedomagania – czuję narastającą niechęć do wszelkich „systemów”…

We mnie słowo „system” nie budzi podobnej odrazy, bowiem nie traktuję systemu jako czegoś autonomicznego wobec człowieka czy społeczeństwa. Dla mnie oznacza pewien układ powiązań ludzi i elementów techniki, zorganizowany dla uzyskania określonych celów, na przykład w produkcji, transporcie, terapii czy funkcjonowaniu przedsiębiorstwa. Jeśli system działa źle, to po dokonaniu diagnozy analitycy powinni dokonać jego przeprojektowania. Systemy podlegają ocenie i ewoluują.

Czym są inteligentne systemy wspomagania decyzji (ISWD)?

One pomagają człowiekowi lepiej zrozumieć sytuację decyzyjną i rekomendują rozwiązania, które są zgodne z preferencjami danej osoby lub grupy osób, czyli z ich systemem wartości. Systemy te są interaktywne, gdyż między maszyną, która działa według algorytmu, a użytkownikiem zawiązuje się dialog: musimy dać poznać maszynie nasze preferencje, wtedy algorytm maszynowy wypracuje rekomendację zgodną z modelem tych preferencji, a człowiek może w odpowiedzi przyjąć tę rekomendację lub podać nową informację preferencyjną i proces taki zapętli się do uzyskania satysfakcjonującej rekomendacji. O takim procesie wspomagania decyzji mówi się, że „człowiek jest w pętli systemu”.

Czy nie jest tak, że w zasadzie o każdym systemie można powiedzieć, że ma służyć wspomaganiu decyzji?

Ma pan rację, że systemy komputerowe były i są tworzone z intencją wspomagania decyzji. Zauważmy jednak, że przeszły one ewolucję od systemów wsadowych, działających pojedynczo w centrach obliczeniowych, przez komputery osobiste umożliwiające dialog człowiek-maszyna, do systemów komputerowych działających w sieci, dzięki której nie tylko wzrasta dostęp do danych i moc obliczeniowa, ale pojawia się również komunikacja między komputerami. Komunikujące się komputery są agentami współpracującymi w celu sterowania złożonymi procesami, jak systemy zaopatrzenia w wodę czy energię. Ponadto posiadacze komputerów i smartfonów łączą się w sieci społecznościowe, co wpływa na ich opinie i tworzy zachowania grupowe. Chcę przez to powiedzieć, że udział systemów komputerowych we wspomaganiu bądź wpływaniu na nasze decyzje zmieniał się i ulega dalszej ewolucji. Z drugiej strony zakres naukowego wspomagania decyzji też ulega zmianom, a jego rozwój przyspieszył po II wojnie światowej wraz z przejściem wojskowych technik operacyjnych do cywilnych badań operacyjnych, które stały się dyscypliną naukową uprawianą na pograniczu ekonomii i informatyki. W 1950 r. Alan Turing na łamach czasopisma „Mind” zadał pytanie, czy maszyny mogą myśleć, a od 1956 r. zaczęto używać określenia „sztuczna inteligencja” (AI) w odniesieniu do systemów komputerowych, które wyręczają człowieka w wykonywaniu pewnych zadań intelektualnych, czyli wspomagają jego decyzje. Tak doszło do połączenia badań operacyjnych i sztucznej inteligencji w inteligentne systemy wspomagania decyzji, które swoją skuteczność zawdzięczają także dużej mocy obliczeniowej komputerów i Internetowi, będącemu ogromną bazą danych. Cechą AI jest uczenie się z obserwacji kumulowanych w dużych zbiorach danych. Tak jak określił to Herbert Simon w latach osiemdziesiątych XX wieku, uczenie się pozwala na adaptacyjne zmiany w systemie, które sprawiają, że wykona on następnym razem takie samo lub podobne zadanie bardziej efektywnie. ISWD korzysta z AI właśnie w aspekcie uczenia się z danych o sytuacji decyzyjnej, przez co użytkownik poznaje lepiej tę sytuację, gdyż AI odkrywa regularności, anomalie, zależności przyczynowo-skutkowe, czyli odkrywa wiedzę przydatną w podejmowaniu decyzji. Systemy ISWD różnią się między sobą pod wieloma względami. Różni je sposób odkrywania wiedzy, który może być ukierunkowany na testowanie hipotez lub odkrywanie znaczących zależności występujących w danych. Dane dostarczane do systemu mogą być niepełne, niedokładne, podlegające przypadkowym fluktuacjom i częściowo sprzeczne. Z wyciąganiem wiedzy z tego typu „niedoskonałych” danych radzą sobie różne teorie i modele matematyczne, jak rachunek prawdopodobieństwa i statystyka, teoria zbiorów przybliżonych czy teoria zbiorów rozmytych.

A jakie warunki są niezbędne do wdrożenia takiego systemu?

Najpierw musi się znaleźć zleceniodawca, który potrafi opisać analitykowi problem i proces decyzyjny, jaki chciałby usprawnić. Potem analityk we współpracy z ekspertami określa potencjalne akcje decyzyjne, jednorazowe lub wieloetapowe, z ich wielowymiarową oceną, niekoniecznie deterministyczną. Następnie formułuje problem w jednej z typowych kategorii, jak klasyfikacja, optymalizacja czy ranking akcji. Problem podlega dalszemu uszczegółowieniu, na przykład klasyfikacja może być zwykłą taksonomią, czyli rozpoznawaniem akcji, może dotyczyć przydziału akcji do klas uporządkowanych według jakości lub być może każda akcja ma otrzymać szereg etykiet klasowych uporządkowanych co do ważności. Z tym etapem związana jest identyfikacja danych i zmiennych. Wreszcie następuje rozpoznawanie preferencji użytkownika co do pożądanej jakości akcji decyzyjnych i akceptacji ryzyka związanego z podjętą decyzją. Po zbudowaniu modelu preferencji użytkownika system wypracowuje rekomendację decyzji. Pożądane jest, by zawierała ona wyjaśnienie zrozumiałe dla użytkownika, by ten nabrał przekonania, że w zwykle konfliktowym i niepewnym kontekście jest to rekomendacja najlepiej odpowiadająca jego systemowi wartości. Dalej następuje faza walidacji systemu polegająca na jego testowaniu w różnych warunkach, co prowadzi do korekty i ostatecznie wdrożenia lub odrzucenia.

Im węższe grono osób, które będą korzystały z ISWD, tym staje się on efektywniejszy?

Skala ma oczywiście znaczenie, bo wpływa na stopień komplikacji powiązań, jakie analityk musi uwzględnić przy projektowaniu ISWD. Jeśli decydentem jest pojedyncza osoba lub kolegium osób traktowane jako jedność, to modelowanie preferencji takiego użytkownika jest indywidualne i rekomendacja akcji decyzyjnej zmierza wtedy do maksymalizacji jego satysfakcji wyrażonej na przykład przez wartość tzw. funkcji użyteczności. Jeśli mamy do czynienia ze stosunkowo nieliczną grupą osób o sprzecznych preferencjach, to rekomendacja powinna wyrażać konsensus, będący wynikiem porozumienia między członkami tej grupy i rezygnacji z maksymalizacji indywidualnych funkcji użyteczności na rzecz kompromisu. Z kolei gdy decydentem jest duża społeczność, to rekomendację wypracowuje się w wyniku wyborów prowadzonych według przyjętej procedury. Na przykład w Polsce podział mandatów w wyborach do Sejmu przebiega według reguły proporcjonalnej zwanej metodą d’Hondta.

Jak działa taki system w praktyce?

Opiszę na przykładzie MET (skrót od Mobile Emergency Triage) – klinicznego systemu wspomagania diagnozowania dzieci z ostrym bólem brzucha dla lekarzy dyżurujących w szpitalnym oddziale ratunkowym. System MET został zbudowany i przetestowany w szpitalu dziecięcym w Ottawie, gdyż tworzył go zespół polsko-kanadyjski. Głównym założeniem projektowym MET była jego dostępność przy chorym, dlatego część mobilna została zaimplementowana na komputerach naręcznych. Szpital przyjmuje rocznie w SOR ponad 55 tys. pacjentów pediatrycznych, a jedną z głównych zgłaszanych dolegliwości jest ból brzucha. Kilkoro chirurgów dziecięcych pracujących w szpitalu nie czuwa na miejscu, lecz są wzywani w razie potrzeby z domu. Każde wezwanie, potrzebne czy nie, jest dla szpitala kosztowne, chodzi więc o minimalizację fałszywych wezwań. Zadaniem systemu jest wspomaganie rozpoznania, którego dokonuje lekarz rezydent. Biorąc pod uwagę dane z wywiadu, podstawowe wyniki laboratoryjne i badanie palpacyjne, lekarz podejmuje jedną z trzech decyzji: wezwanie specjalisty chirurga do operacji, skierowanie pacjenta na obserwację szpitalną, zwolnienie do domu. Średnia trafność diagnostyczna w tym procesie wynosi około 60%. Skonstruowaliśmy model decyzyjny złożony z reguł decyzyjnych odkrytych metodą uczenia maszynowego z danych historycznych pozyskanych z różnych kanadyjskich szpitali pediatrycznych. Jego trafność diagnostyczna w systemie MET dorównała lekarzom specjalistom i wyniosła 72%. Wykazał to półroczny test, dopuszczony przez komisję medyczną, która zastrzegła, że na etapie testu lekarz rezydent powinien podejmować decyzję niezależną od systemu i dopiero po podjętej decyzji były konfrontowane decyzja lekarza i systemu. System MET został rozszerzony na inne ostre stany chorobowe, na przykład astmę, i nie tylko podpowiada decyzję rozpoznawczą i terapeutyczną, ale także wyszukuje w medycznej bazie przeglądów systematycznych Cochrane Library fakty uzasadniające rekomendacje. Z kolei przy systemie telekonsultacji dla chirurgii urazowej w Wielkopolsce realizowaliśmy moduł wspomagania decyzji na podstawie podobieństwa do znanych przypadków. Rozwijaliśmy wiele innych niemedycznych ISWD, np. do wyboru lokalizacji spalarni śmieci, co związane było z konfliktami wewnątrz grupy decydentów; do detekcji źródeł błędów produkcyjnych w wieloetapowym procesie wytwarzania czy wreszcie, by wyjaśnić model decyzyjny jury Międzynarodowego Konkursu Lutniczego im. Henryka Wieniawskiego według widmowych cech zarejestrowanych dźwięków skrzypiec.

O modelach mówi się, że są tak dobre, jak dane, na których zostały wyuczone. Czy podobnie jest z systemami wspomagania decyzji?

Jeśli ISWD jest oparty na wiedzy odkrytej z danych, to faktycznie jakość systemu zależy od ich jakości. Uczenie maszynowe odkrywa prawdę zawartą w tych danych, z których została wyindukowana. Gdy pojawią się nowe dane, to starą prawdę albo uwiarygodnią, albo zafałszują. To wskazuje na potrzebę tak zwanego przyrostowego uczenia się i tworzenia modeli odpornych na niedoskonałości danych. Wspomniana teoria zbiorów przybliżonych autorstwa nieżyjącego już polskiego informatyka Zdzisława Pawlaka, z rozszerzeniami na dane porządkowe i nieprecyzyjne, realizuje powyższy postulat. Z kolei masowość danych, charakterystyczna dla wielu zastosowań, wymaga uczenia statystycznego, często na próbach danych, co prowadzi do zespołów modeli głosujących.

Czy zjawiska takie jak pandemia, o tylu zmiennych, niewiadomych, nieprzewidywalne, poddają się działaniom systemów?

Lepiej opierać się na analizie naukowej niż działać intuicyjnie, nawet mając pewne doświadczenie. Pandemia nie jest trudniejszą sytuacją decyzyjną niż na przykład inwestowanie na giełdzie, a jednak zaproponowano wiele metod wspomagania decyzji giełdowych, które mają lepszą skuteczność niż decyzje przypadkowe. Gdy zjawisko ma wiele zmiennych probabilistycznych, to najlepszą metodą weryfikacji modelu jest symulacja. Do pandemii powstały na przykład symulatory oparte na modelach probabilistycznej propagacji w sieciach społecznych. Ponadto, jeśli analityk nie radzi sobie ze złożonością sytuacji decyzyjnej, to może rozłożyć ją na podproblemy, na przykład według zależności hierarchicznej – od ogółu do szczegółu. W głośnej książce Pułapki myślenia noblista Daniel Kahneman przestrzega, że ufanie intuicji przy trudnych decyzjach jest ryzykowne, gdyż model ludzkiej racjonalności nie jest jednolity. Ludzkim myśleniem rządzą dwa systemy: system intuicyjnego podejmowania szybkich decyzji i system logicznej i powolnej analizy problemu, zmierzający do udzielenia racjonalnej odpowiedzi. Większość decyzji, które podejmujemy, to efekt działania systemu pierwszego, który lubi schematy. Drugi system jest świadomy i analityczny, ale wymaga oprócz czasu także energii, którą z natury oszczędzamy. W praktycznym podejmowaniu decyzji system pierwszy jest znacznie bardziej wpływowy niż drugi, co zwiększa ryzyko błędu. Gdyby swego czasu w Czarnobylu operatorzy nie przecenili swojej intuicji, przechodząc na ręczne sterowanie wysuwaniem prętów kontrolnych, tylko pozostawili automatyczne mechanizmy zabezpieczeń, to prawdopodobnie nie doszłoby do tragedii.

Czy nie jest tak, że korzystanie z systemu musi się opierać na zaufaniu do niego? Po co nam system, skoro jesteśmy przekonani o podjętej decyzji i nic, nawet najbardziej obiektywne dane, nie jest w stanie jej zmienić?

To zjawisko wiąże się właśnie ze wspomnianym wcześniej myśleniem według schematów, którym rządzi system pierwszy. Upieranie się przy swojej decyzji grozi nawet tym, że decydent będzie szukał w ISWD poparcia dla intuicji i manipulował danymi, by uzyskać pożądaną rekomendację. W tej sytuacji analityk powinien odmówić współpracy. Ale można także zaobserwować równie szkodliwe zjawisko odwrotne, że system działa jak „czarna skrzynka” i narzuca użytkownikowi rozwiązanie bez argumentacji uzasadniającej. Użytkownik nie ma wtedy zaufania do systemu i trudno mu uwierzyć, że rekomendacja systemu jest lepsza niż jego intuicja. Problem wyjaśnialności rekomendacji staje się szczególnie wrażliwy w sytuacji zwiększonego udziału sztucznej inteligencji we wspomaganiu decyzji. Głośnym dzisiaj narzędziem sztucznej inteligencji są tzw. głębokie sieci neuronowe, niezwykle efektywne szczególnie w rozpoznawaniu obrazów. W warstwach pośrednich tych sieci tworzą się metacechy, które nie są dla człowieka zrozumiałe – ten efektywny klasyfikator pozostaje dla nas „czarną skrzynką”. Znacznie bardziej transparentne są inteligentne algorytmy wspomagania decyzji oparte na modelach w postaci reguł logicznych, lecz za czytelność rekomendacji płacimy tu efektywnością uczenia się z dużych zbiorów danych.

Przy okazji dyskusji o wpływie algorytmów na decyzje konsumenckie od jakiegoś czasu pojawia się argument, że wbrew pozorom programy tworzone przez ludzi nie są tak beznamiętne, bezstronne i obiektywne, a wręcz przeciwnie – są „skażone” myśleniem ich twórców. Czy nie wypacza to zatem decyzji, w podjęciu których takie systemy mają pomóc?

Projektowane systemy odwzorowują raczej mentalność zleceniodawcy. Informatycy chińscy stworzyli system obserwacji i profilowania obywateli nie dlatego, że sami wpadli na taki pomysł, lecz władza zleciła im to zadanie. Przyznaję jednak, że twórca algorytmu, tak jak wspominany analityk procesu decyzyjnego, nie jest zupełnie neutralny wobec tego procesu. Jego wybory dotyczące choćby sposobu modelowania preferencji użytkownika mają wpływ na postać rekomendacji. Chodzi zatem o to, by analityk dokonał rzetelnej identyfikacji sytuacji decyzyjnej i uniknął tak zwanego skrzywienia instrumentalnego. Polega ono na tym, że analityk przywiązany do jednego narzędzia usiłuje je stosować przy każdej okazji. W przypadku algorytmów opartych na sztucznej inteligencji istnieje także ryzyko innego skrzywienia. Algorytmy te uczą się na przykładach decyzji, czyli w podobnych sytuacjach odtwarzają decyzje z przykładów uczących. Algorytm uczący się na tekstach komentarzy, jakie ludzie dodawali do różnych informacji zamieszczanych w Internecie, stał się tak samo cyniczny i „hejterski” jak ludzie, którzy je pisali. Zatem algorytmy sztucznej inteligencji faktycznie odwzorowują mentalność behawioralną zawartą w danych uczących.

Wydaje się, że przy tak dużej ilości danych nie jesteśmy już w stanie sami podołać wnioskowaniu. Czy to oznacza, że komputery – jakkolwiek by to zabrzmiało – stały się pełnoprawnymi uczestnikami procesu podejmowania decyzji?

Rzeczywiście komputery stały się niezbędnymi uczestnikami tego procesu i są jego newralgicznym elementem. Chociaż, jak powiedziałem na początku, człowiek jest „w pętli systemu”, to cedujemy na komputery coraz większą część zadań intelektualnych związanych z analityką danych. Jest to korzystne do momentu, gdy system wspomagania decyzji działa w sposób transparentny i dobrze argumentuje swoje zalecenia. O skali naszego uzależnienia od komputerów przekonujemy się przy okazji ich awarii lub cyberataków. Niedawny atak na systemy informatyczne brytyjskiej służby zdrowia sprawił, że w wielu szpitalach odwołano zaplanowane operacje, a lokalne przychodnie nie były w stanie przyjmować pacjentów. Od razu pojawia się przy tej okazji pytanie, czy postęp technologiczny w zakresie ISWD, zamiast wspomagać człowieka, raczej go ubezwłasnowolni. Odpowiem ogólnie, że to zależy od samego człowieka, bowiem w postępie technologicznym mają udział oba oblicza jego natury – dobre i złe, dlatego postęp stanowi wypadkową walki tych sił w każdym z nas. Wobec tego najważniejszy jest wzrost samego człowieka, nie tylko w zakresie jego wiedzy, ale także ducha, który wspomaga rozpoznanie dobra i zła.

Rozmawiał Mariusz Karwowski

Wróć