logo
FA 1/2023 informacje i komentarze

Etyka sztucznej inteligencji

Etyka sztucznej inteligencji 1

Pojawiające się jak grzyby po deszczu rozwiązania oparte na algorytmach sztucznej inteligencji każą coraz częściej stawiać pytania o etyczny wymiar tej technologii. Ale czym w ogóle miałaby być etyka AI? Maciej Chojnowski, dyrektor programowy Centrum Etyki Technologii Instytutu Humanites i autor pierwszej w języku polskim popularnonaukowej publikacji poświęconej temu zagadnieniu, wskazuje, że już sformułowanie jednoznacznej definicji sztucznej inteligencji napotyka problemy. Nie inaczej jest z „wyposażaniem” jej wytworów w etykę. W toczonej na argumenty batalii zwolenników i przeciwników kodowania moralności w maszynach trudno wytypować zwycięzców, choć podskórnie czuć, że to etyka właśnie, a nie np. prawo, stanowi kierunkowskaz dla dalszego rozwoju technologii. Dobrym tego przykładem jest choćby niezwykle popularny w ostatnim czasie chatbot, którego autorzy już planują wprowadzić zmiany, by ograniczyć wykorzystanie go w nieodpowiednich celach. Dyskutuje się też, dlaczego AI nie poddawać podobnemu postępowaniu etycznemu jak inne badania czy testy. „Przecież to jeden wielki eksperyment społeczny, za który nikt nie odpowiada, jak coś pójdzie nie tak” – to tylko jeden z wielu głosów w tych rozważaniach. Ani regulacje prawne, ani samo zarządzanie technologią nie pomogą w ocenie, które działania są pożądane, abyśmy mogli funkcjonować w lepszym społeczeństwie. Wszystkie te komponenty oddziałują na siebie, ale to właśnie etyka je kształtuje. I nie chodzi tu tylko o praktyczne wskazówki kierowane do projektantów, ale także o krytyczne analizowanie kontekstów, w których sztuczną inteligencję się stosuje, i w efekcie korygowanie niezbędnych elementów. To właśnie dlatego w odniesieniu do AI używa się określenia „etyka stosowana”, różnicując je od normatywnej (badającej zasady i normy moralne), opisowej (analizującej rzeczywiste funkcjonowanie wartości w społeczeństwie) czy metaetyki (zajmującej się statusem etyki i znaczeniem używanych w niej pojęć).

W 2019 roku pojawiły się, przygotowane na zlecenie Komisji Europejskiej, wytyczne dotyczące godnej zaufania sztucznej inteligencji (trustworthy AI), która – obok zgodności z prawem – ma się opierać na etyce i solidności. Chodzi o zapewnienie, że systemy AI pełnią swoje funkcje w sposób bezpieczny, pewny i niezawodny, a także o środki zapobiegające niezamierzonym negatywnym skutkom ich działania. Solidność dotyczy więc zarówno samych mechanizmów funkcjonowania sztucznej inteligencji, jak i jej wpływu na społeczeństwo. Do podstawowych zasad trustworthy AI zaliczono: zasadę poszanowania autonomii człowieka (interakcja z systemami AI musi zapewniać ludziom możliwość samostanowienia), zasadę zapobiegania szkodom (systemy AI muszą być bezpieczne i pewne), zasadę sprawiedliwości (zarówno w wymiarze materialnym, np. przeciwdziałanie dyskryminacji, jak i proceduralnym, czyli możliwość kwestionowania decyzji podejmowanych przez systemy AI), zasadę możliwości wyjaśnienia (procesy zachodzące w systemach AI muszą być przejrzyste, a ich możliwości i cele komunikowane wprost). Na bazie tych zasad stworzono kluczowe wymogi służące wdrożeniu i osiągnięciu godnej zaufania AI: przewodnia i nadzorcza rola człowieka; techniczna solidność i bezpieczeństwo; ochrona prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminacja i sprawiedliwość; dobrostan społeczny i środowiskowy; odpowiedzialność.

Jak zaznacza Chojnowski, projektowanie sztucznej inteligencji zgodnie z wartościami polega na traktowaniu tych wytycznych na równi z innymi wymogami, jak np. poprawność działania czy bezpieczeństwo, i uwzględnianiu ich na każdym etapie projektowania systemu AI: począwszy od specyfikacji, przez szczegółowy rozwój oprogramowania, a skończywszy na testach i ewaluacji. Dodaje przy tym, by na etykę AI patrzeć nie jak na uciążliwy obowiązek, lecz szansę. W końcu już dziś spełnianie wymogów godnej zaufania AI jest rekomendowane składającym wnioski o granty w unijnym programie Horyzont Europa, a w przyszłości stanie się zapewne standardowym wymogiem.

W Polsce temat ten na razie nie znajduje właściwego dla siebie miejsca w przestrzeni publicznej. Nie prowadzi się badań nad odpowiedzialnym rozwojem technologii, w szkołach etyka jest marginalizowana. Tym bardziej cieszy inicjatywa powołania Centrum Etyki Technologii w Instytucie Humanites. To pierwszy w naszym kraju ośrodek orędujący za odpowiedzialnym tworzeniem i stosowaniem innowacji. Powstał z myślą o wdrażaniu etyki AI zarówno w wymiarze metodologicznym, jak i systemowym, oraz umożliwieniu współpracy środowisk naukowych, biznesowych, rządowych i obywatelskich.

MK

Publikację Etyka sztucznej inteligencji. Wprowadzenie można pobrać za darmo ze strony www.ethicstech.eu.

Wróć