logo
FA 5/2024 okolice nauki

Marek Misiak

Zasada ograniczonego zaufania

Zasada ograniczonego zaufania 1

Gdy mowa jest o sztucznej inteligencji, dyskusja często skręca w stronę skojarzeń z wizjami z powieści i filmów fantastycznonaukowych, w których samoświadome maszyny lub programy przejmują kontrolę nad ludzkością lub powodują jej zagładę. Takie podejście z jednej strony czyni dyskusję lekką i zabawną, gdyż przestaje mieć ona wiele wspólnego z rzeczywistością; z drugiej zaś ma defetystyczny posmak: skoro SI i tak góruje nad nami, to pozostaje rozsiąść się wygodnie (rzecz jasna przed jakimś ekranem) i czekać, aż zostaniemy bezboleśnie pozbawieni iluzji wolnego wyboru. Taka rozmowa jest nie tyle błaha, co nie na temat: SI – podobnie jak niczego – nie należy demonizować (bo nie na tym polega racjonalne myślenie), tylko starać się dostrzec realne problemy. Książka Kate Crawford nie przybliża wszystkich spornych aspektów ogólnie dostępnych narzędzi SI, ale zadaje podstawowe pytanie. Nie brzmi ono, czy SI faktycznie jest inteligentna, lecz czy faktycznie jest sztuczna.

Amerykańscy autorzy na wpół eseistycznych książek popularnonaukowych mają ważną umiejętność łączenia abstrakcyjnego wywodu z konkretnymi obrazami. Te właśnie obrazy – np. gigantycznego składowiska odpadów w Mongolii Wewnętrznej (Chiny) czy kopalni litu w USA – pozwalają Crawford bez emocjonalnego szantażu udowodnić, że SI wcale nie jest czysto wirtualna, ale pozostawia znaczący ślad węglowy, a do tego opiera się na nieodnawialnych surowcach, które mogą skończyć się szybciej, niż myślimy. Nie chodzi tu nawet o ekologię, ale o to, że coś, co staje się coraz ważniejsze w wielu obszarach gospodarki czy obronności, ma niepokojąco kruche podstawy. To jednak dopiero początek. Autorka wskazuje, że SI jest często traktowana niczym czarna skrzynka w teorii nauki lub w inżynierii, czyli w uproszczeniu: coś działa, ale nie wiemy, jak to się dzieje, gdyż dostępne są dla nas tylko efekty. Tymczasem wyniki działania SI – np. teksty generowane na podstawie promptów przez narzędzia takie jak ChatGPT, które posługują się LLM (large language models) – nie są żadną formą wyższej, obiektywnej prawdy, generowanej przez „nieludzką”, „sztuczną” inteligencję, tu nieludzką i sztuczną w pozytywnym sensie, gdyż (rzekomo) pozbawioną ludzkich wad, ideologicznych skrzywień i subiektywizmu. Po pierwsze, modele te bazują na korpusie gotowych tekstów, fakt, że ogromnym, ale wytworzonym przez ludzi, zatem odzwierciedlającym właśnie te ludzkie ograniczenia, a czasem zwykłe uprzedzenia, które SI rzekomo ma przekraczać. Jest to zatem inteligencja „sztuczna” w znaczeniu sztucznego przedłużania tego, czym sami jesteśmy, a nie tworzenia (przynajmniej na tym etapie swego rozwoju) znaczącej nowej jakości, tj. nowych perspektyw i sensów. Po drugie, narzędzia SI tworzą ludzie, którzy też mają swoje ograniczenia i reprezentują konkretne poglądy, formacje intelektualne czy systemy etyczne. Modelami językowymi można manipulować, aby odzwierciedlały (często w sposób trudno wychwytywalny dla użytkownika) konkretne wizje świata, niekoniecznie bazujące na totalitarnej ideologii (np. chińskim komunizmie), ale np. na popularnej w Dolinie Krzemowej, a kontrowersyjnej, koncepcji efektywnego altruizmu.

Crawford wyjaśnia, że wizja SI jako pozbawionej narodowości i interesów i przekraczającej granice państw i obozów nowej wartości jest piękna, ale nieprawdziwa. Gdzieś za fascynacją jej gwałtownym rozwojem kryje się marzenie o czymś, co zwolni nas z myślenia i rozumienia złożoności świata, przedstawi nam dowolne zagadnienie w strawnej formie albo rozwiąże je za nas. Być może nawet faktycznie zrozumie i rozwiąże, ale nie w naszym interesie. Gdy generuję tekst za pomocą narzędzia SI, zawsze uważnie go czytam. Ufam, ale sprawdzam.

Marek Misiak

Kate CRAWFORD, Atlas sztucznej inteligencji. Władza, pieniądze i środowisko naturalne, Wydawnictwo Bo.wiem, Kraków 2024, seria: #nauka.

Wróć