Ta strona używa plików Cookie. Korzystając z tej strony zgadzasz się na umieszczenie tych plików na twoim urządzeniu

Zanim lęki staną się rzeczywistością

08.09.2025 | Tarnowski Oddział SAP | Autor: admin

Science-fiction rejestruje nasze najgłębsze obawy zanim staną się rzeczywistością. Lem rozumiał, że największym wyzwaniem nie jest technologia, ale nasza zdolność do jej zrozumienia i kontrolowania

Z Dariuszem Jemielniakiem rozmawia Kasper Kalinowski.

 

Jak często pomysły z literatury science-fiction inspirują pana projekty naukowe? Może pan wskazać konkretny przykład?

 

Science-fiction jest dla mnie nieustającym źródłem inspiracji, choć nie zawsze w sposób bezpośredni. To raczej laboratorium myślowe, w którym autorzy testują granice tego, co możliwe. Pracując nad algorytmami wykrywania dezinformacji, często wracam do „1984” Orwella. Jego wizja Ministerstwa Prawdy nie jest już tylko metaforą - widzimy jak w czasie rzeczywistym treści mogą być modyfikowane, a historia przepisywania przez algorytmy. To zmusza nas do projektowania systemów, które nie tylko wykrywają fałsz, ale też chronią integralność informacji. Inny przykład spoza mojej działki to pace nad interfejsami mózg-komputer. William Gibson w „Neuromancerze” opisał cybernetyczne implanty, dekady przez pierwszymi eksperymentami. Jego wizję pomagają myśleć o konsekwencjach etycznych zanim technologia stanie się powszechna. Science-fiction działa jak system wczesnego ostrzegania – pokazuje nam, gzie możemy trafić, jeśli nie będziemy ostrożni. W pewnym sensie moje badania nad skutecznością modlitw luźno inspirował Ted Chiang (”Piekło to nieobecność Boga”).

 

Który z twórców jest panu poszczególnie bliski?

 

Stanisław Lem pozostaje niedoścignionym mistrzem. Jego zdolność do łączenia głębokiej refleksji filozoficznej z rygorem naukowym jest wyjątkowa. „Summa Technologiae” to nie tylko literatura - to podręcznik futurologii, który wciąż zaskakuje trafnością przewidywań. Lem przewidział wirtualną rzeczywistość, sztuczną inteligencję, a nawet problemy etyczne związane z biotechnologią. Co więcej. Lew rozumiał, że największym wyzwaniem nie jest sama technologia, ale nasza zdolność do jej zrozumienia i kontrolowania. Jego „Solaris” to przecież opowieść o granicach ludzkiego poznania – temat niezwykle aktualny w erze AI, której mechanizmów działania często nie potrafimy w pełni wyjaśnić. Z pisarzy współczesnych absolutnym fenomenem jest Jacek Dukaj – pisze mądrze, z niesamowitą wyobraźnią, ale i dużą erudycją. Gdyby miał dobre tłumaczenia, zgarniałby Hugo i Nebulę raz za razem, bo co najmniej cztery jego książki to absolutny światowy top. Bardzo też cenię Petera Wattsa, jego „Echopraksja” i „Ślepowidzenie” to arcydzieła literatury - warto czytać po angielsku, choć to bardzo gęsty test. Kiedyś zaczytywałem się Philipem Dickiem i Rogerem Zelaznym - ale, siłą rzeczy, od dawna nic nowego nie tworzą.

 

S-f pomaga lepiej zrozumieć obecne zagrożenia związane z rozwojem AI i katalog ludzkich błędów?

 

Bez wątpienia. Science-fiction działa jak kultowy sejsmograf - rejestruje nasze najgłębsze obawy zanim staną się rzeczywistością. Weźmy „Łowcę androidów” - film z 1982 roku, który stawia pytanie o granice między człowiekiem a maszyną. Dziś, gdy modele językowe potrafią prowadzić przekonujące rozmowy, to pytanie nabiera realnego wymiaru. Literatura SF kataloguje spektrum ludzkich błędów: od utraty pracy przez automatyzację (Vonnegut), przez utratę prywatności (Dick), zagrożenia intymności (Her), po całkowitą utratę kontroli nad własnym stworzeniem (seria „Terminator”). Te narracje pomagają nam przygotować się psychicznie na zmiany, ale też projektować systemy z większą świadomością potencjalnych zagrożeń.

 

Która z klasycznych wizji wydaje się dziś najbardziej prawdopodobna. Orwell, Dick, Lem?

 

Paradoksalnie, realizują się elementy wszystkich trzech wizji jednocześnie. Od Orwella mamy inwigilację - kamery, rozpoznawanie twarzy, śledzenie cyfrowego śladu. Od Dicka - rozmycie granicy między rzeczywistością a symulacją, deepfake`i, światy wirtualne. Od Lema - nieprzewidywalność i niezrozumiałość zaawansowanych systemów AI. Co gorsza, ziszczają się też wizje katastrofy ekologicznej, typowe dla biopunka (jak Bacigalupiego z „Nakręcanej dziewczyny”).

 

 

Co nas przed tym wszystkim chroni?

 

Przede wszystkim świadomość społeczna - właśnie dzięki tym autorom rozpoznajemy zagrożenia. Dalej: różnorodność technologiczna - żaden pojedynczy podmiot nie kontroluje całej infrastruktury. Wreszcie regulacje prawne, choć te zawsze są o krok za technologią. Najważniejsza jest jednak edukacja - społeczeństwo świadome zagrożeń może skuteczniej się przez nimi bronić.

 

A może s-f za bardzo wpływa na sposób w jaki postrzegamy AI? Wiele z obaw to po prostu nie realistyczne wizje rodem właśnie z literatury?

 

Dobre pytanie. Rzeczywiście, popkulturowe wyobrażenia o „złowrogiej AI” często przesłaniają realne zagrożenia. Zamiast martwić się o Skynet, powinniśmy skupić się na algorytmicznej dyskryminacji, manipulacji informacją czy erozji prywatności - problemach znacznie bardziej przyziemnych, ale realnych. Z drugiej strony, science-fiction pełni ważną funkcje ostrzegawczą. Lepiej przesadzić z ostrożnością niż zostać zaskoczonym. Problem pojawia się, gdy dystopijne wizje paraliżują konstruktywną debatę lub gdy służą jako wymówka dla braku regulacji („i tak nic nie poradzimy na superinteligencję”). W tym sensie zarówno hurraoptymizm jak i radykalna technofobia nie służą rozwiązywaniu nowych problemów.

 

Badania pokazują, że roboty mogą przejmować uprzedzenia ludzi… Skąd bierze się ten efekt i jak go ograniczyć?

 

Badałem to m.in. z dr Anną Górską na przykładzie uprzedzeń do prestiżowych zawodów. To fundamentalny problem - AI uczy się z danych stworzonych przez ludzi, więc odzwierciedla wszystkie nasze uprzedzenia. Jeśli w danych treningowych kobiety rzadziej pojawiają się jako prezeski firm, algorytm „nauczy się”, że to stanowisko jest „męskie”. To nie złośliwość maszyny - to lustro naszego społeczeństwa. Ograniczanie tego efektu wymaga działań na wielu poziomach: różnorodne zespoły tworzące AI, audyty algorytmiczne sprawdzające wyniki pod kątem dyskryminacji, techniki „debiasingu” w procesie uczenia. Ale najważniejsza jest transparentność - musimy wiedzieć, na jakich danych uczył się system i jakie może mieć ograniczenia.

 

W erze generatywnych modeli, kontrola przekazu, o której pisali klasycy, jest bliżej spełnienia niż kiedykolwiek?

 

Generatywna AI to broń obosieczna. Z jednej strony, demokratyzuje tworzenie treści - każdy może być „autorem”. Z drugiej, umożliwia manipulację na niespotykaną skalę. Deepfake`i, teksty generowane przez AI, syntetyczne media - granica między prawdą a fikcją zaciera się. Orwellowska kontrola przekazu jest technicznie możliwa, ale paradoksalnie trudniejsza do wprowadzenia w świecie, gdzie każdy ma dostęp do narzędzi tworzenia. Problem nie w tym, że jeden podmiot kontroluje prawdę, ale że prawda tonie w morzu wygenerowanych treści. To wymaga nowego typu czujności - nie tylko przed cenzurą, ale przed zalewem dezinformacji. 30-tego listopada 2025 roku prowadzony przeze mnie Human+AI Institute organizuje event online dotyczący sztuki generatywnej, mam nadzieję, że także o tym podyskutujemy.

 

Mary Shelley we „Frankensteinie” ostrzegała, że twórca odpowiada za potwora. Jakakolwiek kontrola w przypadku AI jest możliwa?

 

Metafora Frankensteina jest nie zwykle trafna - tworzymy coś, czego do końca nie rozumiemy. Współczesne modele AI to „czarne skrzynki” - wiemy, jak je trenować, ale nie zawsze rozumiemy dlaczego podejmują konkretne decyzje. Kontrola jest możliwa, ale wymaga podejścia systemowego: odpowiedzialności prawnej twórców, standardów bezpieczeństwa, mechanizmów wyłączania awaryjnego, regularnych audytów. Kluczowa jest tzw. „explainable AI” - systemy, które potrafią wyjaśnić swoje decyzje. Nie możemy pozwolić, by AI działała jak tajemnicza wyrocznia. Niestety problemem jest także to, że mamy narastające korzyści ze stosowania modeli (więc „nie opłaca się” przestać), a jednocześnie możemy napotkać na skokową zagładę cywilizacji - ładnie pisał o tym Peter Vinge w „Ogniu nad otchłanią”.

 

 

Czy unijne AI Act to współczesny odpowiednik praw Asimova?

 

AI Act to krok w dobrym kierunku, ale porównanie do praw Asimova pokazuje skalę wyzwania. Prawa robotyki były proste i uniwersalne. AI Act to setki stron przepisów próbujących objąć każdy możliwy scenariusz. To konieczne w świecie prawnym, ale czy to wystarczy? Największym problemem jest tempo zmian - prawo powstaje latami, technologia rozwija się w miesiącach. AI Act może być przestarzały zanim wejdzie w pełni w życie. Potrzebujemy bardziej elastycznych ram - zasad, które można adaptować do nowych wyzwań bez przepisywania całego prawa. Dlatego postuluję wprowadzenie Czwartego Prawa Robotyki, co podchwyciły media branżowe: regulacji wymagającej przynajmniej identyfikowania się agentów AI.

 

A może to tylko europejska wyspa na oceanie prawnego chaosu? Chiny i USA nie oglądają się na regulację, więc jesteśmy skazani na niekontrolowany rozwój AI?

 

To realne zagrożenie - „wyścig zbrojeń” w AI może prowadzić do obniżania standardów bezpieczeństwa. Ale Europa ma atut - ogromny rynek, którego żadna firma nie może zignorować. „Efekt Brukseli” sprawił, że RODO stało się de facto globalnym standardem. Inna sprawa, że wdrożenie tego standardu jest takie sobie, podobnie jak regulacje z ciasteczkami w przeglądarkach. Realnie, kluczowa jest współpraca międzynarodowa. Potrzebujemy „traktatu o nie rozprzestrzenianiu” dla niebezpiecznych AI, globalnych standardów bezpieczeństwa. To trudne w czasach napięć geopolitycznych, ale alternatywa - cyfrowy Dziki Zachód - jest zbyt niebezpieczna. Liczę na to, że USA i Europa kiedyś będą w stanie stworzyć wspólny front.

 

Popiera pan postulat, by AI musiał ujawniać, że jest AI. Jak miałoby to działać w praktyce?

 

To absolutnie fundamentalne dla zachowania zaufania w społeczeństwie. Postawą mogą być cyfrowe „watermarki” - niewidoczne dla  użytkownika znaczniki w treściach generowanych przez AI, które niektóre firmy, np. Google w modelu Veo, wprowadzają. Każda interakcja z botem powinna zaczynać się od jasnej informacji, że nie mamy do czynienia z człowiekiem. W praktyce: standaryzowane oznaczenia (jak znaczek „E” przy dodatkach do żywności), obowiązkowe API ujawniające pochodzenie treści, kary za wprowadzanie w błąd. Technologia istnieje - brakuje woli politycznej i egzekwowania. To kwestia nie tylko techniczna, ale podstawowego szacunku dla autonomii człowieka.

 

Tylko, że eksperci od lat dyskutują i wciąż nie wiemy np. kto powinien odpowiadać za błąd autonomicznego samochodu

 

Musimy zaakceptować, że prawo zawsze będzie o krok za technologią. Rozwiązaniem jest tworzenie ram adaptacyjnych - zamiast szczegółowych przepisów, ogólne zasady odpowiedzialności. Na przykład: zawsze musi być „człowiek w pętli” mogący ponieś odpowiedzialność – producent, właściciel, operator. Inna sprawa, że ten człowiek w pętli może być iluzorycznym bezpiecznikiem - kiedy dostanę z systemu informację, że na 95 procent dron namierzył terrorystę i mam 20 sekund na potwierdzenie, czy go zlikwidować, to decyzja zapadła już dano temu. Realnie to kluczowe powinno być odwrócenie ciężaru dowodu - to twórca AI musi udowodnić, że jego system jest bezpieczny. Zamiast sytuacji, w której to społeczeństwo musi udowadniać, że system jest niebezpieczny. I wreszcie - obowiązkowe ubezpieczenia, fundusze kompensacyjne. Nie zatrzymamy postępu, ale możemy złagodzić jego negatywne skutki. „Na szczęście” błędy algorytmów znamy od lat - i o ile w przypadku zawinionych zaniedbań w oczywisty sposób odpowiada za nie producent, o tyle zdarzają się czasem błędy, które nie są niczyją winą. Tak będzie i tutaj, najważniejsze jest to, aby systemy Ai były bardziej niezawodne niż średnio ludzie.

 

Gdyby mógł pan wybrać jednego klasyka s-f jako konsultanta przy tworzeniu dzisiejszych modeli AI

 

Wymienię może nietypową autorkę - Ursulę K. Le Guin. Podczas gdy inni autorzy fascynowali się technologią, ona pytała o jej wpływ na społeczeństwo, o sprawiedliwość, o to. Kto zyskuje, a kto traci. Jej „Lewa ręka ciemności” to studium tego, jak nasze założenia kulturowe kształtują postrzeganie rzeczywistości - kluczowa lekcja dla twórców AI. A przy okazji fenomenalna lekcja tego, jak szanować odmienność. Le Guin rozumiała, że każda technologia jest polityką prowadzaną innymi środkami. Pytałaby nie „czy możemy to zbudować?”, ale „czy powinniśmy?” i „komu to służy?”. W świecie, gdzie AI może pogłębiać nierówności, jej perspektywa byłaby bezcenna.

 

Jakich pozytywnych zmian - w nauce i społeczeństwie - spodziewa się pan dzięki AI w najbliższej dekadzie?

 

Największy potencjał widzę w demokratyzacji dostępu do wiedzy i narzędzi. AI jako osobisty tutor może zrewolucjonizować edukację - każde dziecko będzie miało nauczyciela dopasowanego do swojego tępa nauki. Ale jeszcze wcześniej będziemy mogli wprowadzić naukę pamięciową opartą na tzw. „spaced repetition” w sposób indywidualnie dostoswany do ucznia. Narzędzia już są (w Polsce najpopularniejszą platformą wsparcia nauczycieli języków jest choćby InstaLing, do którego przyłożyłem rękę), brak wdrożeń i wsparcia ze strony państwa. W medycynie - AI pomoże w diagnostyce w regionach bez dostępu do specjalistów, jak i pomoże rozładować kolejki. W nauce AI już przyspieszyła odkrycia - od projektowania leków po modelowanie klimatu. Ale najważniejsza zmiana może mieć charakter społeczny. Jeśli dobrze to rozegramy, AI może nas uwolnić od monotonnej pracy, dając więcej czasu na kreatywność, relację, rozwój osobisty. To szansa na redefinicję tego, co znaczy być człowiekiem w XXI wieku. Problem oczywiście jest w tym, że mając nadzieję na automatyzację, która pomoże nam sprzątać dom i da czas na tworzenie sztuki, stworzyliśmy systemy tworzące sztukę i zostawiające nam jedynie zawód sprzątaczy.

 

Obok czarnych scenariuszy wiele dzieł science-fiction ukazuje AI wspomagającą rozwój cywilizacji

 

Tak, i te optymistyczne wizje są równie ważne. „Kultura” Iaina M. Banksa pokazuje cywilizację, gdzie AI (umysły) współpracują z ludźmi dla dobra wszystkich. To nie utopia - są konflikty, dylematy - ale podstawą jest partnerstwo, nie dominacja. Asimov w cyklu „Fundacja” pokazał AI (w postaci psychohistorii) jako narzędzie przewidywania i łagodzenia kryzysów cywilizacyjnych. To inspiracja dla współczesnych prób modelowania społecznego - od przewidywania epidemii po zapobieganie konfliktom. Z kolei w „Diunie” Herberta mamy do czynienia ze światem post-AI, w którym istnieje wysoka technologia, ale ryzyko używania AI (po wymknięciu się jej spod kontroli) uznano za zbyt wysokie.

 

W literaturze znajdujemy też wizję, w których AI naprawia błędy ludzkości

 

AI już teraz pomaga naprawiać nasze błędy. Algorytmy optymalizują zużycie energii, pomagają w recyklingu, przyspieszają odnawianych źródeł energii. W przyszłości możemy wyobrazić sobie AI projektującą technologie wychwytywania CO2, rozwiązującą problem odpadów plastikowych, może nawet pomagającą w terraformowaniu zniszczonych ekosystemów. Ale najważniejsze - AI może pomóc nam lepiej zrozumieć konsekwencje naszych działań. Symulacje klimatyczne, modele ekonomiczne, przewidywanie skutków polityk - to narzędzia, które mogą uczynić nas mądrzejszymi jako gatunek. Oczywiście, pod warunkiem, że będziemy chcieli słuchać.

 

 

Jakie książki science-fiction poleciłby pan dziś naukowcom zajmującym się technologią, by lepiej rozumieli przyszłość, którą współtworzą?

 

Rozpocząłbym od „Diamentowego wieku” Neala Stephensona - to wizja tego, jak technologia może pogłębiać lub niwelować nierówności społeczne. Następnie „Ślepowidzenie” Petera Wattsa - brutalne, ale potrzebne studium obcej inteligencji i granic poznania. Koniecznie też „Opowieść podręcznej” Margaret Atwood - przypomnienie, że technologia może służyć opresji. „Pompa numer sześć” Paulo Bacigalupiego pokazuje w różnych opowiadaniach co nas czeka, jeśli zlekceważymy ratowanie klimatu. I wreszcie, moje tegoroczne odkrycie: „There Is No Anti-Memetics Division” - odjechaną konceptualnie powieść, która pokazuje dyfuzję idei i to jak na siebie wzajemnie wpływają. Robi to mniej kunsztownie niż „Inne pieśni” Dukaja, ale na mniejszej liczbie stron. Te książki uczą pokory, odpowiedzialności i wyobraźni – cech niezbędnych każdemu, kto kształtuje naszą technologiczną przyszłość.

 

Źródło:

Gazeta Wyborcza, 6 lipca 2025.

Zobacz również inne wpisy w blogu