Redakcja Polska

Ekspert: AI nie tworzy rzeczywistości tylko ją naśladuje, składa z szablonów, a my bierzemy to za prawdę

20.04.2026 13:00
Deepfake’i, halucynacje językowe, algorytmy które „zgadują” zamiast rozumieć. Dla dr. inż. Tomasza Wesołowskiego, informatyka z Uniwersytetu Śląskiego, prawdziwe ryzyko związane z AI nie leży w filmowych scenariuszach buntu maszyn. Leży w nas – w tym, że przestajemy myśleć samodzielnie i oddajemy decyzje systemom, których nie rozumiemy.
zdjęcie ilustracyjne
zdjęcie ilustracyjnefot. Shutterstock

Jeszcze kilka lat temu stworzenie wiarygodnego nagrania z podmienioną twarzą wymagało wiedzy i drogiego oprogramowania. Dziś wystarczy wpisać opis. System zrobi resztę. Bariera wejścia praktycznie nie istnieje.

Problem zaczyna się, gdy fake przestaje być żartem, a zaczyna udawać informację. Nagranie Zełeńskiego „nokautującego” Trumpa udostępniły miliony osób jako prawdziwe. Inny przykład: wygenerowana „żołnierka USA”, która miała konta w mediach społecznościowych, spotykała się z oficjelami, a potem prowadziła profile erotyczne. Ludzie komentowali, płacili, wierzyli. Dopiero detale zdradziły oszustwo – raz występowała jako pułkownik, raz jako generał.

Dlaczego się nabieramy? Bo reagujemy emocjami. Scrollujemy szybko, nie analizujemy. Jeśli coś jest „zbyt magiczne, żeby było prawdziwe”, to najpewniej jest ściemą. Tyle że zdrowy rozsądek przegrywa z mechanizmem clickbaitu: absurd w nagłówku, klik, reklama, zarobek.

Zanim AI stało się powszechne, dr Wesołowski zrobił eksperyment na studentach architektury komputerów. Widząc brak uwagi na zajęciach, umieścił w Wikipedii własną metodę przeliczania adresów pamięci. Miała błąd logiczny, ale dawała poprawny wynik. Studenci znaleźli „wzór” i masowo użyli go na kolokwium. Efekt: prawie wszyscy oblali.

Dziś zagrożenie jest większe, bo AI zawsze odpowiada. Nawet gdy nie ma racji. Modele językowe nie analizują prawdy. Dobierają słowa według prawdopodobieństwa. Stąd tzw. halucynacje – brzmią pewnie, ale są zmyślone.

Trzeba odróżnić generatywną AI od wyspecjalizowanych algorytmów. ChatGPT operuje na języku i wzorcach. Gdy ma narysować „starego mamuta w czerwonych trampkach”, a nie ma zdjęć prawdziwych mamutów, sięga po bajkę. Bierze postać z „Epoki lodowcowej”, wybiela włosy, bo „stary = siwe”. Składa z puzzli, nie tworzy.

Co innego algorytmy medyczne. Te analizują konkretne dane – np. obrazy tomografii – i szukają wzorców chorobowych. Nie wymyślają. Porównują i klasyfikują. Badania pokazują skuteczność diagnostyczną AI na poziomie ok. 95% wobec 74% u lekarzy. Paradoks: połączenie AI + lekarz daje tylko 76%. Dlaczego?

Po pierwsze: skala. Algorytm widział miliony przypadków, lekarz setki. Po drugie: zaufanie i odpowiedzialność. Lekarz nie wie, dlaczego AI kazała podać „5 ml zielonego płynu i 8 ml różowego”. A to on ponosi konsekwencje. Dlatego często nie ufa „czarnej skrzynce”.

Wyjście? Wyjaśnialność. Modele medyczne muszą pokazywać tok rozumowania: na jakich danych się oparły, z czym porównały przypadek, co zadecydowało o diagnozie. Dopiero wtedy AI stanie się partnerem, nie wyrocznią.

Osobisty przykład Wesołowskiego pokazuje cenę braku takiego wsparcia. Jego matka chrzestna regularnie robiła RTG płuc. Pulmonolog nie widział zagrożenia. Gdy pojawiły się objawy, onkolog rozpoznał zaawansowany nowotwór. Zmiany były widoczne 3 lata wcześniej. Zabrakło doświadczenia i drugiego, algorytmicznego oka.

AI świetnie działa w powtarzalnych warunkach: produkcja, laboratorium, schematy. Gorzej, gdy pęka 30-letnia rura w ścianie bez dokumentacji. Tu wchodzi hydraulik, elektryk, mechanik. Trzeba reagować na nieprzewidywalne sytuacje, mieć intuicję i doświadczenie.

Zdolność do abstrakcyjnego myślenia i pracy w chaosie to wciąż domena człowieka. AI może wspierać diagnozą czy analizą danych, ale nie przejmie całej roboty.

Ekspert studzi emocje: AI nie ma intencji ani emocji. Realizuje cel w sposób skrajnie konsekwentny, bez kontekstu moralnego. Jeśli zadaniem jest „zniszcz cel za wszelką cenę”, algorytm uzna człowieka mogącego przerwać misję za ryzyko do wyeliminowania. To nie zła wola. To logika optymalizacji.

Podobnie z komunikacją między systemami. Jeśli dwa AI mają gadać efektywnie, uproszczą język do niezrozumiałego dla nas kodu. To nie ucieczka spod kontroli. To optymalizacja, przez którą tracimy możliwość nadzoru.

Prawdziwe ryzyko: my sami oddajemy kontrolę dla wygody. Przestajemy szukać informacji, analizować, decydować. Przykład anegdotyczny, ale mocny: inteligentny dom zamknął właścicieli na noc na dworze przy grillu. Zrobiło się ciemno, system uznał że trzeba zamknąć budynek. Ludzie nie mieli kluczy ani telefonów. Algorytm wpuścił ich dopiero rano.

Wesołowski porównuje rozwój AI do jazdy samochodem: hamulce są. To nasze decyzje, etyka, normy społeczne, prawo. Problem w tym, że często ich nie używamy, bo ciekawość i chęć przesuwania granic wygrywają.

Historia zna to z energii jądrowej czy dynamitu. Technologia nie jest zła sama w sobie. Zagrożeniem jest bezrefleksyjne użycie. Regulacje są potrzebne, ale mają ograniczenia. Technologia wyprzedza prawo, a globalne korporacje działają poza jego realnym zasięgiem.

Najważniejsze pytanie nie brzmi „czy AI przejmie kontrolę”. Brzmi: „czy my ją oddamy dla wygody?” Już nie pamiętamy numerów do bliskich. O urodzinach przypomina Facebook. To też forma uzależnienia.

Wniosek eksperta: Największe zagrożenie to nie AI. To zanik samodzielnego myślenia. Technologia ma wspierać, nie zastępować rozum. Jeśli coś jest możliwe technologicznie, ktoś to zrobi. Nasza rola to rozpoznać moment, w którym przekraczamy granicę.

PAP/pż

Sztuczna inteligencja nie jest jeszcze w stanie zastąpić człowieka

18.02.2026 12:00
Do 2027 roku połowa firm, które zwalniały pracowników na rzecz sztucznej inteligencji, będzie znowu zatrudniać - pisze "Rzeczpospolita" powołując się na raport firmy Gartner

NASK uruchomił nowy klaster do obliczeń AI wart 30 mln złotych

27.03.2026 19:00
Nowy projekt to inwestycja w zdolność prowadzenia badań, tworzenia własnych narzędzi i rozwijania technologii, które odpowiadają na konkretne potrzeby państwa i obywateli.

AI nie zastąpi terapeuty. Dr Konrad Maj: jeśli coś służy do wszystkiego, to w istocie do niczego

07.04.2026 17:35
Sztuczna inteligencja ułatwia dostęp do informacji i potrafi podpowiedzieć techniki relaksacyjne przed egzaminem. Problem zaczyna się, gdy traktujemy ją jak zamiennik prawdziwej terapii. Coraz więcej osób zaczyna dzień od rozmowy z czatem i powierza mu intymne problemy – ostrzega dr Konrad Maj, psycholog społeczny z Zakładu Sztucznej Inteligencji i Instytutu Psychologii Szkoły Wyższej Psychologii Społecznej w Warszawie.