Zmanipulowane filmy to tak zwane deepfake’i wykorzystujące sztuczną inteligencję. Według danych NASK w pierwszym półroczu bieżącego roku cyberoszuści wykorzystali wizerunki ponad 120 celebrytów w spreparowanych filmach.
Alicja Martinek, ekspertka NASK z Pionu Sztucznej Inteligencji, powiedziała, że deepfake’i można rozpoznać bez technicznego doświadczenia. Oglądając fragment wywiadu w sieci należy uruchomić krytyczne myślenie, zwłaszcza jeśli materiał przedstawia sensacyjne treści. "Jest kilka głównych czerwonych lampek, które mogą się zapalić. Na przykład, gdy filmiki typu deepfake reklamują jakieś inwestycje finansowe, które brzmią za dobrze, by były prawdziwe. Tutaj nie potrzeba narzędzi technologicznych, żeby stwierdzić, że coś jednak nie pasuje, tak samo w przypadku zachwalania jakiś magicznych lekarstw" - dodała Alicja Martinek.
Można również przyjrzeć się dokładniej filmowi publikowanemu w sieci. Deepfake’i zdradza między innymi nienaturalny ton głosu, mechaniczne mówienie lub mylenie zaimków osobowych. "Dodatkowo bardzo często daty, cyfry, liczebniki są źle wymówione, ponieważ właśnie w sytuacji, gdy się je wpisuje do algorytmu, program niekoniecznie wie, jak się je prawidłowo odmienia w języku polskim. Z tego powodu jest źle przeczytane i brzmi niepoprawnie. Często zmienia się też płeć osoby, która się wypowiada. Zaczyna wątek jako mężczyzna, a w trakcie rozmowy wypowiada się jak kobieta" - podkreśliła ekspertka NASK.
W warstwie wizualnej w spreparowanych filmach zdarzają też się błędy wynikające z niedoskonałości technologii. "Najłatwiej patrzeć na usta, czy jest spójność w czasie między tym, co dana osoba wypowiada, i tym, jak się ruszają jej usta. Tutaj na szczęście już mamy łącza internetowe tak dobre, że nie możemy obarczać winą za to przesunięcie słabego transferu danych, tylko to będzie po prostu słaby deepfake. Dodatkowo te usta mogą przyjmować dziwny kształt" - powiedziała Alicja Martinek z NASK.
Jednym z popularnych motywów wśród filmów deepfake rozpowszechnianym w sieci są te reklamujące rzekomo niezwykle korzystne inwestycje finansowe, na przykład w gazociąg Baltic Pipe. Do ich przygotowania wykorzystywano chociażby wizerunek prezydenta, premiera, znanych piłkarzy lub symbole dużych koncernów państwowych.
Według badań NASK najbardziej narażoną grupą osób na kradzież wizerunku do deepfake’ów są dziennikarze i politycy. To odpowiednio 32 procent i 21 procent wszystkich zweryfikowanych przypadków.
W przypadku zostania ofiarą oszustwa z powodu fałszywego filmu sprawę niezwłocznie należy zgłosić policji. Część komend posiada wyspecjalizowane jednostki do zwalczania cyberprzestępczości.
Fałszywe nagranie typu deepfake wraz ze stroną można też zgłosić zespołowi CERT Polska działającemu w strukturach NASK - poprzez stronę incydent.cert.pl. To grupa ekspertów monitorująca bezpieczeństwo polskiej sieci.
W celach analitycznych tego rodzaju oszustwa można zgłosić pod adres deepfake@nask.pl. Zespół ekspertów z Pionu Sztucznej Inteligencji NASK pracuje nad algorytmami do automatycznego wykrywania fałszywych filmów.
IAR/ks