Sklonowanie naszego głosu zajmie AI 3 sekundy. Bądźmy czujni!

Ostatnia aktualizacja: 29.03.2023 09:44
Deepfake kojarzy nam się z przeróbkami filmów, jednak sztuczna inteligencja w podobny sposób może podrobić nasz głos. Niestety wykorzystują to cyberprzestępcy stosujący tzw. metodę na wnuczka. 
3 sekundy próbki głosu wystarczą, by go sklonować
3 sekundy próbki głosu wystarczą, by go sklonowaćFoto: Shutterstock/Antonio Guillem

Niedawno media donosiły o programie Prime Voice AI, który został użyty do klonowania głosów celebrytów. W ten sposób, w ekspresowym tempie, świat obiegły m.in. nagrania głosu Joe Bidena ogłaszającego inwazję na Rosję czy Emmy Watson czytającej fragmenty "Mein Kampf". Te niesmaczne żarty, to tylko wierzchołek góry lodowej problemu. 

Technologia deepfake voice jest w Stanach coraz częściej wykorzystywana do oszustw telefonicznych. W Polsce popularnie nazywa się je "oszustwami na wnuczka". Schemat jest prosty: oszuści dzwonią do ofiary, udając krewnego w tarapatach, który potrzebuje szybkiego zastrzyku gotówki. Ofiara w słuchawce już nie słyszy głosu naciągacza, ale znany głos bliskiej osoby wygenerowany przez AI na podstawie materiału audio wykradzionych lub znalezionych w sieci. 

Do sklonowania głosu dziś wystarczy nawet krótkie wideo zgrane z TikToka. - Jeśli taki materiał wpadnie w ręce cyberprzestępcy albo jeśli my sami opublikujemy nagranie z naszym głosem w mediach społecznościowych, to pojawia się ryzyko sklonowania naszego głosu - wyjaśnia Joanna Wziątek, specjalistka ds. cyberbezpieczeństwa. - To może być bardzo krótki filmik. W niektórych programach, z których korzystają cyberprzestępcy, wystarczą tylko 3 sekundy próbki głosu. Aby było to bardziej wiarygodne, potrzebne są dwa-trzy zdania - ostrzega. 


Posłuchaj
03:54 czwórka pierwsze słyszę 29.03.2023.mp3 Sztuczna inteligencja wykorzystywana jest przez cyberprzestępców? Jak nie dać się oszukać sklonowanemu głosowi? (Pierwsze słyszę/Czwórka)

 

Eksperci szacują, w USA 1 na 7 przypadków phishingu to oszustwo głosowe. Federalna Komisja Handlu wyliczyła też, że pomocy "metody na wnuczka" w zeszłym roku udało się wyłudzić 11 milionów dolarów. 

Joanna Wziątek radzi, by zawsze zachować zimną krew, weryfikować to, kto do nas dzwoni, nie robić niczego pochopnie. Gdy dzwoni do nas bliski z prośbą o gotówkę, spróbujmy skontaktować się z nim z innego telefonu, podpowiada specjalistka. 

Kamil Jasieński przypomina, że do jednego z pierwszych przestępstw tego typu doszło w 2020 roku. Cyberprzestępcy sklonowali głos dyrektora jednej z firm współpracujących od lat z katarskim bankiem. Przez telefon zlecili przelewy na łączną sumę 35 milionów dolarów. 

***

Tytuł audycji: Pierwsze słyszę

Prowadzi: Kamil Jasieński

Materiał: Martyna Ogonek

Data emisji: 29.03.2023

Godzina emisji: 7.38

pj

Czytaj także

Nowy rodzaj phishingu. Nie daj się "złowić" na e-receptę

Ostatnia aktualizacja: 20.02.2023 19:00
Cyfryzacja służby zdrowia to wygoda dla pacjentów i lekarzy, ale też kolejna furtka dla cyberprzestępców. Dostałeś dostęp do e-recepty? Zanim klikniesz w link, przeczytaj!
rozwiń zwiń
Czytaj także

Cyberprzestępcy łowią ofiary na fikcyjne odszkodowania

Ostatnia aktualizacja: 22.03.2023 10:03
Powoli oswoiliśmy się z pandemią koronawirusa, mamy wiedzę i szczepienia. Temat nieco ucichł, ale tę ciszę postanowili wykorzystać cyberprzestępcy, tworząc kampanię phishingową. Wabią swoje ofiary na fikcyjne odszkodowania za szczepienia. 
rozwiń zwiń