Не вірте всьому, що бачите в Інтернеті — деякі ролики за участю відомих людей можуть бути оманою. Про це попереджає Національний дослідницький інститут. Змонтовані відео є так званими дипфейками з використанням штучного інтелекту..
Експерт NASK із відділу штучного інтелекту Аліція Мартінек розповіла, що дипфейки можна розпізнати без технічного досвіду. Переглядаючи фрагмент інтерв’ю в Інтернеті, варто почати мислити критично, особливо якщо матеріал має сенсаційний зміст.
«Є кілька основних індикаторів, які можуть спрацьовувати. Наприклад, коли у відеороликах deepfake рекламуються фінансові інвестиції, які звучать занадто добре, щоб бути правдою. Тут вам не потрібні технологічні інструменти, щоб зрозуміти, що щось не складається, просто як у випадку вихваляння якихось чарівних ліків», — додала Аліція Мартінек.
Також можна придивитися до опублікованого відео. У дипфейках можна виявити серед іншого, неприродний тон голосу, механічну мову або плутанину займенників.
«Крім того, дуже часто дати, цифри та числівники вимовляються неправильно, тому що коли вони вводяться в алгоритм, програма не обов’язково знає, як їх правильно вимовляти польською мовою. Тому вони неправильно читаються і неправильно звучать. Часто не узгоджується також стать того, хто говорить», — підкреслила експерт НАСК.
За даними NASK, у першому півріччі цього року кібершахраї використовували зображення понад 120 знаменитостей у підготовлених роликах.
IAR/І.Я.