Українська Служба

Кіберфахівці застерігають від збільшення кількості дипфейків

16.08.2024 08:10
У першому півріччі цього року кібершахраї використовували зображення понад 120 знаменитостей у підготовлених роликах
Ілюстраційне фото https://pxhere.com CC0 Domena publiczna

Не вірте всьому, що бачите в Інтернеті — деякі ролики за участю відомих людей можуть бути оманою. Про це попереджає Національний дослідницький інститут. Змонтовані відео є так званими дипфейками з використанням штучного інтелекту..

Експерт NASK із відділу штучного інтелекту Аліція Мартінек розповіла, що дипфейки можна розпізнати без технічного досвіду. Переглядаючи фрагмент інтерв’ю в Інтернеті, варто почати мислити критично, особливо якщо матеріал має сенсаційний зміст.

«Є кілька основних індикаторів, які можуть спрацьовувати. Наприклад, коли у відеороликах deepfake рекламуються фінансові інвестиції, які звучать занадто добре, щоб бути правдою. Тут вам не потрібні технологічні інструменти, щоб зрозуміти, що щось не складається, просто як у випадку вихваляння якихось чарівних ліків», — додала Аліція Мартінек.

Також можна придивитися до опублікованого відео. У дипфейках можна виявити серед іншого, неприродний тон голосу, механічну мову або плутанину займенників.

«Крім того, дуже часто дати, цифри та числівники вимовляються неправильно, тому що коли вони вводяться в алгоритм, програма не обов’язково знає, як їх правильно вимовляти польською мовою. Тому вони неправильно читаються і неправильно звучать. Часто не узгоджується також стать того, хто говорить», — підкреслила експерт НАСК.

За даними NASK, у першому півріччі цього року кібершахраї використовували зображення понад 120 знаменитостей у підготовлених роликах.

IAR/І.Я.

Побач більше на цю тему: кібербезпека