Українська Служба

 «Дипфейки стали стандартним інструментом російської пропаганди»

02.04.2024 17:00
Засновниця ініціативи «Як не стати овочем» Оксана Мороз і експерт із кібербезпеки Костянтин Корсун розповідають про відеодипфейки, які все більше стають нашою щоденністю
Аудіо
  • Розмова з Оксаною Мороз і Костянтином Корсуном про діпфейки
Ілюстративне фотоBy Unknown author - xQH585o1Tz6k_A at Google Cultural Institute maximum zoom level, Public Domain, https://commons.wikimedia.org/w/index.php?curid=24208165

Нещодавно пропагандистський канал НТВ поширив відео з начебто українського телеефіру, у якому секретар РНБО України Олексій Данілов нібито підтвердив причетність Києва до теракту в Підмосковʼї. З огляду на те, що такі відеопідробки усе частіше потрапляють нам на очі (от якийсь час тому крутилося соцмережами фейкове відео з Залужним, а в Польщі — з Анджеєм Дудою), я попросила прокоментувати ситуацію засновницю ініціативи «Як не стати овочем» Оксану Мороз і експерта з кібербезпеки Костянтина Корсуна.

Відео, яке створює дипфейк, акумулює попередні відео того чи іншого спікера й на основі них створюється підробка, яка потрібна для конкретної ситуації. У випадку, коли підозрюємо, що відео фальшиве, ми насамперед з’ясовуємо, чи могло це відбутися насправді.

Цей ефір, який показали на російському каналі, апелював до ефіру телемарафону, у якому нібито Данілов коментував події в росії. Але він не коментував ці події і речником із цього питання був Андрій Юсов із ГУР Міноборони. Тому навіть така коротка перевірка, чи був цей факт насправді, хто був коментатором, може вказати нам, був це дипфейк чи ні.

Другий важливий момент — коли це відбувалося, тобто в цьому випадку мова про телемарафон, але тоді були інші ведучі. Тобто вони взяли ефір із попередніх, коли були зовсім інші ведучі. Це якщо ми беремо цю конкретну ситуацію.

Якщо ми розглядаємо дипфейк загалом, то насамперед будемо звертати увагу на те, наскільки слова збігаються з тим, як промовляються, і взагалі наскільки синхронізується відео- й аудіоряд, бо дуже часто, особливо, якщо це неякісний дипфейк, — будуть розбіжності. І хоча з Даніловим і непоганий був дипфейк, але були розбіжності між тим, як ворушаться губи й що він говорить насправді. Аудіо і відео були розсинхронізовані.

Тож звертати увагу на те, що говорить людина, наскільки природно це говорить, наскільки збігаються її міміка й жести з тим, що вона говорить.

Експерт із кібербезпеки Костянтин Корсун також радить подумати логічно, чи могла людина, яку бачимо на відео, говорити такий текст у тих обставинах, де вона показана.  Він звертає увагу на ще один технічний момент:

Із технічного боку треба дивитися — є і міміка, і, наприклад, чи коректний контур голови… Якщо людина рухається, то по всьому контуру виникають такі артефакти, такі детальки, які дивно себе поводять. Залежно від фону — темний чи світлий. Якщо темний, то більше помітно, на світлому  менш помітно, але такі рухи, де волосся, де вуха, при рухах наче таке світло виявляється. Ну й, відповідно, рух губ, міміка, лоб, брови й таке інше. А фахівці вже можуть детальніше дослідити, але, знову таки, потрібно мати доступ до оригінального відеофайлу. А його теж можна зробити так, що складно буде сказати. Але фахівці, аналізуючи файл, зможуть сказати, що він був зроблений штучно.

Костянтин Корсун каже, що набагато легше підробити аудіофайл і фотографію, тому, враховуючи успішність деяких пранкерських дзвінків я запитала, чи є змога відрізнити голос у підробці аудіо?

Значно менше зусиль потрібно, щоб створити фейкове аудіо. Але тут ідеться лише про оприлюднення якоїсь розмови начебто між двома людьми, просто викласти й усе. А ось для того, щоб використовувати фейкове аудіо у пранку або у чаті, дзвінку чи у когось шахраї захочуть якісь гроші викрасти, — начебто мама, начебто сину чи дочці телефонує, просить гроші, що начебто у неї там щось погане сталося, — то у розмові важко передбачити всі варіанти розвитку діалогу. Тобто можна записати кілька дуже схожих на оригінал голосових повідомлень, але вони будуть типовими: «будь ласка, допоможи», «я зараз не можу говорити, тобі люди зараз підкажуть». Але якщо діалог іде в якийсь непередбачений шахраєм бік, то в них уже не буде заготовок і це буде звучати підозріло й може не спрацювати.

З фото ще простіше. Якщо є достатня кількість зразків фото людини, то зробити фейкове фото взагалі не проблема. Це дуже легко — вставити там інше обличчя в чужу фотографію, — мільйони вебдизайнерів у всьому світі роблять це доволі часто для створення реклами чи чогось подібного, тобто це вже давно освоєна технологія.

Намагаючись уявити масштаб робіт при виготовленні дипфейку, я запитала Костянтина Корсуна, скільки би йому як фахівцеві потрібно було часу й зусиль, які інструменти, щоб зробити відеодипфейк?

(Костянтин Корсун сміється) По-перше, я не фахівець у цьому, у створенні дипфейків, я ніколи цього не робив і не планую найближчим часом, але чисто емпірично можна собі уявити, що це залежить від кількості та якості залучених людей. Ну, я думаю, що за інтенсивної роботи команди з 2-3-х людей і якщо люди досвідчені  якісь відеомонтажери, художники, вебдизайнери, я не знаю, які саме спеціалісти там можуть бути залучені, — думаю, що це інтенсивна робота на кілька днів, а можливо, на тиждень. А з огляду на те, що дуже швидко робили — бо через кілька днів це вже не буде нікому цікаво — тобто вони були обмежені в часі, щоб подати його якраз на хайпі, поки увага до цього прикута (ми ж усі знаємо, що більшість новин живуть кілька днів), тому так, думаю, до тижня інтенсивної роботи фахівців і за умови, що у них є потужні комп’ютери (звичайним комп’ютером це буде довго й неефективно), на яких встановлене спеціальне програмне забезпечення якраз для створення відео. І потім іще потрібен час, щоб його… Просто створити — це відносно швидко, а ось основна частина роботи — це полірування, шліфування, видалення ось цих усіх артефактів, зайвих елементів, це синхронізація відео зі звуком, це монтування окремо звука. Треба взяти зразки голосу людини, змонтувати, а потім пошукати відео з цією людиною. Якщо це публічний політик, то має бути багато відео. Намагатися підібрати слова такі, котрі більше збігатимуться з рухами. Наскільки знаю, у цьому відео замість Буданова поставили Данілова, то це треба й той файл знайти, і там вирізати, туди вставити. Це доволі така велика серйозна робота.

Фахівці підкреслюють розповсюдженість сьогодні у світі відеопідробок, з огляду на загальну доступність програм для монтування відео, на велику кількість фахівців, таких як вебдизайнери, художники, зрештою, відеоблогери. Переважно відеопідробки поширюються з розважальною метою. Оксана Мороз звертає увагу на те, що дипфейки можна використовувати також для навчання чи для роботи:

Звісно, як кожна технологія, вона може використовуватися і в добро, і в зло. Це може бути якийсь розважальний контент, наприклад. В основі дипфейку стоїть штучний інтелект, який може використовуватися з різною метою — і для навчання, і для роботи, скажімо. Проте, коли йдеться про фальсифікацію відео, тобто підробку, то, окрім якихось розважальних моментів, напевно, користі особливої немає, усе решта — це те, що викривляє нашу дійсність, наше мислення й поведінку.

Костянтин Корсун також розділяє нешкідливі розважальні відеопідробки й дипфейки, які створюються зі злочинною метою:

Коли ми говоримо про дипфейк — говоримо саме про зловживання, коли саме для маніпуляцій із громадською свідомістю чи дискредитації певного політика чи ще в якихось таких протиправних цілях. Таких випадків, мабуть, не дуже багато. Залежно від країни, від законодавства, від того, наскільки швидко встановлять автора, чи передбачена певна відповідальність за це. Я не чув, щоб це так масово використовувалося. По-перше, це складно зробити якісно, щоб було правдоподібно. А по-друге, у деяких країнах правоохоронна система значно ефективніше працює. А ще — залежно від того, де відео розміщене, на яких ресурсах, — там виявляються ці ресурси, блокуються, відео видаляється і так далі.

Експерти наголошують на небезпеці  фейкового відео з Олексієм Даніловим саме через намагання росії звинуватити Україну в теракті:

У цьому випадку росія намагається, хоча їй це важко вдається, на щастя, «прив’язати» українців до теракту у Підмосков’ї. Попри те, що й ІГІЛ зробив заяву, вони не лишають спроби знайти там «український слід». Проте в поточній конфігурації інформаційного поля це був фактично постріл холостими, тому що це точно не мало ніякого впливу на українську чи міжнародну аудиторію. Можливо, з російською аудиторією вони чогось там досягли, про це ще, думаю, рано говорити.

Оксана Мороз наголошує, що дипфейки — це розповсюджений вид фейків для російської пропаганди:

Дипфейки стали стандартним інструментом російської пропаганди десь із середини минулого року. Особливо поширені вони в тік-тоці, звідки, як правило, переходять в інші соцмережі. Так, росія зараз часто використовує цей інструмент. Як правило, вони створюють фальшиві новинні сюжети, у яких або поширюють якусь потрібну їм інформацію, як у цьому випадку, або поширюють якусь «зраду», або говорять про те, що щось сталося, чого насправді не було.

Звісно, були випадки, коли підробляли відео, наприклад, із Залужним, коли він іще був головнокомандувачем, де він нібито закликав виходити на протести проти Зеленського. Але це був дуже низькоякісний дипфейк, який достатньо легко можна було розпізнати.

А Костянтин Корсун попереджає: враховуючи швидкий розвиток штучного інтелекту, варто чекати, що невдовзі відеопідробки стануть набагато якіснішими.

У Штатах безліч таких жартівливих відео про сенаторів і інших політиків, але ось так, щоб використовувати дипфейки у протиправних цілях, спрямованих на дискредитацію цілої країни (у цьому випадку саме про це йдеться, що ніби Україна причетна до цього теракту), — я думаю, що таких відео небагато.

Утім і з урахуванням швидкості розвитку таких технологій і особливо ШІ, який є дуже небезпечним інструментом у цьому сенсі, його дуже швидко навчать робити правдоподібні фейкові відео, я думаю, що відеодипфейків буде з’являтися все більше.

Тож поки штучний інтелект іще навчається робити якісні відеопідробки, у нас є трохи часу, щоб засвоїти правила інфогігієни й виробити звичку критично ставитися до будь-якого контенту, поширеного в Інтернеті, а особливо в соцмережах, які, за оцінкою фахівців, є одним із головних просторів сьогоднішніх маніпуляцій масовою свідомістю.

З аудіоверсією розмови запрошуємо ознайомитися у доданому файлі.

Сніжана Чернюк