Українська Служба

ЧИ/Я ІНФОРМАЦІЯ. Ці добрі й злі дипфейки...

18.11.2025 17:00
Про злі та добрі дипфейки, а також про те, як їх розрізнити розповідає Аліція Мартінек з Центру вивчення безпеки штучного інтелекту NASK у передачі Сніжани Чернюк «Чи/я інформація».
Аудіо
  • Про злі та добрі дипфейки, а також про те, як їх розрізнити розповідає Аліція Мартінек з Центру вивчення безпеки штучного інтелекту NASK у передачі Сніжани Чернюк "Чи/я інформація".
   perplexity
Файл згенеровано ШІ perplexityperplexity

У 2023 році житомирський письменник Мартин Якуб створив за допомогою штучного інтелекту  фото 15 діячів «Червоного Ренесансу». Виставка цих портретів, яка відкрилась у Житомирському обласному літературному музеї, мала назву «Живі "розстріляні”». Проєкт викликав ажіотаж у соцмережах. Критичніше налаштовані літературознавці й історики дорікали, що ці фото не схожі реальні чи не відповідають історичним реаліям. Однак інші міста теж запрошували до себе виставку автора проєкту, письменника Мартина Якуба (сьогодні ще й військового). І так чи не так, але приголомшливий успіх проєкту однозначно сприяв популяризації української літератури, особливо серед молоді.  

Однак ми знаємо, як дипфейки можуть використовуватися з абсолютно шкідливою метою. Коли о 4-й ранку дзвонить телефон мами, син якої на фронті, і схвильований голос сина каже, що він у полоні й треба заплатити такі-то гроші, щоби його викупити... Мама тремтячими руками передасть усі гроші світу... І ми теж свої віддамо, щоби допомогти.  Коли наші рідні лишилися на окупованих територіях і мовчать, а потім дзвонять і... додумайте самі.

Гаразд, Ви  польська мама чи португальський тато, Ваша країна не у війні. О 4 ранку дзвонить Ваша дитина й плаче в трубку, що її збила машина й терміново треба доїхати до клініки, а на телефоні немає грошей, мамо, допоможи... Чи дзвонить батько, і йому терміново на ліки не вистачає....

Тож одразу на початку розмови про дипфейки — порада, яку почула від експертів іще три роки тому й не втомлююся повторювати. Кожна українська сім’я, але не лише українська, як легко переконатися, повинна мати свій сімейний пароль. Не той, що 25 цифр, літер і знаків, а такий, як ім’я бабусиної улюбленої кішечки, яку ви любите всією сім’єю, а тому не забудете це ім’я, навіть коли Вас поранено чи спросоння. Тоді у відповідь на плач дитини просимо заспокоїтися, так, як це  уміє лише наша лагідна бабуся і її кішечка, пам’ятаєш, сину, як її звуть. І маємо почути це котяче ім’я у відповідь....

Ви вже здогадалися, що сьогодні в передачі йтиметься про дипфейки  за дослівним визначенням  «глибокі фейки». Неправдиві відео, аудіо або й друкована інформація, створена за допомогою ШІ так, що її майже або й зовсім неможливо відрізнити від справжньої.

«Можемо розділити дипфейки за темами, які безпосередньо спрямовані до цільових груп. Найлегше розрізнити дипфейки, які стосуються інвестицій і швидкого збагачення, і такі матеріали орієнтовані на середню вікову групу.

Наші наймолодші жертви, діти та підлітки, є мішенню для матеріалів з вигаданими додатками. Це казино чи ігри, що пропонують швидкий прибуток. А найвіддаленіша вікова група жертв також має свої власні дипфейки, які стосуються медичних тем, терапії, продовження життя, зниження артеріального тиску та контролю рівня холестерину, усіх цих магічних лікувань, яких не існує», — каже Аліція Мартінек із Центру вивчення безпеки штучного інтелекту NASK.

Інколи дипфейки неможливо відрізнити від справжніх матеріалів, але часто все ж можна «вирахувати» за помилками:

«Говорячи про помилки, що трапляються в таких матеріалах, ми можемо фактично розділити їх на три групи: візуальні помилки, звукові помилки та мовні помилки. Очевидно, що не всі вони наявні одночасно, оскільки іноді ми маємо дипфейки, які існують лише у формі звукових записів.

Але в їхньому найповнішому вигляді, коли у нас також є відео, нам потрібно зосередитися найбільше на рухах губ, оскільки вони можуть не повністю відповідати тому, що ми чуємо, оскільки алгоритми працюють таким чином, що просто намагаються пристосувати цей рух, і це не завжди виходить.

Крім того, алгоритми також працюють, застосовуючи штучну маску, яку накладають на обличчя людини, по суті копіюючи обличчя в інше зображення. Тож можна спробувати шукати такі краї цієї маски просто на межах обличчя.

Крім того, трохи старіші алгоритми можуть генерувати помилки у тлі, на задньому плані такої особи, або такі особи можуть мати неприродні частини тіла, скажімо, такі як деформовані вуха або шість пальців».

Які ще помилки бувають у дипфейках, на які теми відповідно до віку та в яких соцмережах — запрошую послухати в доданому звуковому файлі або в подкастах.

Сніжана Чернюк

Побач більше на цю тему: Чи/я інформація дипфейк deepfake