Українська Служба

«ЧИ/Я ІНФОРМАЦІЯ»: Для захисту від «ловців на онуків» вигадаймо пароль, який знатиме лише близька родина

30.08.2024 12:00
У щотижневій рубриці «Чи/я інформація» — розмова з експерткою Центру досліджень і розвитку у групі аналізу deepfake Науково-дослідного інституту NASK Йоанною Ґаєвською про те, що шахраї можуть підробити голос і зображення будь-якої людини й використовувати такі дипфейки в різних видах злочинів, а також про те, як не потрапити на гачок шахраїв, які використовують фальшиві повідомлення з голосом чи зображенням наших близьких людей 
Аудіо
  • Йоанна Ґаєвська (NASK) про захист від дипфейків голосів і зображень близьких людей
Ілюстраційне фотоhttps://pxhere.com/CC0 Domena publiczna

Уже відомо багато підробних відео з політиками й відомими людьми, а чи траплялися вам на практиці дипфейки із зображенням або голосом чи викраденою особистістю звичайних осіб, не знаменитостей чи політиків

Так, звісно. Це дещо інший тип дипфейків. Наприклад, коли шахраї здійснюють певний тип фішинґу, тобто намагаються виманити у нас гроші або дані. Є такий старий метод ловити «на онуків», коли шахраї дзвонили старшим людям під виглядом онуків і намагалися виманити гроші. Тепер у нього є нова версія, де шахраї використовують аудіодипфейк, фактично розмовляючи голосом цього онука, а не просто своїм.

Є також різні типи шахрайства, які здійснюються, наприклад, у месенджерах, коли шахраї, скажімо, зламують наш обліковий запис на фейсбуку й пишуть нашим друзям у месенджер та хоч би з проханням «бліка», тому що — ну, я не знаю, — нас обікрали, або картку заблокували і ми не можемо оплатити покупки. А потім ще й надсилають аудіоповідомлення, де наш голос просто підроблено.

Але звідки вони взяли цей наш голос?

Наприклад, у наших соціальних мережах, коли ми публікуємо різні види відео з відпустки, коли коментуємо певні події в соціальних мережах, або якщо ми використовуємо голос у повсякденному житті для спілкування з нашими друзями, — тоді шахраї використовують аудіоповідомлення з наших месенджерів, оскільки для створення аудіодипфейку потрібно менше хвилини зразка голосу людини.

Зрозуміло, що звук теж можна взяти з відео, але чи можна підробити зображення звичайної людини так само легко?

Якщо ми говоримо про зображення, то щоб зробити такий дуже якісний дипфейк обличчя якоїсь людини, у вас уже повинні бути десятки тисяч фотографій або відео цієї людини. І тут, звичайно, найбільше ризикують журналісти, знаменитості, інфлюенсери, ютубери та політики.

Але якщо ми просто хочемо зманіпулювати якесь відео та синхронізувати рух губів, то буде достатньо будь-якого відео з певною особою, і проблем із цим не буде. Крім того, ми фактично можемо зробити дипфейк обличчя людини за допомогою лише однієї хорошої фотографії. А якщо трохи пощастить, є ймовірність, що виглядатиме цілком добре.

Зараз я думаю, що, можливо, у такій групі ризику є родичі українських військових, які зараз у полоні чи загинули, чи пропали безвісти. І якщо якийсь злочинець знає про це, та ті ж росіяни, то може так маніпулювати. Поза тим, це дуже чутлива тема, бо ж кожен хоче вірити, що її чи його рідна людина жива.

Чи ви коли-небудь мали справу в роботі з такими ситуаціями?

Я ніколи не чула про такі ситуації, але ми працюємо не в Україні, в основному орієнтуємося на польський інтернетпростір. Але я можу уявити, що є полонений солдат, у нього беруть зразок голосу, а потім на основі цього зразка голосу генерують дипфейк і ворожі солдати зв’язуються з його родиною, щоб отримати якусь інформацію чи навіть гроші.

Від чого залежить наша податливість на ці дипфейки? Вік, освіта, досвід, від чого це залежить?

Звісно, ​​найбільш вразливою соціальною групою є люди, які жодним чином не знайомі з технологіями і, наприклад, не знають, що існує таке поняття, як deepfake, і що його дуже легко згенерувати, що це дуже легко маніпулювати аудіовізуальним вмістом. Отже, ця соціальна група, безумовно, досить вразлива, і це найчастіше люди похилого віку або діти.

Тож щодо дипфейків ці дві соціальні групи найбільш уразливі, але насправді дипфейки впливають на кожного з нас, і ми маємо багато повідомлень про те, що навіть люди, які добре почуваються з технологіями, були обдурені, оскільки шахраї часто додають ціле соціологічне оточення до своєї брехні, яке впливає на нас, тобто викликає емоції.

Коли ми емоційні, ми перестаємо мислити раціонально, нас просто захоплюють нерви і ми виконуємо, що нам кажуть: робимо перекази або надаємо інформацію, яку зазвичай не надали би. Тому тут надзвичайно важлива освіта і привернення уваги людей до того, що такий напад можливий, що в певних ситуаціях має засвітитися сигнальна лампочка і ми повинні припинити те, що ми робимо, зупинитися на мить і подумати.

Потрібна освіта, законодавчі норми, тому що зараз шахраї можуть використовувати цю технологію досить безкарно. Творці також можуть безкарно робити її доступною для широкого використання. Тож будь-хто може легко створити дипфейк.

Тож тут наступне питання — правові норми. Ну й самі інструменти перевірки, правда? Щоби ми могли в режимі реального часу, наприклад, під час розмови, вирішити, що я хочу перевірити голос, який зі мною розмовляє, чи справді це моя дочка. Або переглядаючи соціальні мережі, щоб ми могли клацнути зображення в реальному часі за допомогою браузера та вислати запит на верифікацію такого матеріалу.

Освіта, законодавчі норми й інструменти. Освіта — це частково те, чим ми зараз і займаємося. Щодо правових норм, то якраз минулого разу в рубриці була розмова про спробу європейського врегулювання у цій галузі AI act тобто Закон про штучний інтелект, ухвалений цьогоріч у березні Європейським парламентом. Ваша діяльність безпосередньо пов’язана з інструментами для боротьби з шахрайством і фейками. Тож чи маємо ми такі інструменти?

Інструменти для перевірки таких матеріалів уже деякий час розробляються. На жаль, методи генерації дипфейків трохи перехитрили нас, і нам все ще потрібно вдосконалити наші інструменти перевірки.

Результативність вимагає покращення, тож є над чим працювати, але, на щастя, усе більше фірм чи навіть установ, чи навіть можновладців усвідомлюють, що це дуже важливо в наш час.

Що ж, шахрайств зараз дуже багато, але ми не можемо припинити користуватися Інтернетом чи соцмережами. Тож як не піддатися шахраям? Так, знаємо, що коли хтось тисне на наші емоції, то треба відступити й подумати, що відбувається, особливо коли нас спонукають до якихось термінових дій. А які ще можуть бути тут поради?

Існує багато шахрайства та різного роду маніпуляцій із використанням дипфейків. Тож тут важко дати якусь одну пораду, яка допоможе розпізнати такий матеріал. Що ж, хай просто запалюється сигнальна лампочка щоразу, коли у нас якийсь матеріал викликає емоції, переконує десь зареєструватися, надіслати гроші чи надати якусь інформацію. Це повинно підштовхнути нас до роздумів.

Додатково звернімо увагу, чи немає проблем із звуковою доріжкою, чи голос не занадто роботизований, чи немає граматичних помилок. Якщо це телефонний дзвінок, наприклад, від нашої коханої людини, — давайте домовимося про пароль або питання, на яке не знає ніхто, крім цієї людини, або просто дуже невелика група людей знає відповідь на це питання. Це буде такий метод перевірки.

У контексті верифікації дипфейків, розміщених в Інтернеті з метою дезінформації, або в контексті різних видів шахрайства, то якщо у нас є відео, то звертаймо увагу на розмиті губи, різні типи помилок, помилки генерації, різні типи розмивання тла й подібні речі.

Крім того, якщо повідомлення містить конспірологічний або дуже шоковий фрагмент, який ми не очікуємо почути, давайте також перевіримо це. Звичайно, найкращий спосіб перевірити такі матеріали — це просто надіслати, наприклад, посилання зі змістом, який нас турбує, або навіть SMS, яке ми отримуємо, на перевірку. Тут я говорю більше про фішинг, ніж про deepfake. Ви можете надіслати це на сайт incident.cert.pl. Там експерти швидко це перевірять і дадуть нам відповідь, чи заслуговує на довіру матеріал, чи це, найімовірніше, маніпуляція.

Нещодавно я побачила в LinkedIn, як відомий польський бізнесмен і філантроп Рафал Бжоска обурювався, що у фейсбуку розміщували матеріали, що він нібито убив свою дружину чи то дуже побив — це була брехня, звісно. Він поскаржився адміністрації і Фейсбуку, і Мети, але на той час, коли я читала допис, ніхто з Мети чи Фейсбуку з ним не сконтактувався, а матеріали навіть не видалили з мережі. Рафал Бжоска сказав, що буде позиватися в суді проти Фейсбуку і Мети. Аплодую такому рішенню, але, скажіть, будь ласка, а які зазвичай дипфейки вам трапляються, які найпоширеніші?

Наразі найпоширенішими дипфейками, принаймні в польському інтернет-просторі є дипфейки, пов’язані з різними видами фінансових шахрайств. Наприклад прем’єр-міністри, різні політики, знаменитості, як Левандовський, скажімо ось нещодавно, заохочують нас робити якісь великі інвестиції. Ось нещодавно йшлося про Baltic Pipe, Enea, Tauron, Orlen, трапляється PGE або навіть Quantum AI, створений Ілоном Маском. Тож так, цей вид шахрайства лідирує.

Крім того, останнім часом ми часто стикаємося з дипфейками, де знаменитості або відомі люди намагаються продати нам ліки або рекламують ліки, які дивовижним чином можуть вилікувати нас від різних хвороб. Це суперечить сучасним медичним знанням, суперечить тому, що говорять нам лікарі, але цей тип шахрайства останнім часом дуже поширений.

Крім того, шахраї спрямовують дипфейки на молоду соціальну групу, тобто людей, які тільки вступають у доросле життя.

Вони часто використовують образи ютуберів і відомих впливових людей, яких дивиться молодь, наприклад, для реклами явно підробленого додатка для телефону, який імітує казино чи такий тип гри, де дуже легко заробити гроші. Тут лише трохи менше грошей заробляється, тому що ці інвестиції, про які я згадала, — величезна машина для заробітку мільйонів, а тут трохи менше.


Звукову версію розмови запрошую послухати в доданому файлі

Сніжана Чернюк