Українська Служба

Ми схильні переоцінювати штучний інтелект. Загроза криється не там, де здається на перший погляд

31.12.2025 22:30
Цей рік доволі гучно зробився довкола питання ШІ. Якщо попереднього року ми лише приглядалися до інструментів, а інструменти «прислухалися» до нас, то цей рік показав, що генерація за допомогою ШІ — це справа реальна й ефективна. У той час, коли довкола питання ШІ, як і довкола кожної нової технології, розгортаються дискусії етичного, естетичного й правового змісту, цю, як і кожну іншу технологію, беруть на озброєння наші вороги — а саме російські спецслужби чи дочірні структури, які не гребують використанням ШІ для поширення й генерування дезінформації
Аудіо
  • Ми схильні переоцінювати штучний інтелект. Загроза криється не там, де здається на перший погляд
    .    ,
Ми схильні переоцінювати штучний інтелект. Загроза криється не там, де здається на перший поглядMyroslav Trofymuk / AI

Сьогодні поговоримо про те, які типи контенту виходять з-під клавіш російських фейкоробів, де справді криється небезпека з боку ШІ — спойлер: не в генерованому матеріалі — та як зрештою вберегтися від дії такого забрудненого контенту. Ще один спойлер — за допомогою старого доброго критичного мислення й беземоційного фактчекінгу.

Говоримо сьогодні з кандидаткою соціологічних наук, керівницею досліджень дезінформації в «OpenMinds», експерткою з аналізу цифрових даних Юлією Дукач.

Як ми знаємо, генерувати можна текст, зображення й відео. Останнім часом і соціальні мережі, і медіа, і блогери активно рухаються саме в цьому напрямку. Зрештою, навіть «Polskie Radio dla Ukrainy» активно переміщується в «YouTube». Якщо до цього додати психологічні фактори, стає зрозуміло, що саме відеоконтент є найбільш «зараженим» фейковими наративами.

«Ну, вже насправді сьогодні часто не видно, що відео згенеровано. Тобто ми вже в тому моменті, коли відео стають набагато якісніші, на жаль. Ті кейси, які найбільше запам’яталися, — це ті, де доволі пізно виявили, що там був присутній елемент дипфейку чи штучного інтелекту.

Один із таких прикладів — це відео про Воху. Це нібито людина з синдромом Дауна, якого мобілізували Збройні сили України. Хоча насправді йшлося про дипфейк — про маску, яку наклали на актора».

Що важливо розуміти, коли ми говоримо про так званий ШІ: хоч ми й схильні називати його інтелектом, правильніше називати його алгоритмом. ШІ не придумує нічого сам, а реінтерпретує те, що в нього заклали люди, і працює з текстовими вказівками від тих же людей. Тож перше, що варто усвідомити: ШІ не є автономною живою істотою, яка може щось більше, ніж може сама людина. Він може лише пришвидшити деякі трудомісткі процеси.

«Для мене це був якраз приклад того, що, по-перше, штучний інтелект сам по собі — це лише інструмент, і його за правильного розрахунку можна поєднувати з акторською грою або з більш чіткими промптами. Або зараз, наприклад, стає дедалі популярнішим формат, коли нібито ведучий з мікрофоном запитує людей на вулиці про щось.

Наприклад, про мобілізацію в Україні. І ось це відео, де ведучий з мікрофоном щось запитує, — там уже дуже мало атрибутів, типових для штучного інтелекту, на кшталт розмитих літер чи дивних рухів. Такі відео вже на перший погляд можуть не зчитуватися людьми як згенеровані.

Або інше дослідження текстів показало використання і Росією, і шахраями дипфейків з українськими журналістками. І Емма Антонюк, і Наталія Мосійчук — їхні образи, тіла, голоси, пози використовувалися або для поширення російської дезінформації, або для шахрайських схем про виплати чи нібито «чарівні ліки».

Тобто фактично станом на зараз це продемонструвало, що будь-яка публічна особа, у якої є достатньо фото й відео в інтернеті, може ставати об’єктом, який використовують для генерації відео з метою імітації — журналістів, політиків або навіть наших друзів і знайомих — щоб у такий спосіб впливати на нас».

Мобілізація — одна з ключових тем, яка дає плідний ґрунт для проростання фейків, тому що містить у собі сильну емоційну складову. Теми, які викликають сильну емоцію, найчастіше мають працювати для нас як «червоні маячки» — сигнал перевіряти матеріал детальніше. Найголовніше — не піддаватися емоціям і тренувати відсторонений погляд на речі.

«Насправді головне — навіть не суперреалістичність, а те, чи потрапили автори цього відео зі своїм меседжем у яблучко.

Ми дуже рідко свідомо поширюємо певний контент, але в силу когнітивних викривлень, чим частіше ми просто стикаємося з певним наративом, тим більше переконуємося, що, наприклад, мобілізація є несправедливою або що російськомовні діти зазнають булінгу в школах. Тобто починаємо переконуватися в межах власної бульбашки, у власній інформаційній проєкції.

І саме тому фейки про мобілізацію в Україні є найбільш гучними, кричущими й відомими — тому що цей меседж добре лягає на аудиторію. Водночас у 2022–2023 роках Росія запускала багато фейків про «братні народи» й про людей, які нібито чекали на російську армію. Але ці фейки не приживалися і були малоефективними саме через свій меседж, а не через форму подачі.

«Насправді спрацьовує лише те, що має реальний бекграунд. Ми знаємо багато реальних кейсів проблем під час мобілізації. Саме тому ці наративи справляють на нас враження й працюють».

Теми, які діють на українську й іноземну аудиторію, очікувано відрізняються. Ми були свідками того, як Росія намагалася впливати на вибори в Польщі, Румунії, Молдові, Угорщині й зрештою у США.

«Коли “DPR Lab” разом із “BBC Verify” виявили 12 800 TikTok-акаунтів, які вісьмома європейськими мовами поширювали контент у європейських країнах про корупцію в Міністерстві оборони України. Йшлося про “вілли Резнікова”, нібито його сім’ю, яка скуповує нерухомість. Цей контент поширювали в Італії, Іспанії, Франції та інших країнах через анонімні новостворені акаунти.

Вони збирали мільйони переглядів серед європейської аудиторії. Важко сказати, наскільки це було ефективно, але вони точно потрапили в бульбашку тем корупції, скептицизму щодо підтримки України та втоми від війни.

Тут уже важко сказати, чи це справді було ефективно, але вони точно зайшли в певну тематичну бульбашку — корупції, непідтримки України та більш скептичного ставлення до України загалом. Ми знаємо, що такі бульбашки існують у різних країнах, і саме тому вони, власне, активно це використовували».

ЩО ПРАЦЮЄ НА ІНОЗЕМНУ АУДИТОРІЮ?

«Найгучніші кейси завжди зосереджуються навколо виборів. Це той момент, коли “вкладаються” вибори й залучається найбільша кількість ресурсів.

Якщо ж говорити про те, що стосується України, то це, я би сказала, безперервний потік меседжів про корупцію в Україні — що допомагати не потрібно, що все розкрадається або йде на чорний ринок зброї. І друга частина — це меседжі про агресію та радикалізацію місцевого населення проти українських біженців.

Тут уже для різних країн можуть спрацьовувати різні меседжі — починаючи від історій про “українок, через яких розпадаються сім’ї”, і закінчуючи наративами про українців як “нацистів” або навіть як «терористів». Навіть якщо йдеться про реальні інциденти, вони подаються так, ніби ці дії координуються або фінансуються Україною, хоча насправді за цим стоїть Росія.

Тобто починають підбирати теми, адаптовані до місцевого контексту. Але я би сказала, що є три основні групи, які стабільно працюють: це вибори, це демонізація українців — у тому числі біженців — і це фейки про корупцію. Вони настільки усталені, що вже є впізнаваними, і саме тому в них найпростіше «вбудовуватися», бо в багатьох людей, на жаль, уже є певне тло для сприйняття таких меседжів».

Отже, кампанії впливу можуть мати ефект лише там, де є достатня кількість людей, яким ця ідея суголосна, які емоційно реагують на тему й не аналізують її. У цьому сенсі ми можемо назвати ШІ певним ампліфікатором — підсилювачем, мегафоном, який посилює вже наявні проблеми, гіперболізує їх і дозволяє дуже швидко реагувати.

Водночас ШІ не здатен «залізти в голови» людям і витягнути звідти нові інсайти. Тут усе ще потрібен так званий оператор — людина, яка знає, що саме потрібно попросити ШІ згенерувати.

Тому ми знаємо обличчя нашого ворога й знаємо, що не всі інформаційні операції були вдалими. Не варто втрачати пильності, але й не варто демонізувати ШІ як інструмент. Хоч небезпека й існує — і про це далі.

«Поки ми досліджуємо дезінформацію, ми дійсно схильні переоцінювати можливості тих, хто цю дезінформацію запускає.

Я би сказала, що штучний інтелект наразі просто робить дешевшим створення контенту для впливу. Відповідно, він робить цей контент масовішим і швидше генерованим. Адже створення постановочних відео чи складного монтажу вимагає значно більше часу й ресурсів.

Тож якщо є мета вплинути на певну аудиторію в конкретному контексті, і якщо цей контекст добре відомий, то можна дуже швидко реагувати на події й робити оперативні, точкові вкиди, які здатні щось змінювати.

Тут ключове питання — як підібрати меседж, який справді спрацює на аудиторію. І, власне, це є найскладнішим завданням. Штучний інтелект спростив створення контенту, зробив його дешевшим, швидшим і більш таргетованим, але основна робота все одно залишається за людиною — визначити, які саме повідомлення будуть ефективними для конкретної аудиторії».

НЕБЕЗПЕЧНА ЗОНА!

«Натомість я би виокремила дві сфери, у яких справді можуть відбутися радикальні зміни — і не в дуже позитивному напрямку.

Перша — це те, що ми називаємо LLM-грумінгом і отруєнням мовних моделей. Саме це Росія робить дуже активно, запускаючи так звані «правда-нетворки» — величезну кількість сайтів, які імітують журналістику, але насправді є “кормовою базою” для ботів, що збирають інформацію з усього інтернету для тренування мовних моделей.

Вже зараз існує багато досліджень — зокрема від “NewsGuard” — які показують, що якщо поставити мовній моделі запитання, пов’язані з російськими наративами, то ймовірність отримати проросійську відповідь є дуже високою. Це прямий наслідок впливу на мовні моделі через масове наповнення інформаційного простору відповідним контентом.

Крім того, не так давно “Alan Turing Institute” спільно з “Anthropic” опублікували експериментальне дослідження, яке показало, що для впливу на велику мовну модель достатньо лише 250 одиниць тексту. Тобто їм не потрібні десятки тисяч матеріалів з певним наративом. У так званих “інформаційних пустках” — темах, про які майже ніхто не пише — достатньо буквально кількох сотень текстів, аби мовна модель почала відтворювати ці наративи у відповідях користувачам.

Отже, ефективність впливу на великі мовні моделі насправді дуже висока саме в темах з малою кількістю альтернативних матеріалів. І це може бути серйозною проблемою, адже з часом дедалі більше людей користуватимуться різними мовними моделями, які вже сьогодні можуть бути інфіковані російськими наративами.

Друга сфера — це те, що ближче до моєї роботи в “OpenMinds”, — імітація людей та так званий агентний штучний інтелект, який використовується для симуляції людської активності в інтернеті.

Станом на зараз ми вже бачимо величезні ботоферми в коментарях на різних соціальних платформах. Можна сказати, що ми наближаємося до моменту, коли класичні соціальні платформи поступово втрачають реальних людей і наповнюються ботами. Відповідно, наша типова онлайн-дискусія в середовищах без автентифікації перетворюється на читання коментарів і дописів ботів.

І вже зараз штучний інтелект може робити це дуже схоже на людську поведінку. Існують дослідження того ж «Anthropic», які показують, що агентний ШІ може повністю керувати онлайн-персоною: репостити, коментувати, створювати власні дописи, генерувати зображення, підписуватися на інших користувачів — усе відповідно до заданого промпту.

Це вже не класичні ботоферми, які просто залишають однотипні коментарі під різними дописами. Це значно складніша агентна активність, яку дуже важко виявляти — і дослідникам, і самим платформам. Їхня поведінка стає надто схожою на людську.

І мені здається, що буквально за кілька років перед нами постануть нові пропозиції — нові платформи, які будуть персоналізованими й вимагатимуть автентифікації, тому що людям потрібні люди. Чим далі, тим більше ми втрачатимемо реальних людей в онлайні. Але ті користувачі, які не будуть обізнані з цією технологією впливу, дуже легко можуть сприймати коментарі як зріз громадської думки з певного питання.

І саме там уже з’являються боти. Ми вже бачили такі приклади, зокрема в Молдові: це акаунти, повністю згенеровані штучним інтелектом, які дуже схожі на реальних людей. Єдине, на чому вони «паляться», — це на відверто російських наративах.

Ці боти, які працюють російською мовою на українську аудиторію, можуть навіть критикувати Росію, використовуючи слово “Росія” в негативному контексті, а вже потім починати демонізувати українську владу, мобілізацію, розповідати: “Боже, який жах, у нас немає електрики”, або “ми знову кудись ударили, і тепер вони будуть мститися”.

Далі вони починають просувати думку, що не можна бити по нафтопереробній промисловості в Росії, бо “вони будуть мститися”, починають нагнітати страхи — наприклад, про удари по Запорізькій атомній електростанції, лякають катастрофами. Тобто ці наративи можуть бути дуже реалістичними і вже майже не відрізнятися від людських.

І якщо такі акаунти не є відверто проросійськими, то за одним лише текстом їх, на жаль, практично неможливо відрізнити від живої людини».

ЯКІ КАНАЛИ ПРАЦЮЮТЬ?

Найлегший канал поширення — це “Telegram”. Він не є алгоритмічною платформою, і контент там поширюється переважно серед тієї аудиторії, яка вже підписалася на канали певного типу. Наприклад, я бачила ці відео, бо стежу за бульбашкою російської пропаганди. Через різні воєнкорські канали ці відео проходили, окремі з них навіть “залітали”.

Наскільки я пам’ятаю, саме ці відео дуже добре зайшли в англомовному “Twitter” — а це вже алгоритмічна платформа, де водночас слабше або гірше працює модерація. І тут питання полягає в тому, чи зможуть ці матеріали запустити в якомога більшу кількість інформаційних бульбашок.

Тому що, насправді, завірусити певний тип контенту не так просто. Так, це правда.

“TikTok” — це платформа, яка є найбільш демократичною з точки зору алгоритмів. Там не потрібно мати багато підписників, щоб запустити відео, яке збере десятки тисяч переглядів. Навіть перше відео на новоствореному акаунті може стати вірусним.

Саме тому “TikTok” дуже активно використовують для поширення і штучно згенерованого контенту, і просто відвертих фейків».

ЯК ПРОТИДІЯТИ ФЕЙКАМ?

Найперша рекомендація — ставити собі запитання: «А чи справді ця людина могла б таке написати або сказати? І з якою метою?». Не споживати контент емоційно.

Натомість рекомендація для тих, хто створює або поширює контент, — це фільтрація коментарів і непіддатливість на спокусу втягуватися в суперечки в інтернеті. Не варто провокувати аудиторію до активного коментування тем, які грають на руку Росії. На жаль, ми часто бачимо таку поведінку навіть у досить великих групах, особливо в «Telegram»-каналах.

«Найпростіший спосіб протидії маніпуляціям — відстежувати, що саме викликає у вас емоцію, і бути значно прискіпливішими до такого контенту.

Але, на жаль, це працює лише за умов повільнішого споживання інформації. Це не працює так добре, коли ми просто скролимо стрічку в “TikTok”: не зачепило — пішли далі, зачепило — подивилися до кінця і все одно пішли далі.

На прикладі виборів у Молдові я бачила дуже показову ситуацію. Ми аналізували коментарі в “Telegram” і відстежували російських ботів. Одне незалежне молдовське медіа дуже довго чистило коментарі, а під кожним дописом залишало власний коментар із попередженням: “Будьте уважні, тут працюють російські боти, не довіряйте всьому, що пишуть у коментарях”.

Але в якийсь момент — коли наближалася дата виборів — вони просто закрили всі коментарі. Тому що не хотіли надавати майданчик для ботів у критичний момент.

Тому, можливо, навіть якщо не закривати коментарі перманентно, має сенс робити це перед важливими подіями або в “гарячі” періоди, коли ви розумієте, що потенційна шкода від маніпуляцій буде більшою, ніж користь від взаємодії з аудиторією».

Це були рекомендації від Юлії Дукач — кандидатки соціологічних наук, керівниці досліджень дезінформації в «OpenMinds», експертки з аналізу цифрових даних — щодо протидії фейкам як для звичайних громадян, так і для великих медіа.

Будьмо пильними, будьмо селективними, дбаймо про гігієну свого медійного середовища, вмикаймо холодний розум — і старання російських пропагандистів будуть марними. Російська дезінформація не буде для нас страшною.

З вами був Мирослав Трофимук. Почуємося.