7 грудня у Берліні відбулася конференція Truth to Justice. Конференція, яка була присвячена дезінформації і російським впливам у Європі, але не тільки в Європі, бо, наприклад, Південна Корея чи Центральна Африка також були широко представлені там.
Наталія Романишин, NLP-експертка із texty.org,ua і вона представила на цій конференції свою доповідь на тему ролі алгоритмів соціальних медіа у психологічних операціях, а також гібридних війнах.
Наталія Романишин, маючи досвід у вивченні пропаганди і дезінформації, використовує такі методи як тематичне моделювання, розпізнавання іменованих об'єктів, аби перетворювати складні текстові дані в ідеї, покращуючи ясність і підзвітність у журналістиці.
Власне, про роль алгоритмів соціальних медіа у спецопераціях, психологічних спецопераціях та гібридних війнах, зокрема у Польщі, ми поговорили після її доповіді.
Забігаючи наперед, скажу, що зійшлися ми наприкінці на тому, що сучасні методи протидії російській дезінформації, на жаль, дуже відстають, бо росія дуже швидко і дуже вміло вчиться і вигадує новіші і складніші алгоритми, які завжди, на жаль, наразі біжать попереду способам їхньої протидії.
«Так, ми в текстах робили дослідження про рекомендації алгоритмів Ютубу в Україні та Польщі. Тобто, це були дорослі учасники з України і Польщі, які погодились взяти участь в опитуванні і зафіксувати за допомогою спеціально створеного додатку, що вони дивляться і що їм пропонує алгоритм. Що ми побачили з дослідження в Польщі? В тому, що в більшості Польща є більш захищена від російської пропаганди просто через те, що, по-перше, поляки не дивляться багато новин в Ютубі, по-друге, вони рідко дивляться російськомовний контент.
Тобто, це вже є якась перемога. Але все одно антиукраїнські наративи просочувались туди. Особливість в тому, що в той момент, коли ви переглядаєте якесь конкретне чи кілька схожих відео, Ютуб почне, по суті, створювати таку інформаційну воронку для вас.
В нас був такий один учасник, який, наприклад, дивився відео на каналі, де часто маніпулятивно висвітлюються теми зовнішньої політики і транслюються фейки, наприклад, про обговорення в Україні запроводження смертної кари для зрадників. І коли такий учасник переглядав відео, то платформа не соромилась йому підсувати схожого плану відео.
Також вражають насправді результати дослідження масштабів мови ненависті проти українців в польських соцмережах.
З того, що я пам'ятаю, було дослідження від інституту моніторингу медіа і асоціації «Демагог», які зафіксували майже 300 тисяч публікацій і коментарів, спрямованих проти українців і України в Польщі. Тобто йдеться про публікації в середньому 84 одиниці контенту на годину.
І хоча в цьому випадку досліджували Твіттер і Фейсбук, неважко собі уявити, як ці тези і контентмейкери мігрують у відеоформати Ютубу».
Ви говорите про мову, власне, російську мову цієї дезінформації в соцмережах, яку не розуміють багато хто з поляків і не дивляться через це, цього контенту. Але чи бачили ви, чи можете ви або ваша команда якось проаналізували, що в соцмережах польських в Ютубі зокрема польськомовний контент є, який може бути свідченням того, що він або сформульований на підставі дезінформації, або що можна говорити, що якимось чином він сформований, так, для польськомовного суспільства польською мовою, але там прослідковуються, власне, оці наративи, саме кремлівські, російські, дезінформація російська, але вже польською мовою?
«Так, були такі кейси, тобто тут знову ж таки згадаємо, хоча поляки в більшості не дивляться Ютуб для новин, але в Польщі доволі сильно розвинений Ютуб для блогерів, тобто це популярно дивитися різноманітних блогерів через Ютуб. Ну і тут варто розуміти, що блогинг істотно відрізняється від новин, там більше емоцій, менше фактів і завжди є можливість прикриватись аргументами, що це не особиста думка. З того, що ми знаходили, був, наприклад, такий блогер Войцех Цейровський, польський журналіст і сатирик, колись відомий як мандрівник, а сьогодні він використовує, по суті, це амплуа разом з веселою гавайською сорочкою для того, щоб гарантувати собі впізнаваність та успішно просувати свої відео на Ютуб-каналі. Більшість його відео, вони вже давно не про мандри і подорожі, а про НАТО і геополітику. Його висловлювання та цитати гарантували йому славу праворадикала та кілька згадок в «Коричневій книзі». Це такий проєкт Асоціації «Ніколи знову», в межах якого збирають всі свідчення расизму, ксенофобії, дискримінації в Польщі. І в своєму відео Цейровський міг виправдовувати рішення Путіна розпочинати війну, звинувачувати Польщу і країни Заходу у війні. Ще до початку вторгнення повномасштабного він також поширював тези, що мета Путіна – це Україна, а мета Байдена – це війна. В ефірі на радіо він також коментував інформацію про 100 тисяч українців у Варшаві, що якщо у Варшаві є хоча б один безробітний, це означає, що українців забагато. А деякі успішні цитати розліталися російськими медіами під заголовками «В Польщі визнали, що НАТО – фікція», або «У Польщі оцінили воєнний потенціал росії та України».
Тобто, в нас є такий блогер, і насправді Ютуб продовжує просувати його відео. На нашому дослідженні нашим учасникам Ютуб пропонував його 280 разів, і насправді класифікував його як новини і політика, блоги і навчання».
Власне, там немає мови ненависті, бо ж Ютуб банить за якісь певні речі, тобто не можна там мову ненависті говорити, навіть умовно слово «вибух» або якісь інші, щось пов'язане з насиллям. Отже, з того, що ви говорите, він це якось подає не з мовою ненависті, але дозволяє Ютуб просунути це відео, ці повідомлення, раз вони набувають такої популярності, і не блокуються. Чи досліджували ви, в якій формі це подається?
«Ще один приклад, це був такий ультранаціоналістичний канал «Національне медіа» польського націоналіста Роберта Банкевича. Вони теж дуже яскраво поширювали тези російської пропаганди, транслювали мову ворожнечі не тільки проти українців, а й проти євреїв.
Тобто там справді було дуже багато такого відбірного хейт-спічу, який Ютуб, скоріше всього, не встиг змодерувати і заблокувати. Загалом треба розуміти, що в принципі Ютуб в Польщі, зокрема в Євросоюзі, робить багато для того, щоб реагувати на скарги. Вони реагують на скарги від різних громадських організацій і ініціатив, які борються проти мови ненависті, закликів до насильства.
В них є Digital Service Act, але все ще тут така, знову ж таки, боротьба гра в котиків і мишок між алгоритмом модерації і алгоритмом просування. Виглядає так, що оцей контент, який потрібно заблокувати, просувається платформою швидше, ніж вони встигають його заблокувати, на жаль».
Блокує алгоритм, тобто програма Бот, чи блокують люди персонально, особисто? От появляється якесь відео чи якийсь допис, де відверто є або мова ненависті, або ми розуміємо, що це є пропаганда, чи це є дезінформація, чи це є просування таких наративів. Який наступний крок? Тобто той, хто відреагував, розуміє, що це таке, має критичне мислення, надсилає скаргу, але дуже часто буває, що «ми розглянули вашу скаргу, ми вважаємо, вона не порушує стандартів спільноти». І тут виникає питання, чи там сидять з того боку люди, які модерують, відповідні, кому є вказівка, такі речі не забирати, щоб воно там висіло, або це працює бот-алгоритм, який цього не розуміє, не бачить?
«Ну, насправді, щодо цього, там треба прочитати конкретну політику Ютубу, як вона працює, але загалом в соцмережі вони тут об'єднують дві сили, тобто на перший етап цієї верифікації йде, власне, алгоритм, який тригериться на мову ворожнеччі, ненависть, різноманітну обстентну лексику, тобто це щось, що допомагає на першому етапі відфільтрувати той контент, який потрібно змодерувати. І також, наскільки я знаю, є команди професійних модераторів всередині країни, які більше розуміють контекст і, відповідно, мову, які розглядають більше якісь складніші заявки і, відповідно, до цього опрацьовують їх і блокують. Але проблема в тому, що, насправді, в соцмережах стільки продукується цього контенту, що оці мануальні зусилля, доволі важко це все опрацьовувати, тому що це забирає багато роботи і багато часу.
І тому я вважаю, що треба більше і більше вдосконалювати автоматичне обрацювання тих скарг. Тим більше в нас вже є великі мовні моделі, які мають здатності краще розуміти нюанси. Але, все ж таки, їх треба вдосконалювати до навчання, щоб вони розуміли контексти кожної з країн.
Тобто це завжди об'єднані зусилля, алгоритми, і потім ще додатково людьми опрацьовується, модератором».
Тобто штучний інтелект зараз використовують для творення фейків і творення дезінформації, але і водночас можна з ними і боротися, я так розумію. Тобто це працює в два боки?
«Так, в нас тут така постійна боротьба. І загалом ми в організації стараємося стояти на цьому боці, що штучний інтелект допомагає нам у виявленні дезінформації, наративів, пропаганди і так далі. Ми самі використовуємо різні моделі і навіть тренуємо свої моделі для того, щоб це визначати.
Тому що не можна ніколи звинувачувати штучний інтелект в тому, що він щось зробив погано. Тому що це просто алгоритм, завжди є люди, тобто погані актори, які це роблять. І, на жаль, вони мають також доступ у цих всіх технологіях.
І зараз виглядає це така, як постійна гра в котики і мишки, знову ж таки, між тим, хто використовує його для того, щоб створювати дезу і поширювати, і тими, хто намагається з нею боротися. А сподіваюся, що ця позитивна сторона та світла сторона буде попереду технології».
А є якісь нові методи, нові наративи? Ми говоримо зараз про штучний інтелект, тобто це нові інструменти. А якщо говорити про нові підходи до дезінформації, що з'явилося свіжого буквально нещодавно, в межах якихось скількох років, місяців?
«З того, що ми слідкуємо, насправді ми в текстах довгий час досліджуємо конкретно російські наративи, тобто якраз використовуємо алгоритми для того, щоб вивчати, які теми піднімаються в російських медіа, і в державних, і всяких локальних, національних і так далі. Ми постійно досліджуємо ці наративи, але це типу стандартне щось. Коли щось відбувається, не знаю, важливе чи в Україні, на фронті, то вони намагаються про це не сильно писати і продовжувати наратив про те, що Україна фейл-стейт і програє війну, і що захід нам допомагає, що ми без заходу ніщо.
Тобто це в них така постійна тема в плані їхнього медіа. Щодо України, то вони все більше і більше використовують ці наші внутрішні проблеми і конфлікти, які виникають в українському суспільстві. От нещодавно ми якраз впровадили таке велике дослідження українських телеграм-каналів.
Ми досліджували 100 найпопулярніших телеграм-каналів в Україні, і серед цієї сотні було декілька десятків відверто проросійських каналів, типу «Резидента», «Картеля» і так далі. Тобто українці дуже люблять новинні агрегатори по типу «Трухи», читають державні канали «Зеленського» та так далі. Вони мають з того свою користь, так би мовити. Тобто, так, українці читають новинні агрегатори, державні канали, на жаль, проросійські і інколи якісні медіа.
Але якісні медіа — дуже рідко. Тобто, наприклад, зі ста тих найбільш популярних каналів тільки три були офіційні редакції. Тобто, канали-редакції, які мають якусь редакційну політику, ми знаємо, хто нею керує, хто там працює і так далі.
Решта — люди люблять анонімні телеграм-канали, інколи і проросійські. І що ми бачимо? Що в цих каналах якраз дуже великий відсоток маніпулятивної лексики. Як ми це досліджували, ми якраз тренували свою модель штучного інтелекту, яка з допомогою алгоритмів виявляла таку емоційно-маніпулятивну мову. Заклики до страху, ейфорії, узагальнення і так далі. І це нам дозволило проаналізувати великий масив текстів. І що ми побачили? Що оці проросійські телеграм-канали найбільше використовують оцих мовних маніпуляцій в своїх дописах.
Тобто, якщо звичайний канал в середньому маніпулює десь, ну, не звичайний канал, той самий агрегатор маніпулює там 50 на 50 в своїх дописах, то проросійські телеграм-канали вони маніпулюють там на рівні 80-90. І вони для оцих маніпуляцій якраз використовують тематику, яка найбільш важка зараз в середині України. Наприклад, коли прийняли новий закон про мобілізацію, чи коли в нас постійні відключення електроенергії.
Вони використовують цю тему для того, щоб звинуватити потім нашу владу, звинуватити, в принципі Захід чи сили оборони, використовують оцю свою техніку і таким чином проштовхують цей розкол в суспільстві, який вже не буде довіряти тим, кому можна довіряти, а буде, по суті, говорити, що нікому вірити не можна і вже не зможе читати адекватні медіа».
Ми розуміємо, що треба думати, бо ми чуємо про критичне мислення, перевіряти джерела, але тим не менш дезінформація працює успішно. Тобто, сприймання набагато серйозніші, набагато масштабніші, таке враження, що люди не мислять критично, не перевіряють, скільки би ти про це не говорив, можливо, це не працює? Може боротьба з дезінформацією якось іде не в той бік?
«Так, ну тут ви дуже все правильно говорите, тому що з того, що ми бачимо, люди не люблять, коли їм кажуть, що читати, що не читати, не люблять, коли їм дають якісь поради. Вони всі переважно впевнені, що вони медіаграмотні. От було теж таке дослідження, де показували, що українці думають, що вони резистентні до дезінформації, тобто вони вірять в свої сили.
Це з одного боку добре, але того, що ми бачимо на даних, то насправді так і не є. І цікаво, що люди думають, що саме вони резистентні, але от там інші люди ні. Ну, така, на жаль, проблема є. З того, що я бачу, то, ну, тут оці всі методи, оці всі тренінги з медіаграмотності, якісь інфокартки в соцмережах, вони виглядають так, що вже не працюють. Скільки не намагаєшся, щось воно не йде. Але з другого боку, вже, порівнюючи, наприклад, з 2014 роком, чи навіть з початком війни, якщо дивитись на якесь загальне населення, все-таки ми більш резистентні до російської дези. Тобто, раніше сама така яскрава російська дезінформація могла легко проникати в український простір. Зараз вони вже видумують якісь більш складні речі, коли апелюють нашими проблемами, і це обігрують. А такої прямої дези вже люди не сприймають. Тобто, це є якась перемога. Тут що робити? Ну, я адепт освіти.
Тобто, в нас зараз дуже великий насправді відсоток населення, які ще народилися в Радянському Союзі, і перепрограмувати їх набагато складніше. Треба працювати з молодим населенням, яке ходить в школу, ходить в університети і буде насправді працювати з цим далі. Тобто, тут більше вкладати свою освітню частину, але на тих людей, з якими легше, напевно, працювати».
Слухайте звукову версію у доданому файлі:
24:13 [i]MAG_NATALIA_ROMANYSZYN_UKR.mp3 Росія використовує алгоритми соціальних мереж для просування дезінформації. Розмова з Наталією Романишин, експерткою з НЛП
Матеріал підготував Володимир Гарматюк