Як повідомляє компанія в новому звіті, її розслідування виявило п'ять мереж користувачів: дві з росії, одну з Китаю та по одній з Ірану та Ізраїлі. Серед них було виявлено одну раніше невідому операцію під назвою «Bad Grammar» від OpenAI, яка використовувала ChataGPT для вдосконалення бота Telegram і створення коротких коментарів польською та англійською мовами.
Крім того, у рамках відомої раніше операції під назвою «Двійник», пов’язаної з російською розвідкою, росіяни використовували моделі штучного інтелекту для створення дописів французькою, німецькою, італійською та польською мовами, які публікувалися на порталі X (колишній Twitter) і мемі 9GAG, а також створення цілих статей, розміщених на веб-сайтах, що імітують реальні ЗМІ.
Подібним чином — для вдосконалення ботів і створення статей і коментарів — платформи OpenAI використовували групи з Китаю (давно відома операція «Спамуфляж»), Ірану та Ізраїлю.
«Вміст, опублікований у рамках цих різноманітних операцій, зосереджувався на широкому спектрі питань, включаючи вторгнення росії в Україну, конфлікт у Газі, вибори в Індії, політику в Європі та Сполучених Штатах, а також критику китайського уряду китайськими дисидентами та іноземними урядами», — написав автор звіту та керівник розвідувально-слідчої групи Бен Німмо.
Під час брифінгу для преси Німмо заявив, що хоча моделі штучного інтелекту полегшили та покращили роботу груп, що стоять за операціями впливу, жодна з них не охопила своїм вмістом більш широку аудиторію. Однак він попередив, що не варто сприймати ці спроби легковажно.
«Історія показує, що операції впливу, які роками не приносили результатів, можуть раптом досягти проривів, якщо на них ніхто не звертає уваги», — додав він.
У четвер, 30 травня, компанія оголосила, що видалила облікові записи, пов’язані з цими групами.
PAP/В.Г.