Дезинформационные кампании стали неотъемлемой частью глобального информационного пространства. Именно с дезинформации и информационной борьбы началась российская агрессия в Украине. Об этом говорится в отчете Fog Of Falsehood, составленный спецслужбами Финляндии, в котором исследуется эффективность российской пропаганды. Кремль, конечно же, совершенствует методы для ведения информационной войны.
О том, как в дезинформационной кампании используется искусственный интеллект, Ирина Кудрявцева поговорила с экспертом в области кибер-безопасности Адамом Олеховским, офицером в отставке. Я попрошу начать с какого-то конкретного примера, какую работу – какое задание может выполнять искусственный интеллект – как орудие в информационной войне.
Вы наверняка встречались с понятием «бот», то есть интернет-робот или виртуальный робот. Это программа, которая умеет сильно навредить. Боты могут, например, создавать профили в социальных сетях, рассылать спам, могут на основе больших языковых моделей создавать простые тексты – нужно только задать шаблон текста, потому что, если бы искусственный интеллект сам создавал фразу или текст, то его сразу можно было бы распознать. А если задать несколько шаблонов, то он в состоянии выбрать и что-то написать. Чат-боты пишут комментарии, ставят «лайки» на интернет-страницах, «лайкают» определённые комментарии, они функционируют на порталах соцсетей – на платформе Х и в Facebook. Срабатывает психологический механизм: человек видит много «лайков» и делает выовд, что миллионы людей не могут ошибаться – мол, если много «лайков», значит, это правда. Как в известном изречении: ложь, повторенная тысячу раз, становится правдой. И боты дублируют (размножают) эту ложь. Кроме того, боты притворяются разными отправителями. Это имело место в США во время выборов 2016 года, когда Россию обвинили во вмешательстве в эти выборы. Появились упреки и в адрес Хилари Клинтон. То же самое мы наблюдали и в Украине, еще до войны. Что интересно – боты могут атаковать с другой территории, как бы от иного отправителя. Существуют целые фермы ботов, троллей. Боты можно инсталлировать в других странах, тогда их атака будет восприниматься, как совершенная с совсем другого государства, тем самым маскируя реального отправителя сообщения. Еще до войны в Украине россияне начали размещать свои боты на украинских интернет-страницах для рассеивания своей пропаганды.
ИИ способен анализировать огромное количество веб-контента в режиме реального времени и обнаруживать закономерности, которые могут указывать на дезинформацию. Примеры таких моделей показывают на отсутствие источников информации, противоречивые утверждения или на манипуляции с лексикой, а также включают чрезмерное использование эмоционального языка…
Психологические операции ведутся как в мирное время, так и во время войны. Они направлены разным аудиториям: противнику, на собственную и на нейтральную аудиторию. На нейтральную – для того, чтобы приобрести кого-то в качестве своего союзника; представить жертву как агрессора, либо так, что кто-то скажет: поделом ему. Все это могут делать боты, российские хакеры известны своим умением в этой области. И, как я уже сказал, эти боты не обязательно должны действовать из России, они могут атаковать из разных стран и создавать впечатление, что это сказал не россиянин, а допустим, американец, англичанин, немец или поляк. Подшивается под другого отправителя – черная пропаганда.
Эту иллюстрацию создал ИИ по запросу: создать иллюстрацию на тему ИИ и дезинофрмация.
Обычный пользователь может распознать, с кем имеет дело – с ботом или реальным человеком?
И да, и нет, все зависит от профессионализма человека, который создал бот и создал схемы мышления для искусственного интеллекта. Но искусственный интеллект не может ухватить и учесть нюансов, связанных с культурой, менталитетом, не может использовать игры слов; текст ботов получается явно шаблонный, подготовленный читатель может это распознать. Более того, боты воюют с ботами, есть контр-боты, которые обнаруживают вражеские боты и их нейтрализуют. У Facebook, например, есть функция, когда он некоторые закрывает некоторые профили.
Что кроме генерирования ботов может делать ИИ?
Искусственный интеллект, в частности алгоритм дипфейк, синтезирует короткие видео и фотографии. Можно нелюбимого политика сделать героем какого-то скандального события. Нужно иметь фотографии этого человека, искусственный интеллект анализирует разные качества и подбирает то, что нужно для заданного образа. Еще до кинетической войны в Украине, до февраля 2022 года, появились, например, порнографическое видео с якобы участием Юлии Тимошенко. Сейчас в сети кружат – это можно легко найти, выгуглить – неприличные фотографии с Владимиром Зеленским. Конечно внимательный наблюдатель заметит, что это фейк. Это работает, как в случае с рекламой: мы не рассчитываем, что она подействует на 100% адресатов; достаточно, что она подействует на какое-то число – на 20-30%, найдутся такие люди. Примером может послужить последние президентские выборы в США: появитлся дипфейк – фотография голой Камалы Харрис на фоне американского флага. Если присмотреться, то можно увидеть, что это фейк. Но даже в самих Соединенных Штатах нашлись люди, которые сказали: о, Камала Харрис фотографируется голой на фоне национального флага США. Даже если большинство распознает, что это фейк, найдутся такие, кто в это поверит. Более того, сработает принцип глухого телефона: например, кто-то бросил в сеть фото Зеленского, как он танцует в каком-то представлении, один скажет: говорят, в сети появилось вот такое фото, а второй скажет: Зеленский танцует, все это неспроста. А такие фото появлялись. Украину не только атакуют, Украина также защищается. Это информационная война. Интересный пример: украинские хакеры, взломали страницы одного из информационных агентств России в день рождения Путина и поместили там поздравления: Happy birthday и далее следовало слово на «Х», я уже не буду цитировать – в присутствии дамы не пристало, да и для ушей слушателей тоже не очень хорошо.
Что может и должно стать оружием в борьбе с дезинформацией, генерируемой ИИ – а по сути как распознать именно этот вид, потому что с этого и начинается борьба…
Собственные знания, понимание механизмов, связанных со СМИ – в том числе с современными социальными сетями. И логика. Именно человеческий разум был своего рода оружием; даже физическая борьба является по сути борьбой умов, потому что, если я признаю себя побежденным, то я перестаю защищаться, у меня опускаются руки и я отдаю себя на милость противника. Необходимо также расширить медиаобразование, с самого раннего возраста учить детей пользоваться таким грозным оружием как интернет или смартфон. Сейчас современные смартфоны более высокотехнические, нежели компьютеры несколько лет назад; в некотором смысле мы постоянно носим с собой шпиона. И еще одна важная вещь: доверие общественным авторитетам. Еще в ХХ веке российский эмиграционный военный теоретик Евгений Месснер в своей книге «Мятеж-война» написал, что если мы хотим побороть какое-то общество, то в нем нужно заменить авторитеты на анти-авторитеты, и тогда это общество будет побеждено. Стоит сказать, что Месснер не был первооткрывателем, если почитать Сун Су, китайского государственного деятеля начала ХI века, то он также рекомендует уничтожать авторитеты противника. Искусственный интеллект на основе фрагментов мелодий может скомпоновать симфонию, но это не будет произведение уровня 9-й симфонии Бетховена, у неё будет отсутствовать то, что мы называем духовной составляющей. Уже есть картины, синтезированные искусственным интеллектом – не знаю, может быть я слишком консервативен, но им чего-то не хватает. Рисунок трехлетнего ребенка несовершенен, но в нем что-то есть, а рисунок авторства искусственного интеллекта – бездушен. Можно даже сказать несколько романтично, используя слова Адама Мицкевича: Чувство и вера больше говорят мне, чем мудреца стеклышко и глаз. Нужно увидеть то, что мы называем эмоциональностью. Искусственный интеллект лишен эмоций. Даже у так называемого глубокого, нейронного искусственного интеллекта, который вскоре, как говорят, будет доминировать в мире, нет человеческих эмоций.
Ирина Кудрявцева