Линки доступности

Китайские и российские пропагандисты делают ставку на искусственный интеллект


Страницы из отчета Центра глобального взаимодействия при Госдепартаменте США о российской дезинформации, опубликованного еще 5 августа 2020 года. 
Страницы из отчета Центра глобального взаимодействия при Госдепартаменте США о российской дезинформации, опубликованного еще 5 августа 2020 года. 

Москва и Пекин нацелились на онлайн-аудиторию, создавая «дипфейки» и «ложные первые страницы» известных международных СМИ

Глядя прямо в камеру, ведущая новостей говорит о важности сотрудничества США и Китая для устойчивости мировой экономики.

На первый взгляд кажется, что женщина ведет обычный выпуск новостей. Однако ни телекомпания, ни логотип - Wolf News на экране - не настоящие. Это «глубокий фейк», или «дипфейк» («deep-fake»), сгенерированный искусственным интеллектом.

Зрители, внимательно присмотревшись, могут заметить некоторые признаки искусственности образа. Голос звучит неестественно и рассинхронизирован с движениями губ.

Это видео является одним из двух, которые появились в постах социальных сетей, где обычно продвигались интересы Коммунистической партии Китая (КПК), говорится в опубликованном в прошлом месяце исследовании нью-йоркской исследовательской фирмы Graphika.

Достижения в области аудиовизуализации с применением инструментов генерации образов искусственным интеллектом вызвали у многих опасения, что эти новые технологии будут широко применяться в создании и распространении дезинформацию в беспрецедентных масштабах. Вышеуказанные примеры фейковых образов в новостях подтверждают эти опасения.

Эти технологические «новинки пропаганды» появились уже после того, как в февральском отчете Европейского Союза был описан всесторонний подход Китая и России к распространению ложных нарративов на самые разные темы, от внешней политики, до войны в Украине.

Тактика, используемая Россией и Китаем, и степень ее использования в дезинформационных кампаниях.
Тактика, используемая Россией и Китаем, и степень ее использования в дезинформационных кампаниях.

Для Тайлера Уильямса (Tyler Williams), директора отдела расследований компании Graphika, использование «дипфейков» в новостях не стало неожиданностью. В 2018 году британское издание The Guardian сообщило, что Xinhua, государственное новостное агентство Китая, показало первого в мире ведущего новостей с использованием технологии искусственного интеллекта.

Тем не менее, как сказал Уильямс «Голосу Америки», «мы были удивлены, увидев [использование “дипфейка”] в этом контексте».

Мы отслеживаем эти кампании уже несколько лет, но мы впервые видим использование подобных приёмов и технологий

Специалисты компании Graphika наткнулись на «дипфейки ведущих выпусков новостей» на таких платформах, как Facebook, Twitter и YouTube, во время мониторинга прокитайских дезинформационных операций. Исследовательская фирма назвала их - «спамуфляжем» («spamouflage»).

Впервые, «спамуфляж» был выявлен в 2019 году в обширной сети связанных с Пекином аккаунтов, которые распространяли прокитайскую пропаганду.

«Мы отслеживаем эти спам-кампании - операции влияния - уже несколько лет, - рассказал Уильямс. - Однако мы впервые видим использование подобных приёмов и технологий».

Представитель посольства КНР в Вашингтоне сообщил «Голосу Америки», что отчет компании Graphika «полон предубеждений и злонамеренных спекуляций», против которых «решительно выступает Китай».

«В последние годы некоторые западные СМИ и аналитические центры клеветали на Китай, сообщая об использовании фальшивых учетных записей в социальных сетях для распространения так называемой "прокитайской" информации, - заявил представитель посольства в сообщении, отправленном по электронной почте, - Китай считает, что каждый пользователь социальных сетей имеет право высказать свое мнение».

Однако несколько организаций документально зафиксировали то, как Китай подвергает цензуре социальные сети и даже отправляет в тюрьму их пользователей, критикующих правительство.

Эрозия доверия

Тайлера Уильямса из компании Graphika особенно беспокоят мастерство и эффективность, с которой ИИ может генерировать дезинформацию.

Это предзнаменование мрачного будущего дезинформации в мире

«Большую озабоченность вызывает продолжающаяся эрозия доверия - будь то новостные СМИ или новости, публикуемые на платформах социальных сетей. Уровень их достоверности все больше и больше подвергается сомнению, - отметил он, - Для меня это главная проблема. Не окажемся ли мы в этой последней, циничной среде с нулевым доверием, где все фальшиво?»

«Это своего рода сценарий конца света», - коротко добавил Уильямс, но предупредил, что эти явления пока не следует преувеличивать.

По словам Билла Дрексела, исследователя искусственного интеллекта из Центра новой американской безопасности в Вашингтоне (Bill Drexel, Center for a New American Security), в настоящее время «технология далека от совершенства».

«Когда я впервые увидел эти видео, я подумал, что они практически смешны, потому что, это пока далеко от качественного “дипфейка”, - сказал он «Голосу Америки». - Однако это - предзнаменование мрачного будущего дезинформации в мире».

«Китай печально известен своей внешнеполитической дезинформацией, глухой и часто контрпродуктивной», - подчеркнул Дрексел.

Китай не одинок в использовании новых технологий в дезинформации.

В отчете Европейской службы внешних действий (The European External Action Service, EEAS) основное внимание уделялось российской и китайской дезинформации. В нем говорилось, что Москва проводит операции по дезинформации с использованием ложных брендов известных европейских международных СМИ.

Использование дезинформации
Использование дезинформации

В ходе исследования была проанализирована выборка из 100 случаев так называемой «манипуляции информацией» с октября по декабрь. В докладе говорится, что на основе 60 примеров, связанных с российским вторжением в Украину, видно, как Москва стремится отвлечь аудиторию и отвести от себя вину или привлечь внимание к другим темам.

«Эта война ведется солдатами не только на поле боя, но и в информационном пространстве. [Они] пытаются завоевать сердца и умы людей, - заявил в февральской речи глава внешнеполитического ведомства ЕС Жозеп Боррель. - У нас есть множество доказательств того, что Россия стоит за скоординированными попытками манипулировать публичными дебатами в открытом обществе».

Печатные и телевизионные СМИ являются наиболее частыми объектами «подлога» с стороны Москвы, особенно в отношении Украины.

Объекты манипуляции
Объекты манипуляции

В отчете упоминаются четыре случая создания поддельных титульных страниц, имитирующих европейские сатирические журналы, с целью легитимизации нападок на Украину и президента Владимира Зеленского.

«Никто не застрахован от того, чтобы увидеть, как их личность или бренд используются не по назначению, - говорится в отчете. - Акторы представляют угрозу тем, что выдают себя за других для того, чтобы придать легитимности своим сообщениям, а также для охвата и воздействия на аудиторию, которая знает и доверяет организациям, чьи бренды скопированы».

Посольство РФ в Вашингтоне не ответило на письмо «Голоса Америки» с просьбой прокомментировать ситуацию.

От читателя требуется больше бдительности, чтобы заметить, что что-то не так

Стратегия «подделки» («spoofing») находится в зачаточном состоянии, но «дезинформация и не должна быть изощренной, чтобы быть эффективной», полагает Ника Алексеева, исследователь российской дезинформации в Лаборатории цифровых криминалистических исследований «Атлантического совета» (Nika Aleksejeva, Lead Digital Forensic Researcher, DFRLab, Atlantic Council).

«Иногда основа работает лучше», - сказала она.

Приписывание фейков настоящим СМИ делает ложь более правдоподобной. Цель состоит в том, чтобы заставить читателей задуматься: «Если это законное СМИ написало об этом, значит, это правда», подчеркнула Алексеева.

По словам Алексеевой, эта стратегия особенно эффективна, потому что, когда читатели нажимают на поддельные страницы, они возвращаются на настоящий новостной сайт.

«От читателя требуется больше бдительности, чтобы заметить, что что-то не так», - сказала она «Голосу Америки» из столицы Латвии Риги.

Алексеева также обеспокоена тем, как ИИ можно использовать для усиления дезинформированых кампаний. Теперь, по ее словам, это так же просто, как передать ИИ «некоторые детали и попросить рассказать историю».

«Громкость изменится», - подчеркнула она. «Так намного проще придумать историю».

Русская служба «Голоса Америки» ранее также рассказывала о попытках внедрения технологий «deep-fake», а также стратегии «подлога» и использования «ложных брендов международных СМИ».

Форум

Читайте также

XS
SM
MD
LG