Линки доступности

Дипфейк с журналисткой «Голоса Америки» вызывает опасения по поводу развития ИИ


Скриншот дипфейкового видео с Ксенией Турковой
Скриншот дипфейкового видео с Ксенией Турковой

На первый взгляд, это видео кажется правдоподобным.

Ксения Туркова, журналистка Русской службы «Голоса Америки», сидит за столом в студии и смотрит в камеру. Она представляет гостя, который рассказывает о программном обеспечении для торговли криптовалютой. Ничего необычного.

Вот только проблема в том, что это видео — ненастоящее. Это дипфейк — видеоподделка, созданная искусственным интеллектом (ИИ). А еще это очень тревожный пример использования ИИ для создания видеороликов, в которых настоящие журналисты сообщают фейковые новости. Эксперты, изучающие это явление, говорят: всё это может серьезно подорвать доверие к современным медиа.

Русская служба «Голоса Америки» узнала о фейковом видео 27 октября. В видеоролике, который распространялся в Facebook, использовался брендинг «Голоса Америки» и — частично — реальное видео из студии программы «Итоги», однако голоса ведущей и гостя были подделаны: текст, который они произносили, был сгенерирован ИИ. Вместо новостей в видео была реклама.

Когда Ксения Туркова впервые увидела эти кадры, ей, по ее словам, самой потребовалось несколько минут, чтобы понять, что это фейк.

«Моей первой реакцией было: я этого не помню, этого не говорила, — вспоминает она, —Тогда я поняла, что это был дипфейк. Я никогда не сталкивалась ни с чем подобным».

Фейковое видео начинается со вступительного слова Ксении. Но большая часть ролика состоит из сгенерированной ИИ речи Юрия Мильнера, израильского предпринимателя советского происхождения. На видео Мильнер расхваливает торговую платформу Quantum AI (неизвестно, кстати, насколько ее работа соответствует закону).

«Хорошо, что это была просто реклама. Но что может случиться в следующий раз? — говорит Ксения Туркова. — Что, если они сделают видео, на котором я говорю, что поддерживаю, например, войну [президента России Владимира] Путина в Украине, или говорю, что поддерживаю террористические атаки? Или это будет порнографический контент?»

«Я почувствовала себя уязвимой, подумала о том, что моя репутация как журналиста, степень доверия ко мне могут оказаться под угрозой», — добавляет журналистка.

«Голос Америки» — далеко не единственное медиа, ставшее жертвой дипфейков. От них пострадали и журналисты новостных агентств, включая CNN и Би-би-си. Такие дипфейки обычно направлены на распространение недостоверной информации. Подобных случаев становится все больше, и это вызывает беспокойство среди экспертов по работе искусственного интеллекта.

Видео с участием Ксении Турковой было размещено на странице в Facebook аргентинского коммуникационного агентства Digit Estudio. Судя по всему, эта страница была неактивна с 2021 года. «Голосу Америки» не удалось определить, кто создал это видео. Учетная запись агентства, а также сам видеоролик спустя некоторое время стали недоступны.

«Голос Америки» запросил комментарий по номеру телефона, указанному на странице Digit Estudio в LinkedIn, однако не получил ответа. Корпорация Meta, которой принадлежит Facebook, также не ответила на электронное письмо с просьбой прокомментировать ситуацию.

«Мы очень обеспокоены угрозой, которую искусственный интеллект представляет для миссии “Голоса Америки” по предоставлению объективных и основанных на фактах репортажей», — добавила Уэбб.

По словам Джона Скотта-Рейлтона, который занимается изучением дезинформации в Citizen Lab, до недавнего времени создание фейковых новостных видеороликов было слишком затратным по времени и ресурсам. «Сейчас все иначе, — сказал он «Голосу Америки». – Факты теперь никому не выгодны, а в результате таких подделок растет недоверие к традиционным медиа и серьезным новостным агентствам».

Важно помнить, что цель дезинформации часто не в том, чтобы убедить людей думать так или иначе, рассказывает Пол Барретт, заместитель директора Центра бизнеса и прав человека Стерна Нью-Йоркского университета. «На самом деле, они не пытаются повлиять на ваше мнение. Они пытаются подорвать ваше доверие к тому, что вы видите, слышите и читаете, чтобы вы запутались, — сказал он «Голосу Америки». – Притвориться “Голосом Америки” или CNN — идеальный способ запутать людей».

Подтасовка новостных передач может стать эффективной стратегией дезинформации, поскольку «ведущие новостей — это лицо доверия к традиционным СМИ», — считает Билл Дрексел, который работает с искусственным интеллектом в «Центре новой американской безопасности» в Вашингтоне. Использование фейковых изображений ведущих новостей – один из наиболее эффективных сейчас методов распространения дезинформации, уточнил Дрексел.

В свою очередь, Пол Барретт считает, что дипфейковые новостные видеоролики в очередной раз подчеркивают необходимость регулировать использование искусственного интеллекта на государственном уровне.

30 октября президент США Джо Байден подписал указ, устанавливающий новые стандарты безопасности ИИ, направленные на защиту конфиденциальности американцев.

Барретт уточнил, что данный указ носит всеобъемлющий характер, но предупредил, что Белый дом не может запретить иностранным правительствам или другим субъектам злоупотреблять системами искусственного интеллекта с открытым кодом. «При внедрении новой технологии именно этот аспект требует от разработчиков принять меры, гарантирующие, что их продукт невозможно будет подделать», — сказал Барретт.


Оригинальный материал на сайте voanews.com


Дополнение от Русской службы «Голоса Америки»:

Тема развития искусственного интеллекта во всем мире стала одной из ключевых в этом году. 1 ноября словарь английского языка Collins, как всегда, подвел языковые итоги года и назвал аббревиатуру AI (artificial intelligence) главным словом 2023 года. Как говорит директор Collins Алекс Бикрофт, AI выбрали словом года из-за стремительного развития этой технологии. По данным Collins, в 2023 году термин AI стали употреблять в четыре раза чаще.

Форум

XS
SM
MD
LG