Линки доступности

Еврокомиссия проверяет МЕТА на распространение российской дезинформации


Что не так с Facebook и Instagram?

30 апреля, за месяц до выборов в Европарламент, Еврокомиссия решила проверить, насколько эффективно компания МЕТА противодействует дезинформации из России и других стран. Facebook и Instagram заподозрили в том, что они недостаточно маркируют политический контент и неэффективно борются с распространением обманной рекламы. К тому же, недавно МЕТА объявила об отказе от сервиса СrowdTangle, который стал источником критических статей о Facebook. Сервис в реальном времени позволял отслеживать теории заговора и вирусный контент на платформе.

«МЕТА не объяснила нам, почему они решили отказаться от СrowdTangle. Они также не объяснили, как будут компенсировать этот инструмент», - говорит представитель Еврокомиссии Йоханнес Барке. «По идее компания должна была сделать оценку рисков перед тем, как идти на такой шаг, и проинформировать нас об этом. Поэтому мы затребовали объяснений».

Европа старается защитить своих пользователей от незаконного контента и дезинформации с помощью закона о цифровых услугах. Согласно ему, все крупные платформы - такие как X, МЕТА, Google и Tik-Tok - должны раскрывать европейским регулирующим органам, как работают их алгоритмы по борьбе с распространением дезинформации и незаконным контентом. МЕТА в отличии от X заявляла о готовности работать с Еврокомиссией в этом направлении, но, как показал последний отчет независимой исследовательской компании AI Forensics, делает недостаточно: только 5 % политического контента прошло модерацию, а с августа по март на платформе появилось почти 4 000 страниц, распространяющих российскую пропаганду – кампания охватила 38 млн пользователей.

«Один из примеров, представленных в отчете, это компания по дезинформации «Doppelganger», запущенная лицами, связанными с Россией», - рассказывает директор лондонского Центра по информационной устойчивости Рос Бёрли (Ross Burly, Centre for Information Resilience). «В ходе нее создавались фальшивые новостные сайты, которые выглядели так же, как, например, сайт BBC или, допустим, «Голоса Америки». Вы могли просматривать свою ленту, видеть статью, которая выглядит как обычная новостная статья, но в ней содержался контент, с которым Россия пытается влиять на европейскую аудиторию. Например, мы видели вспышки этой кампании, когда европейские страны анонсировали расходы на оборону – мы видели рост фейковых сайтов и фейковых историй, которые говорили: зачем нам тратить деньги на оборону, когда у нас социальные проблемы?»

МЕТА заявляет, что принимает меры против кампании «Doppelganger» с ее первого разоблачения в 2022 году и удаляет аккаунты поддельных СМИ, однако, согласно отчету AI Forensics, большинство таких страниц по-прежнему остаются на платформе и так и не проверены. К тому же, такие фейковые сайты распространяют свой контент на Facebook с помощью рекламы, которая также недостаточно модерируется, говорит эксперт брюссельского Центра европейской политики Юрай Майцин (Juraj Majcin, EPC).

«Большая часть этого фейкового контента, произведенного различными российскими кампаниями по дезинформации, не маркировано как «политическая реклама». И это тоже одна из причин, почему Еврокомиссия начала расследование. Очевидно, что такой контент – это политическая реклама, и МЕТА ничего с этим не делает».

В феврале в МЕТА заявили, что ограничит количество политических постов, которые пользователи могут видеть у себя в ленте. Кроме того, платформа наняла модераторов контента на различных языках, чтобы проверять достоверность распространяемой информации о выборах. Однако для ряда стран количество таких проверяющих недостаточно: например, 3 сотрудника на Facebook просматривают контент на эстонском языке, 2 - на латышском, и 15 - на финском. Для сравнения: на французском и немецком контент просматривают больше 200 модераторов. Впрочем, представитель Еврокомиссии Йоханнес Барке заверяет: они в контакте с платформой и надеются найти решение.

«Пока идет расследование, мы можем попросить МЕТА предпринять определенные действия, промежуточные меры. Конечно, если это не поможет, существуют штрафы. Они могут доходить до 6 процентов от годового оборота компании или - в экстремальном случае - может быть временное отключение платформы от европейских пользователей. Но об этом сейчас речь не идет», - говорит Барке.

Еврокомиссия проверяет Meta на распространение российской дезинформации
please wait

No media source currently available

0:00 0:05:27 0:00

По словам экспертов, то, что Еврокомиссия начала проверку МЕТА – это хороший знак, но спасти выборы в Европейский парламент от дезинформации это вряд ли поможет. Голосование уже через месяц, и мнение людей как правило сформировано. Да и в целом, тема борьбы с дезинформацией на социальных платформах – вопрос, на который ответ пока так и не нашли. Директор Центра информационной устойчивости Рос Бёрли считает, что единственный выход – применять к социальным сетям те же требования, что и к издателям.

«Если вы издатель в Великобритании или во Франции, у вас есть ответственность. Если вы опубликуете инструкцию по тому, как создать ядерное оружие, вы столкнетесь с последствиями. Так же мы должны привлекать МЕТА и другие социальные платформы к ответственности за контент, который они публикуют у себя на платформе. Что включает в себя контент, который создан специально для дезинформации аудитории - для того, чтобы разрушить политическую среду», - считает он.

Форум

XS
SM
MD
LG