Zhang Peng/LightRocket via Getty Images

Как справиться с проблемой дезинформации

МЕНЛО-ПАРК (КАЛИФОРНИЯ, США) – С тех пор как в ноябре 2016 года президентские выборы в США продемонстрировали уязвимость цифровых информационных каналов для распространителей «фейковых новостей», не прекращаются дебаты по поводу того, как именно надо бороться с дезинформацией. Мы уже проделали большой путь за те восемь месяцев, которые прошли с момента выступления руководителей Facebook, Google и Twitter перед Конгрессом США, когда они отвечали на вопросы о том, как российские структуры воспользовались их платформами с целью повлиять на выборы. Однако если что-то и стала понятно в ходе этих поисков возможных решений, так это то, что «серебряной пули» не существует.

Вместо одного всеобъемлющего решения, способного всё исправить, нам необходим ряд шагов, которые позволяют решить данную проблему одновременно с разных сторон. Современные информационные экосистемы похожи на кубик Рубика: требуются различные шаги, чтобы «решить» эту головоломку на каждой из её сторон. И когда речь заходит об цифровой дезинформации, необходимо учитывать, как минимум, четыре аспекта.

Во-первых: кто делится дезинформацией? Дезинформация, распространяемая иностранными структурами, может трактоваться совершенно иначе (юридически и нормативно), чем дезинформация, распространяемая самими гражданами страны, особенно в Соединённых Штатах, с их не имеющей аналогов в мире защитой свободы слова и сравнительно строгими правилами, касающимися иностранного вмешательства.

В США можно справиться с менее изощрёнными случаями иностранного вмешательства, благодаря комплексу методов по определению родного языка и геолокации, которые позволяют идентифицировать тех, кто действует извне страны. А если изменения на уровне платформ не срабатывают, тогда возможно применение более широкого государственного вмешательства, например, тотальные санкции.

Во-вторых, почему дезинформация распространяется? «Ошибочная информация», то есть неточная информация, распространяемая неумышленно, заметно отличается от дезинформации или пропаганды, распространяемых преднамеренно. Предотвращать невольное распространение ложной информации теми, кто имеет хорошие намерения, можно, по крайней мере, отчасти, с помощью кампаний по повышению новостной грамотности или инициатив, помогающих проверять факты. А вот не позволять лицам с дурными намерениями намеренно распространять такую информацию уже сложнее, и решение этой задачи зависит от специфики их целей.

В отношении тех, кто мотивирован прибылью (как, например, ставшие сейчас печально знаменитыми македонские подростки, которые заработали тысячи долларов на сайтах «фейковых новостей»), может помочь новая рекламная политика, разрушающая подобные модели получения доходов. Однако такие меры не остановят тех, кто распространяет дезинформацию по политическим или социальным причинам. Если эти лица работают в рамках организованных сетей, может потребоваться специальное вмешательство для разрушения эффективности всех подобных сети.

Subscribe now

Exclusive explainers, thematic deep dives, interviews with world leaders, and our Year Ahead magazine. Choose an On Point experience that’s right for you.

Learn More

В-третьих, как распространяется дезинформация? Если люди делятся контентом через социальные сети, может оказаться достаточно изменений в политике подобных платформ и/или в их государственном регулировании. Но эти изменения должны быть конкретными.

Например, для удаления ботов, используемых с целью искусственного размножения контента, платформы могут потребовать от пользователей раскрытия реальных личностей (впрочем, это будет проблематично в случае с авторитарными режимами, где анонимность защищает сторонников демократии). Для ограничения сложного микротаргетирования (то есть использования данных о пользователях и демографии для предсказания интересов и поведения человека с целью повлиять на его мысли или действия) платформам, возможно, придётся изменить свою политику предоставления доступа к данным и защиты персональной информации, а также ввести новые правила для рекламы. Например, вместо того, чтобы предоставлять рекламодателям возможность всего лишь за $30 обратиться к тем 2300 людям, которые, скорее всего, «ненавидят евреев», платформы должны (в некоторых случаях они уже начали это делать) раскрывать целевую аудиторию политической рекламы, запрещать определенные критерии таргетирования, а также ограничивать минимальный размер таргетируемой группы.

Это своеобразная гонка вооружения. Плохие пользователи будут быстро находить пути обхода любые изменений, вводимых цифровыми платформами. Будут постоянно требоваться новые методы, например, использование блокчейна для подтверждения оригинальности фотографий. Но можно не сомневаться в том, что цифровые платформы лучше подготовлены к постоянной корректировке своей политики, чем государственные регуляторы.

Впрочем, цифровые платформы не могут справиться с дезинформацией в одиночку, и не в последнюю очередь потому, что на долю социальных сетей, по оценкам, приходится лишь около 40% трафика наиболее отъявленных сайтов «фейковых новостей»; остальные 60% трафика поступают «органически» или через «теневые социальные сети» (например, сообщения или письма, которыми обмениваются друзья). Этим путями управлять намного труднее.

Последний, и, наверное, самый важный аспект головоломки дезинформации: что именно распространяется? Эксперты обычно фокусируются на однозначно «фейковом» контенте, который проще всего идентифицировать. У цифровых платформ, естественно, имеются стимулы ограничивать присутствие такого контента, хотя бы потому, что люди, как правило, не любят выглядеть глупо, как это происходит, когда они делятся абсолютно лживыми новостями.

Но людям нравится читать и делиться информацией, которая соответствует их точке зрения; и ещё больше им это нравится, если подобная информация вызывает сильные эмоции, прежде всего, возмущение. А поскольку пользователи активно реагируют на такой контент, у цифровых платформ есть стимулы показывать его активней.

Подобный контент не просто поляризует общество; он часто вводит в заблуждение и подстрекает, и есть даже свидетельства того, что он может мешать конструктивному демократическому диалогу. Но где проходит линия между опасными разногласиями, вызванными искажениями, и ожесточёнными политическими дебатами, которые вызваны конфликтом мировоззрений? И кто (если вообще кто-нибудь) должен её проводить?

Даже если бы на эти этические вопросы можно было дать ответ, идентификация проблемного контента в больших масштабах наталкивается на серьёзные практические препятствия. Многие из наиболее тревожных примеров дезинформации касались не каких-то конкретных выборов или кандидатов, они разжигали уже существующие социальные разногласия, например, касающиеся расовых вопросов. И нередко распространение этих сообщений осуществлялось без покупки рекламы. В результате, они не могут попасть под регулирование в рамках новых правил, касающихся предвыборной рекламы, например, «Закона о честной рекламе», который поддержали Facebook и Twitter.

Если в США пути решения проблемы дезинформации остаются неясными, то в международном плане ситуация ещё сложнее, поскольку за рубежом эта проблема ещё более децентрализована и непрозрачна. И это ещё одна причина, почему невозможно принять одно всеобъемлющее и всеохватное решение.

Но хотя каждая из предлагаемых мер решает только одну узкую проблему (например, улучшение рекламной политики позволяет решить 5% проблемы дезинформации, а различные меры, касающиеся микротаргетирования, – 20%), все вместе они всё же позволяют достигнуть прогресса. Конечным результатом станет информационная среда, которая (несмотря на своё несовершенство) будет содержать лишь сравнительно небольшой объём проблемного контента, что неизбежно в демократических обществах, в которых ценится свобода слова.

Есть хорошая новость: у экспертов теперь появится доступ к защищённым персональным данным Facebook, что позволит им понять (и улучшить) влияние этой платформы на выборы – и демократию – во всём мире. Можно надеяться, что другие цифровые платформы (например, Google, Twitter, Reddit и Tumblr) последуют этому примеру. С помощью правильных выводов и решимости совершать фундаментальные (хотя и постепенные) изменения общественное и политическое влияние цифровых платформ можно будет сделать безопасным (или, по крайней мере, менее опасным) для демократии, которая сегодня оказалась в осаде.

http://prosyn.org/UbdEoZT/ru;

Handpicked to read next

Cookies and Privacy

We use cookies to improve your experience on our website. To find out more, read our updated cookie policy and privacy policy.