Разбираемся, что такое «пузырь фильтров» и как он влияет на медиапотребление пользователей сети
Что такое «пузырь» алгоритмов?
Интернет-активист Илай Парайзер, выступая в 2011 году с лекцией на Ted Talks, предвидел тренд, который стал массовым только спустя несколько лет ― «пузырь алгоритмов». Интернет показывает нам то, что он думает, мы хотим увидеть, а не то, что нам самим хочется увидеть, говорил тогда Парайзер.
Илай Парайзер подробно описал термин «bubble filter» в книге «За стеной фильтров. Что Интернет скрывает от вас?» Это понятие можно перевести как «пузырь алгоритмов», «пузырь фильтров» или «информационный пузырь». Само явление характеризует персональную ленту новостей пользователя сети. Алгоритмы анализируют поведение в интернете и автоматически выстраивают контент, исходя из предпочтений человека. В том числе они учитывают регион проживания, пол и возраст пользователя. Таким образом, человек постепенно оказывается в интеллектуальной изоляции и лишается возможности выбирать альтернативный взгляд на вещи. Поэтому этот эффект еще называют «ловушкой».
«Пузырь фильтров» каждого человека уникален, потому что зависит от его интересов и навыков. При этом «внутренности» пузыря трудно отследить и проанализировать, трудно понять, что входит, а что не входит в персонализированный набор информации.
Как работает информационный пузырь?
Ленту рекомендаций можно разделить на два вида контента. Первый похож на тот, который мы активно лайкаем и комментируем в соцсетях. Алгоритмы анализируют наши предпочтения и показывают наиболее подходящие публикации: они мотивируют как можно дольше оставаться онлайн или чаще возвращаться в соцсеть. Обычно вверху ленты стоят посты тех пользователей, на которых мы подписаны.
Второй тип связан с контентом, который популярен в целом на всей площадке. Это посты с максимальными охватами (просмотры, лайки, репосты, комментарии), опубликованные сравнительно недавно активными аккаунтами. Они могут быть противоположны интересам пользователя, но тем не менее все равно появятся в его ленте. Наиболее ярко этот тип контента развит в YouTube, где лента рекомендаций порой кажется странной. На самом деле «неподходящие ролики» появляются, потому что их активно смотрят другие пользователи платформы.
«Пузырь фильтров» работает так, что пользователь видит ту информацию, которая его заинтересует. Во время президентской гонки Дональда Трампа и Хиллари Клинтон медиа публиковали разные по риторике сообщения в зависимости от политических взглядов целевой аудитории ― консервативных или демократических. Так человек попадал в «ловушку» и не мог получить альтернативную точку зрения до тех пор, пока сам не начинал её искать. Ещё проще эффект «пузыря фильтров» можно описать через известную в сети картинку с двумя абсолютно одинаковыми, но воспринимаемыми по-разному государствами.
Персонализация тоже бывает разной. В одном случае пользователи самостоятельно выбирают потребляемый контент. При этом, в «офлайне» люди чаще, чем в «онлайне», доверяют одним и тем же источникам просто из-за меньших объёмов информации. Во втором случае пользователи сети предпочитают исключительно рекомендации, подобранные алгоритмами. Чаще всего происходит синтез этих двух явлений. Человек самостоятельно подписывается на аккаунты, которые ему интересны, но в то же время следит за лентой рекомендаций.
Почему мы доверяем алгоритмам?
Интернет открыл доступ к постоянно обновляющейся информации. В то же время алгоритмы сети ограничивают пользователя. Люди не ищут что-то уникальное и новое, вместо этого они доверяют фильтрам: кликают на первые ссылки знакомых сайтов и потребляют контент, предлагаемый алгоритмами.
Это происходит потому, что большие объёмы информации трудно анализировать ― легче выбирать более доступный путь, в роли которого и выступает «пузырь фильтров». Пользователи чаще всего запоминают только те данные, с которыми они согласны. В отсутствии противоположной точки зрения восприятие реальности искажается и люди попадают в замкнутую систему: они создают сообщения, которые сами и потребляют. В теории медиа это явление называется «эхо-камера». Человек ошибочно начинает верить, что его мнение разделяют большинство не просто в его окружении, а во всей социальной группе ― это могут быть жители одного города, граждане страны или даже население планеты.
Принять противоположную позицию психологически трудно, потому что для этого требуются дополнительные когнитивные усилия. Мозг вынужден перенастраивать свою сеть связей, заново понимать и оценивать идеи, факты и знания.
Как «лопнуть» этот «пузырь»?
Чтобы потреблять контент без участия алгоритмов, можно удалить функцию персонализации в поисковом сервисе и периодически чистить историю поиска. В социальных сетях существует автоматическая сортировка публикаций ― ее можно отключить в настройках, а в YouTube достаточно отказаться от рекомендаций в настройках и очистить историю, чтобы остановить автоматическое воспроизведение роликов.
Новости эффективно получать не через агрегаторы, такие как Дзен или телеграм-каналы, а заходя на сайты журналистских изданий и медиапроектов. Кроме того, важно читать разные по риторике источники ― например, как оппозиционные, так и прогосударственные. Так получится сформировать более объективную картину мира и «лопнуть» «пузырь фильтров».