Бизнес

Эксперты

Приложения

Центр

Юг

Северо-Запад

Приволжье

Урал

Сибирь

Кавказ

Дальний Восток

Крым

Призрачная свобода: ИТ-эксперт объяснил, как пользователям навязывают спорный контент

Редакция «ФедералПресс» / Аркадий Канунников
Москва
28 НОЯБРЯ, 2023

Зыков Владимир Владимирович

IT, СМИ и медиа
Москва

Социальные сети, видеохостинги и многие крупные онлайн-платформы стремятся персонализировать свое взаимодействие с пользователем через рекомендательные алгоритмы. Они используют различные метрики для оценки вовлеченности человека, включая то, как долго он просматривает тот или иной пост, что ему нравится, какие хэштеги он использует и на какие аккаунты подписан. Так алгоритмы могут навязывать и спорный контент, рассказал директор Ассоциации профессиональных пользователей соцсетей и мессенджеров (АППСИМ) Владимир Зыков:

«Помимо персонализации ленты конкретного пользователя, алгоритмы могут продвигать популярный и широко обсуждаемый контент на большую аудиторию. В плюсе тут не только сам автор, но и площадка – охватный материал принесет больше дохода от рекламы. И тут начинаются проблемы – алгоритмы, следуя механике поощрения платформы, продвигают спорный и провокационный контент, так как он привлекает больше внимания.

Порой это приводит к курьезам. Так, X (ранее Twitter) делился доходами от рекламы с неонацистским аккаунтом, в котором размещал рекламу таких брендов, как Amazon и Samsung. Также, как выяснили независимые исследователи, алгоритм платформы с большей долей вероятности выводит «в топ» посты с негативной коннотацией.

В результате работы системы поощрения алгоритмы формируют соответствующие привычки у пользователей площадки, выяснили в Nieman Labs. Так, усиливаются оскорбительные заявления, нападения на отдельные социальные группы, а дезинформация зачастую распространяется гораздо быстрее правды. В пользу этого говорит и внутреннее исследование Facebook*, согласно которому большая часть фейковых материалов приходится на репост репоста – информации, репост которой уже был сделан ранее.

В своем эксперименте Nieman Labs доказали, что распространение фейковой информации – больше вопрос привычки, чем лени или предвзятости. В частности, эксперты изменили систему вознаграждения для участников опыта таким образом, что наиболее позитивную реакцию и большее число «лайков» получали точные и достоверные, а не провокационные посты. Одним из стимулов было финансовое вознаграждение, однако участникам заранее не говорилось о нем, поэтому оно не влияло на их выбор напрямую.

Что примечательно, пользователи продолжили чаще «репостить» корректную информацию даже после того, как вознаграждение было отменено. Ученые считают, что соцсети в силах повлиять на аудиторию таким же образом, используя собственные механизмы поощрения и не нарушая бизнес-модель платформы.

Тем не менее, учитывая закрытость ИТ-гигантов и силу, которой они обладают, вряд ли им есть смысл идти с кем-либо на контакт. Об этом, к примеру, говорил один из исследователей деятельности компании Google, доктор философии Роберт Эпштейн: «Google формирует мнения, мышление, убеждения, установки, покупки и голоса миллиардов людей по всему миру. Никто не знает, что они это делают, за исключением небольшой горстки людей вроде меня. Они делают это, не оставляя улик в виде документов, которые могли бы отследить власти. Они используют новые методы манипулирования, которых никогда раньше не существовало в истории человечества, и они по большей части действуют на подсознании».

Вывод прост – вопрос влияния ИТ-гигантов на мнение людей и их мировоззрение нельзя рассматривать исключительно с точки зрения алгоритмов в отрыве от самой компании. Как показывают исследования, они в силе изменить эту ситуацию, однако пока подвижек в позитивную сторону мы, к сожалению, не видим.

Тем не менее отечественным площадкам из этого опыта можно извлечь отличный урок – они вполне могут подтолкнуть пользователя в сторону объективности и достоверности и задать тренд на правду».

Фото: unsplash.com

*Материнская компания Meta признана экстремистской организацией и запрещена в России