Прикрытая агрессия: нужна ли соцсетям тотальная «дезинфекция» от грубости

Прикрытая агрессия: нужна ли соцсетям тотальная «дезинфекция» от грубости

Социологи уверены, что алгоритмам, которые отслеживают разжигание ненависти в сети, требуются новые настройки

Образ жизни
Фото: MySonAndI/Flickr

Согласно данным многих опросов, людей серьезно беспокоит рост агрессии в интернете. Масштабные исследования в области социальных сетей были посвящены тому, как противостоять недоброжелательности в сети. Однако исследователи в проекте «Гражданские сигналы» (Civic Signals) Национальной конференции по вопросам гражданской позиции и Центра вовлечения СМИ использовали другой подход. «Если начать с нуля, — спросили они, — как бы выглядело процветающее, здоровое цифровое пространство?»

Очень быстро они поняли, что такое пространство не всегда будет вежливым.

Проект «Гражданские сигналы», который был запущен около четырех лет назад, первоначально включал в себя проведение тщательного обзора публикаций и интервью с экспертами из разных стран, чтобы определить ценности — или «сигналы» — которые люди хотят обозначить при создании онлайн-пространств. Затем команда проекта опросила более 22 000 представителей 20 стран, которые часто пользуются социальными сетями, поисковыми платформами и сервисами обмена сообщениями. Джина Масулло, профессор Школы журналистики и СМИ Техасского университета в Остине, привнесла в проект свой опыт в области изучения агрессивного общения. Но, по ее словам, в процессе работы команда довольно быстро пришла к выводу, что если одной из целей является поддержка продуктивного политического дискурса, то одной вежливости недостаточно.

«Не то чтобы мы ратовали за грубость, — говорит Масулло. — Но если вы хотите жарких политических дискуссий, которые важны для демократии, я настаиваю на том, что люди не всегда будут вести себя идеально вежливо». В своей книге «Гадкие разговоры: грубость в сети и публичные дебаты» она отмечает, что «идеальная» речь может быть настолько продезинфицирована, что мы не сможем ничего толком выразить.

Никто не спорит, что соцсети должны бороться с наиболее вредными формами высказываний: угрозами, целенаправленным преследованием, расизмом, призывами к насилию. Но программы искусственного интеллекта, которые компании используют для отбора, обученные на основе мягких и, возможно, наивных представлений о цивилизованности, пропускают некоторые из худших форм хейта. Например, исследование, проведенное Либби Хемфилл, профессором Школы информации Мичиганского университета и Института социальных исследований, продемонстрировало, как сторонники превосходства белой расы переходят границы, прикрываясь мантией поверхностной вежливости.

«Нам нужно понимать не только цивилизованность и вежливость, чтобы понять, как распространяется ненависть», — сказала она.

Даже если интернет платформы станут лучше сражаться с многоголовой гидрой хейта, если целью является не только получение прибыли, но и создание цифрового пространства для продуктивного дискурса, им придется перестроить алгоритмы определения приоритетов контента. Как показывают исследования, поощрение получают публикации, которые вызывают сильные эмоции, особенно гнев и возмущение, потому что, как и авария на шоссе, они привлекают внимание и, что особенно важно, дают больше просмотров платной рекламы. Те, кто охотятся за вовлеченной аудиторией, повысили ставки в игре, распространяя токсичность, которая так беспокоит пользователей социальных сетей.

Проект «Гражданские сигналы» показал, что люди действительно хотят иметь цифровое пространство, в котором они чувствуют себя желанными гостями, где они чувствуют связь с другими, получают достоверную информацию и обладают правом действовать в решении вопросов, которые их затрагивают. По словам Масулло, в мире социальных сетей, который оптимизирован для кликов, такой позитивный опыт все же происходит, несмотря на то, как устроена эта цифровая среда. «Очевидно, что нет ничего плохого в том, чтобы зарабатывать деньги на платформах, — считает она. — Но, может быть, можно делать и то, и другое, например, зарабатывать деньги, и при этом не разрушать общество».

Насколько токсичным стал политический дискурс, настолько причудливым кажется тот факт, что чуть более десяти лет назад многие социологи надеялись, что, позволив политическим лидерам и гражданам напрямую общаться друг с другом, платформы социальных сетей улучшат отношения, омраченные недоверием. «Это прямое общение, — объясняет Яннис Теохарис, профессор цифрового управления в Техническом университете Мюнхена, — было тем, что вселило в людей, — и я не исключение, — оптимизм. Все думали, что это именно то, что обновит наше понимание демократии и демократического участия».

И что же произошло?

По словам Теохариса, социальные сети в определенной степени сблизили политиков и избирателей, но они также дали возможность высказаться маргиналам, чье намерение состоит в том, чтобы выплеснуть эмоции или агрессию. Человеческая природа такая, какая есть, мы тяготеем к сенсациям. «Чем громче человек заявляет о чем-то, тем больше внимания он получает в социальных сетях», — говорит Теохарис. Его исследования показывают, что люди более позитивно реагируют на информацию, когда она немного скандальна, особенно если она совпадает с их политическими взглядами.

И политики стали лучше разбираться в правилах игры. Исследование, проведенное в апреле этого года, в котором с помощью искусственного интеллекта было проанализировано 1,3 миллиона сообщений, показало, что с 2009 года твиты политиков становились все более нецивилизованными. Результаты также выявили правдоподобную причину этого: грубость окупается. Самые грубые и неуважительные твиты набирают в восемь раз больше лайков и в десять раз больше ретвитов, чем вежливые.

По мнению исследователей, пользователи социальных сетей в целом не одобряют грубые сообщения, но передают их для развлечения. Джонатан Хайдт, социальный психолог из Школы бизнеса Стерна Нью-Йоркского университета, отметил, что простой выбор дизайна около десяти лет назад для функций «нравится» и «поделиться» изменил способ, которым люди предоставляют друг другу социальную обратную связь. «Новые платформы были почти идеально разработаны для того, чтобы вывести на чистую воду самые морализаторские и наименее склонные к размышлениям черты нашей натуры, — написал он в мае этого года в журнале The Atlantic. — И громкость возмущенных криков была шокирующей».

Одно из решений проблемы нарастающей грубости — это заставить пользователей платформ быть вежливыми, как школьников младших классов. Но, как говорит Масулло, принуждение к вежливости в цифровом общественном пространстве — дурацкая затея. Начнем с того, что, оказывается, агрессию довольно сложно определить. Социологи используют стандартизированные программы искусственного интеллекта, обученные людьми, чтобы классифицировать речь как агрессивную на основании таких факторов, как ненормативная лексика, разжигание ненависти, фразы, написанные ЗАГЛАВНЫМИ буквами, оскорбления или уничижительные слова. Но эти инструменты недостаточно тонкие, чтобы регулировать речь в реальном мире.

Ненормативная лексика — это самый простой способ определить грубость, потому что можно просто создать поиск по определенным словам, как считает Масулло. Но лишь небольшой процент потенциально агрессивных высказываний содержит ненормативную лексику, и, добавляет она: «сексистские, гомофобные или расистские высказывания гораздо хуже, чем оставленная тут и там матерная ругань».

Кроме того, по ее словам, разговоры на повышенных тонах — это необязательно плохо. «Важно, чтобы люди участвовали в обсуждении, — говорит она, — и иногда разговоры будут, вероятно, скатываться к недоброжелательности, но не стоит снижать градус дебатов, если не хотите полностью их «обеззаразить». Наконец, если конечной целью выступает вежливость, это, как правило, ставит в привилегированное положение тех, кто находится у власти и определяет, что является «уместным»».

Более того, политика вежливости возможно и работает не очень-то хорошо. Исследование, проведенное Хемфилл, показывает, что алгоритмы модерации пропускают некоторые из худших форм хейта. Поскольку разжигание ненависти представляет собой столь малую часть огромного языкового пространства интернета, системы машинного обучения, обученные на больших выборках общей речи, обычно не распознают его. Чтобы обойти эту проблему, Хемфилл и ее команда обучили алгоритмы на постах с крайне правого сайта националистов Stormfront, сравнив их с постами альтернативных правых в Twitter и собранием обсуждений на Reddit.

В своем докладе «Очень Хорошие Люди» (Very Fine People) Хемфилл подробно описывает выводы, показывающие, что платформы часто упускают из виду обсуждения теорий заговора о геноциде белых и злобные претензии к евреям и цветным людям. Сторонники превосходства белой расы обходят модерацию, избегая ненормативной лексики или прямых нападок, но используют характерную речь, чтобы показать свою идентичность таким образом, который очевиден для людей, а не для алгоритмов. Они подчеркивают свою превосходство, добавляя слово «белый» ко многим терминам, таким как «власть», и дегуманизируют различные группы, используя существительные во множественном числе, такие как «черные, евреи и геи».

Еще одно решение проблемы ненависти и преследования в интернете — это регулирование. Цифровой мир контролируется горсткой гигантских коммерческих компаний. Сафия Ноубл, профессор гендерных исследований Калифорнийского университета в Лос-Анджелесе, и Рашад Робинсон, президент организации Color of Change, в своей статье в газете Los Angeles Times, посвященной попыткам Илона Маска приобрести Twitter, отметили, что несколько избранных людей контролируют технологические компании, которые влияют на несметное количество жизней и общественный строй.

«Проблема не только в том, что богатые люди имеют влияние на общественное пространство, а в том, что они могут доминировать и контролировать полностью частное пространство. Они создали его, они владеют им, они формируют его так, чтобы извлекать из него прибыль», — пишут Ноубл и Робинсон. Они выступают за введение правил, подобных тем, которые действуют в сфере телевидения и телекоммуникаций. Эти правила устанавливают рамки справедливости и ответственности за причинение вреда.

Многие социологи ратуют за то, чтобы платформы создавали более здоровое пространство, настраивая алгоритмы, чтобы уменьшить акцент на потенциально агрессивном контенте. По словам Теохариса, у компаний уже есть инструменты для этого. Они могут заблокировать публикацию поста, определенного как грубый, или понизить его рейтинг в ленте пользователей, чтобы меньше людей увидели и поделились им. Или, как уже пробовал Twitter, они могут подтолкнуть пользователей к тому, чтобы они передумали публиковать что-то обидное. Команда Теохариса изучает, работают ли такие меры по снижению агрессивности.

Команда проекта «Гражданские Сигналы» рекомендует компаниям сосредоточиться на оптимизации лент с учетом того, насколько ценным является контент для пользователей, а не только для кликов. Если компании изменят свои алгоритмы таким образом, чтобы приоритет отдавался так называемым связующим сообщениям, то есть сообщениям, в которых приводятся аргументы, даже с использованием крепких выражений, без прямых нападок на других людей, то нецивилизованные сообщения будут меньше просматриваться и, следовательно, ими будут меньше делиться, и, в конечном итоге, они исчезнут из поля зрения.

Что касается прибыли, Масулло отметила, что люди недовольны нынешней обстановкой в социальных сетях. Если вы очистите общественный парк, полный гниющего мусора, больше людей будут им пользоваться.

Источник

Интересная статья? Подпишитесь на наш канал в Telegram, чтобы получать больше познавательного контента и свежих идей.

Свежие материалы