В сентябре было опубликовано новое исследование с многообещающими результатами: чат-бот, получивший название «DebunkBot», успешно разубеждал сторонников теории заговора. По сравнению с другими способами воздействия, эффект был значительным: уверенность людей в правильности теории заговора снизилась в среднем на 20%. Исследование стало одним из первых, где искусственный интеллект использовался для снижения конспирологических убеждений, которые, как известно, плохо поддаются внешнему вмешательству.
Публикация исследования пришлась как нельзя кстати. В социальных сетях все чаще распространяются фальшивые материалы о политике и других спорных вопросах, вызывающих полярные настроения, процветает дезинформация и ошибочные сведения. DebunkBot — не первая попытка бороться с ложью. Ученые-социологи и психологи пытались разработать меры воздействия, особенно на сторонников теорий заговора, но многие из них до сих пор имели практические ограничения и незначительный эффект.
«Всегда было очень трудно добиться смены мнения, изменения мышления людей, — считает Джанлука Демартини, специалист по изучению дезинформации из Квинслендского университета, не принимавший участия в исследовании. — Так что это, похоже, пока что самый эффективный метод воздействия на сторонников конспирологии».
Однако, по мнению экспертов, DebunkBot должен еще доказать свою эффективность. Исследователи до сих пор не могут понять, почему именно он работает лучше, чем другие методы. Между тем, в целом использование искусственного интеллекта в качестве средства убеждения вызывает опасения, особенно в связи с возможным злоупотреблением со стороны людей с недобрыми намерениями.
По словам исследователя дезинформации из Цюрихского университета Федерико Джермани, тщательное изучение воздействия на общество и человеческий контроль по-прежнему имеет решающее значение для эффективной борьбы с дезинформацией без эффекта возврата к старым заблуждениям. «Мы должны глубоко понять процесс», — подчеркивает ученый.
В последние годы, по мере развития искусственного интеллекта, эксперты все больше обеспокоены распространением дезинформации. Некоторые исследователи предлагают использовать технологии в качестве инструмента для обнаружения и борьбы с фейками. Многие из них считают, что чат-боты, созданные на основе больших языковых моделей, которые обучаются на огромных объемах данных, могут служить средством проверки фактической информации. «ИИ обладает огромным потенциалом для этого», — утверждает Джермани.
Ряд свежих работ показал многообещающие результаты. Одно из исследований, соавтором которого в прошлом году выступил Джермани, показало, что модели ИИ, подобные GPT-3, могут передавать точную и понятную информацию, зачастую лучше, чем люди. В другой работе, опубликованной в прошлом году в Бразилии, чат-бот под названием CoronaAI использовался для распространения фактов о Covid-19 через WhatsApp. Оказалось, что пользователи, среди прочего, просили бота проверить потенциальные фальшивые новости. А в недавно опубликованном исследовании ChatGPT развенчивал мифы о болезни Альцгеймера с точностью, которая устроила врачей.
Однако если в отношении обычной дезинформации такие методы показали эффективность, то конспирологические теории, утверждающие, что события являются результатом тайных заговоров, как правило, более устойчивы и труднее поддаются влиянию. Одна из причин, почему такие убеждения прочно удерживаются в обществе, в том, что они удовлетворяют психологические потребности. Например, конспирология дает объяснение сложным или тревожным событиям, дарит людям ощущение понимания и контроля в неопределенных ситуациях или обеспечивает чувство общности.
Поскольку специалисты не нашли других эффективных способов решить проблему, они решили попробовать новые технологии. Одно из исследований 2022 года показало потенциал искусственного интеллекта. Группа ученых сравнила, как меняются убеждения людей после получения информации, опровергающей теорию заговора об изменении климата: либо через новостные статьи, либо через чат-ботов с разным уровнем эмпатии. Эмпатичные чат-боты оказались более эффективными, чем новостные статьи, но только для тех участников, которые спокойно воспринимали неопределенность. Исследователи провели аналогичное сравнение для информации о Covid-19, но обнаружили, что в этом случае новости были более эффективны.
Новое исследование с DebunkBot подтвердило идею о том, что искусственный интеллект может сдвинуть с мертвой точки конспирологические убеждения на период до двух месяцев после воздействия. Исследователи из Массачусетского технологического института, Корнельского университета и Университета Америки использовали последнюю версию популярной модели ChatGPT-4, чтобы разрушить прочно укоренившиеся заблуждения. Сначала люди сообщали о том, что они верят в определенную теорию заговора, например, в то, что трагедия 11 сентября была спланирована правительством США, и писали краткую заметку, объясняющую причины, по которым они в это верят. Затем бот вкратце описывал теорию, и участникам было предложено оценить уверенность в ней по шкале от 0 до 100.
Чат-боту давали задание опровергнуть эту теорию. Бот провел с испытуемыми три цикла общения в формате вопросов и ответов, в ходе которых приводил факты о том, почему первоначальные утверждения участников были неверны. В то же время контрольная группа общалась с ботом на другие темы. После беседы участников вновь попросили оценить, насколько они верят в заговор.
Люди, которые общались с ботом по поводу конкретной конспирологической идеи, отметили на 20% меньший уровень убежденности, в то время как те, кто общался по другому поводу, не связанному с теорией заговора, остались при своем. Этот эффект превосходил все ранее проведенные исследования попыток переубедить людей. Ученые обнаружили своего рода побочный эффект: DebunkBot снизил уверенность участников в других теориях заговора (по результатам опроса, в котором задавались вопросы о 15 различных конспирологических идеях), помимо той, о которой общались бот и человек.
По словам Хавьера Гранадоса Самайоа, социального психолога из Университета Пенсильвании, такие значительные эффекты не наблюдались в материалах по изучению теории заговора. «Исследователи первые, кто показал такую значительную эффективность в попытке избавить людей от заблуждений», — добавил он.
У исследователей есть разные объяснения произошедшему. По словам Томаса Костелло, психолога из Университета Америки и ведущего автора исследования, теории заговора отличаются друг от друга. «Они похожи на снежинки, где нет двух одинаковых систем убеждений», — объясняет он. Однако чат-бот, располагающий огромным количеством данных, может персонализировать ответ и предоставлять индивидуальные факты так, как это не удавалось сделать в ходе предыдущих попыток. «Когда вы смотрите вглубь того, во что человек верит на самом деле, то оказывается, что это довольно широкий спектр самых разных убеждений. Это не учитывалось в тех вмешательствах и методах воздействия, которые мы использовали раньше», — добавляет он.
По мнению Костелло, успех DebunkBot также многое говорит о скрытой психологии сторонников теории заговора. «Люди действительно довольно рациональны, за некоторыми исключениями, и если вы предоставите им информацию, которая говорит именно об их позиции, они изменят свое мнение», — утверждает ученый.
Но некоторые эксперты, например, Джермани, полагают, что есть нечто более важное: «Вероятно, дело не в предоставлении фактической информации как таковой, а в том, как эта информация доводится до участников исследования».
Кроме того, участники сообщили о возросшем намерении игнорировать или отписываться от аккаунтов в социальных сетях, поддерживающих теории заговора. И когда исследователи вернулись к участникам через два месяца, изменения сохранились. По словам ученых, это только начало раскрытия влияния эффекта, поскольку еще предстоит выяснить, продлится ли эффект дольше двух месяцев и действительно ли он влияет на поведение.
По словам специалистов, дальнейшие исследования могут помочь выяснить причины, по которым люди верят чат-боту. Например, может быть, чат-бот кажется более нейтральным и объективным. Это позволит усовершенствовать процесс разубеждения. Настраивая различные аспекты модели, такие как продолжительность ответа бота или его дружелюбность, исследователи поймут факторы, лежащие в основе позиции людей, и в конечном итоге интегрировать их в реальные действия.
Костелло и его коллеги предполагают, что в будущем DebunkBot или аналогичный инструмент можно будет интегрировать в онлайн-поисковики или платформы социальных сетей, чтобы при поиске информации о теориях заговора в интернете человеку предлагалось взаимодействовать с ИИ. Но хотя использование такого инструмента для борьбы с дезинформацией может иметь много практических преимуществ, у него есть и ограничения.
Например, в Калифорнии Департамент общественного здравоохранения запустил чат-бот, предлагающий достоверную информацию о Covid-19 на английском и испанском языках через WhatsApp. Но для такого инструмента нужен смартфон, что может усугубить существующее неравенство в доступе к информации и в усилиях по изменению убеждений, считает Лотте Пуммерер, социальный психолог из Бременского университета в Германии.
Кроме того, убедить ярых приверженцев теории заговора может быть гораздо сложнее. В исследовании с DebunkBot люди, которые заявили, что их убеждения важны для картины мира, сообщили о меньшем снижении уверенности после разговора с чат-ботом. Эффективность воздействия во многом зависит от готовности участников взаимодействовать с ИИ, подчеркивает Демартини. Люди должны взаимодействовать с ботом, чтобы он мог выполнять свою работу.
Тем временем еще предстоит выяснить, будет ли это работать в отношении других видов дезинформации, в частности той, что связана с политическими вопросами. «Я думаю, будет сложнее, если тема будет проходить по партийным линиям и будет полярной», — предполагает Костелло.
«Если речь идет о чем-то, что начинает затрагивать ценности или соответствует более широкой картине мира, — отмечает ученый, — я был бы менее оптимистичен, но попробовать стоит». В настоящее время Костелло проводит эксперименты с использованием DebunkBot не только в отношении конспирологии, но и других заблуждений, таких как вера в существование призраков.
Другие эксперты опасаются, что способность ИИ убеждать может привести к обратному результату. В нечистоплотных руках чат-боты могут быть использованы для убеждения людей в теориях заговора или укрепления их заблуждений. Например, в исследовании 2023 года, которое показало, что GPT-3 может передавать точную информацию лучше, чем человек, также было обнаружено, что чат-бот может создавать убедительную дезинформацию. Как показывают другие работы, ИИ уже способен генерировать убедительные ложные тексты, изображения и видео. «Легко представить себе, как мошенники используют такую модель для ведения бесед, убеждения людей в чем угодно, даже в теориях заговора или для голосования за кого-то на следующих выборах», — говорит Демартини.
И хотя ИИ может стать полезным инструментом для понимания человеческой психологии и потенциального решения проблем дезинформации, таких как конспирологические убеждения, эксперты сходятся во мнении, что в этой области еще предстоит оценить, какие последствия принесет распространение таких технологий в реальном мире.