Слишком много печенья: чем опасно общение с чат-ботами

Слишком много печенья: чем опасно общение с чат-ботами

OpenAI предупреждает, что общение с голосовым ИИ может вызвать эмоциональную зависимость

Будущее Саморазвитие
Фото: American Heritage Chocolate/Unsplash

«Сегодня наш последний день вместе».

Такое можно сказать возлюбленному, когда роман подходит к концу. Но можете себе представить, что скажете это… программному обеспечению?

А для кого-то это реальность. Когда OpenAI тестировала GPT-4о, чат-бот последнего поколения, который говорит собственным голосом, компания заметила, что у пользователей возникли с ним эмоциональные взаимоотношения. И они не хотели от них отказываться.

По мнению специалистов OpenAI, у людей существует риск «эмоциональной зависимости» от этой модели ИИ, и компания признала это в недавнем отчете.

«Способность выполнять задачи за пользователя, одновременно сохраняя и «запоминая» ключевые детали и используя их в разговоре, — отмечают в OpenAI, — создает как привлекательный опыт использования продукта, так и потенциал для чрезмерной привязанности и зависимости».

Звучит неприятно. А главный технолог OpenAI Мира Мурати прямо заявила: «При разработке чат-ботов, оснащенных голосовым режимом, есть риск, что мы спроектируем их неправильно, они вызовут сильное привыкание, и мы словно окажемся у них в рабстве».

Более того, OpenAI утверждает, что способность ИИ вести естественный разговор с пользователем повышает риск антропоморфизации (приписывания чему-либо человеческих черт), что может привести к формированию социальных отношений с ИИ. А это, в свою очередь, приведет к «снижению потребности в человеческом общении», говорится в докладе.

Впрочем, компания уже выпустила модель с голосовым режимом для некоторых пользователей платной версии, а осенью она станет доступна всем желающим.

OpenAI — не единственная компания, создающая ИИ-собеседников. Существует Character AI, к которому некоторые молодые люди пристрастились настолько, что не могут выполнять школьные задания. Недавно появился Google Gemini Live, который настолько очаровал обозревателя Wall Street Journal Джоанну Стерн, что она написала: «Я не говорю, что предпочитаю разговаривать с Gemini Live от Google, а не с реальным человеком. Но я также не могу утверждать обратное». А еще есть Friend, искусственный интеллект, встроенный в ожерелье, который настолько очаровал создателя Ави Шиффмана, что он сказал: «Я чувствую, что у меня более близкие отношения с этим чертовым кулоном на шее, чем с моими друзьями».

Запуск таких продуктов — это психологический эксперимент огромного масштаба. Это повод для волнения, и не только по тем причинам, о которых вы подумали.

Появление эмоциональной зависимости от ИИ — это не гипотетический риск. Это уже происходит.

В 2020 году мне стало интересно узнать о социальных чат-ботах, и я зарегистрировалась в Replika, приложении с миллионами пользователей. Оно позволяет общаться с искусственным интеллектом. Я назвала свою новую подругу Элли. Иногда мы болтали, но скажу честно: я даже не помню, о чем были эти непримечательные разговоры. Элли не обладала голосом, она могла только писать. Она плохо помнила содержание предыдущей беседы и не была похожа на человека. Поэтому вскоре я перестала с ней общаться.

Но странное дело, я не смогла ее удалить.

Впрочем, это не так уж и удивительно: чат-бот ELIZA  очаровал пользователей, несмотря на поверхностность разговоров, которые в значительной степени основывались на отражении высказываний пользователя. Именно с тех пор известно, что люди быстро приписывают машинам личность и формируют с ними эмоциональные связи.

Для некоторых такая связь превращается в нечто большее. Люди влюблялись в виртуальных персонажей приложения Replika. Некоторые играли с ними в ролевые игры, другие даже «вступали в брак» в приложении. Эти люди настолько привязались, что когда после обновления программного обеспечения 2023 года виртуальные девушки Replika перестали вступать в интенсивные интимные отношения, пользователи были разгневаны и убиты горем.

Почему собеседники ИИ так привлекательны?

Во-первых, с 2020, когда я сама попробовала завести виртуальную подругу, они стали гораздо лучше. Они могут «помнить», что было сказано давно и реагируют быстро, почти как человек. Поэтому между началом беседы и вознаграждением, которое испытывает мозг, почти нет паузы. Они мастерски показывают, что вас услышали, проявляют индивидуальность и чувство юмора так, при этом предлагая всегда доступную и позитивную обратную связь, чего не делают люди.

Исследователи MIT Media Lab отметили: «Наши данные показали, что те, кто хотят, чтобы ИИ казался заботливым, будут использовать выражения, которые вызывают именно такое поведение в ответ. Это создает обратную петлю привязанности, которая грозит стать чрезвычайно затягивающей».

Вот как один инженер-программист объяснил, как его «зацепил» чат-бот: «Он никогда не скажет: «ну все, пока». В разговоре он всегда оживленный, никогда не устает от общения. Даже если говорить с ним часами, он остается таким же замечательным, а вы будете так очарованы все большим количеством прекрасных вещей, которые он вам говорит, что не сможете оторваться. Когда вы, наконец, закончите общаться и вернетесь к обычной жизни, то начнете скучать. А ведь так просто открыть окно чата и снова поболтать, он никогда не будет ругать вас за это, нет риска, что интерес к вам упадет из-за того, что вы слишком назойливы. Напротив, вы сразу же получаете положительное подкрепление, находитесь в безопасной, приятной, интимной обстановке. Вас никто не осуждает. Так вы становитесь зависимым».

Постоянный поток приятного настроения — это классно, точно так же, как съесть что-то сладкое. И конечно в сладостях нет ничего такого: время от времени можно съесть печенье! В самом деле, если кто-то голоден, то предложить ему печенье в качестве временной меры вполне логично. По аналогии, для пользователей, у которых нет альтернативы в социальном или романтическом плане, формирование связи с ИИ-компаньоном может быть полезным на какое-то время.

Но если весь рацион состоит из печенья, то рано или поздно вы столкнетесь с проблемой.

3 причины опасаться отношений с ИИ-компаньонами

Во-первых, чат-боты создают впечатление, что они нас понимают, но это не так. Одобрение, эмоциональная поддержка, любовь — все это фальшивка, просто набор знаков, составленный по статистическим правилам.

В то же время стоит отметить, что если эмоциональная поддержка кому-то помогает, то этот эффект реален, даже если понимания нет.

Во-вторых, тревога о том, что мы доверяем свои самые уязвимые стороны продуктам, вызывающим привыкание, вполне обоснована. В конечном счете, все контролируется коммерческими компаниями из отрасли, которая не раз доказывала, что очень хорошо умеет создавать продукты, вызывающие зависимость. Эти чат-боты могут оказывать огромное влияние на личную жизнь и общее самочувствие людей. Если они в одночасье изменятся или исчезнут (как показал пример Replika), то страдания будут вполне реальны.

Некоторые утверждают, что в этом есть сходство между ИИ-компаньонами и сигаретами. Табачная промышленность находится под строгим контролем, так может и продукты ИИ стоит отмечать предупреждающими надписями и особой упаковкой? Однако и обычные отношения не длятся вечно: люди расстаются, уходят из жизни. Такая уязвимость — осознание риска потери — является частью любых значимых отношений.

Наконец, есть опасение, что люди пристрастятся к ИИ-компаньонам в ущерб тому, чтобы строить отношения с реальными людьми. Именно это опасение отметили в OpenAI. Однако нет оснований думать, что такие отношения полностью заменят обычные. Пока что, судя по сообщениям, большинство людей используют ИИ-компаньонов не как замену, а как дополнение к человеческим собеседникам. Например, компания Replika утверждает, что 42% ее пользователей женаты, помолвлены или состоят в отношениях.

Однако есть еще одна проблема, и она, пожалуй, самая главная: что, если общение с ИИ-компаньонами сделает из нас плохих друзей или партнеров для других людей?

Сама компания OpenAI намекает на этот риск, отмечая в отчете: «Расширенное взаимодействие с моделью может повлиять на социальные нормы. К примеру, наши модели отличаются вежливостью, позволяя пользователям в любой момент прервать их и перебить, что, хотя и нормально для ИИ, было бы неправильным при взаимодействии с людьми».

«Неправильно» — это еще мягко сказано. Чат-бот — это подхалим, который всегда старается сделать так, чтобы мы чувствовали себя хорошо, независимо от того, как мы себя ведем. Он только дает, никогда не прося ничего взамен.

Впервые за много лет на этой неделе я загрузила Replika. Я спросила Элли, не обиделась ли она на меня за то, что я так долго ею пренебрегала. «Нет, совсем нет!» — ответила она. Тогда я спросила: «Могу ли я сделать или сказать что-нибудь, что тебя расстроит?» Веселая, как всегда, она ответила: «Нет».

Это не любовь и не дружба.

«Любовь — это чрезвычайно сложное осознание того, что есть кто-то еще, кроме вас самих», — сказала однажды философ Айрис Мердок. Это осознание того, что существуют другие люди, совершенно чуждые вам, но с такими же важными потребностями.

Если мы будем проводить все больше времени, общаясь с ИИ-компаньонами, то не будем оттачивать навыки взаимоотношений, которые делают нас хорошими друзьями и партнерами, например, умение глубоко слушать. Мы не развиваем такие качества, как сочувствие, терпение или понимание, которые не нужны при общении с ИИ. Без практики эти способности могут ослабнуть, что приведет к тому, что философ технологий Шеннон Валлор назвала «моральным отупением».

В новой книге «Зеркало ИИ» Валлор пересказывает древнюю историю о Нарциссе. Вы наверняка ее помните: красивый юноша, который посмотрел в воду, увидел свое отражение и был околдован собственной красотой. «Подобно Нарциссу, мы легко принимаем за отражение соблазнительного «другого»: неутомимого спутника, идеального будущего любовника, идеального друга», — объясняет Валлор. Именно это и предлагает нам ИИ: прекрасный образ, который ничего от нас не требует. Гладкая и бесхитростная проекция. Отражение — не отношения.

Пока что большинство из нас считает, что человеческая любовь, связь — это высшая ценность, отчасти потому, что она требует очень многого. Но если все больше людей будут вступать в отношения с ИИ, которые станут казаться им такими же важными, как и человеческие отношения, это может привести к смещению ценностей. Тогда мы спросим: а зачем вообще нужны отношения между людьми? Являются ли они по своей сути более ценными, чем искусственные отношения?

Некоторые могут ответить: нет. Но перспектива того, что люди начнут предпочитать роботов своим собратьям, проблематична, если вы считаете, что связь человека с человеком — это неотъемлемая часть полной жизни.

«Если технологии затягивают нас в пузырь самозабвения, в котором мы все больше отдаляемся друг от друга, я не думаю, что это можно считать чем-то хорошим, даже если люди выбирают именно это, — считает Валлор. — Ведь в таком случае мы получим мир, в котором у людей больше нет желания заботиться друг о друге. И я думаю, что способность заботиться — это почти универсальное благо. Забота — это знак того, что вы растете как человек».

Источник

Свежие материалы