Пожалуйста, чат-бот! Как ИИ меняет отношение людей друг к другу

Пожалуйста, чат-бот! Как ИИ меняет отношение людей друг к другу

Люди переносят лексикон ежедневного общения в диалоги с искусственным интеллектом, но процесс может пойти и в обратную сторону

Будущее
Фото: COSCUP/Flickr

Общение с компьютером долгие годы не было похоже на общение с человеком. Компьютеры в первое время требовали тщательно составленных инструкций, передаваемых с помощью перфокарт, затем появился интерфейс командной строки, а за ним – меню, опции и текстовые окна. Если вам нужны были результаты – нужно было выучить язык компьютера.

Но ситуация меняется. Большие языковые модели (LLM) – технология, лежащая в основе современных чат-ботов, – дает пользователям возможность «разговаривать» с компьютерами естественным способом. Это инновация, содержащая опыт общения между людьми. На раннем этапе нашего наблюдения за ChatGPT мы обнаружили, что набираем слово «пожалуйста», с которым раньше к компьютеру не обращались. Синтаксис вежливости проник практически во все аспекты «общения», мы разговариваем с этой алгебраической конструкцией, будто она личность, даже если знаем, что это не так.

Сейчас такого рода взаимодействие еще в новинку. Но поскольку чат-боты становятся постоянным элементом современной жизни и охватывают многие аспекты нашего общения с компьютерами, у них есть возможность незаметно изменить то, как мы думаем и о компьютерах, и о людях.

Один из вариантов, куда они могут нас привести, – это общество, приписывающее человечность ИИ-системам, будь то абстрактные чат-боты или более реалистичные роботы. Точно так же, как мы биологически запрограммированы видеть лица в предметах, мы находим интеллект у всего, что может поддерживать разговор. (Это не новость: люди приписывали интеллект и эмпатию Элизе – очень примитивному чат-боту 1960-х годов). Мы LLM говорим «пожалуйста», потому что чувствуем – сделать иначе будет неправильно.

Чат-боты распространяются, и есть основания полагать, что они станут еще более интимной частью нашей жизни. Рынок ИИ-компаньонов – от друзей до романтических партнеров – уже полон. Одни компании работают над созданием ИИ-помощников, похожих на секретарей или прислугу, угадывающих и удовлетворяющих наши желания. Другие компании – над ИИ-терапевтами, медиаторами, лайф-коучами и даже подобиями наших умерших родственников. В более широком смысле чат-боты, скорее всего, станут интерфейсом для взаимодействия человека со всеми видами компьютеризированных процессов – искусственным интеллектом, реагирующим на нашу манеру речи, нюансы настроения и даже тон голоса.

Многие пользователи будут склонны думать о них как о друзьях, а не как о созданных корпорациями системах, чем они на самом деле являются. Интернет уже шпионит за нами через рекламные настройки соцсетей, и LLM, вероятно, к этому присоединится. Например, политика конфиденциальности OpenAI описывает множество различных типов личной информации, которую собирает компания. Разница в том, что интерфейс на естественном языке создает ощущение, что чат-бот более человечен, и это усиливается взаимной вежливостью, поэтому мы легко можем ошибаться в своем восприятии.

Основные чат-боты пока не меняют стиль общения с пользователями ради реализации бизнес-интересов создавших их компаний, но давление рынка способно подтолкнуть ситуацию в этом направлении. В ответ на запрос представитель OpenAI указал на раздел политики конфиденциальности, отметив, что компания в настоящее время не продает и не передает личную информацию для «кросс-контекстной поведенческой рекламы» и «не обрабатывает конфиденциальную личную информацию в целях определения характеристик потребителя». Но в недавнем интервью Axios генеральный директор OpenAI Сэм Альтман заявил, что будущие поколения ИИ могут включать «довольно много индивидуальных настроек», и «это вызовет дискомфорт у многих людей».

Доказано, что и другие компьютерные технологии формируют наше восприятие. Согласно исследованиям, автозаполнение на веб-сайтах и в текстовых процессорах может существенно изменить то, как мы пишем. Как правило, эти рекомендации приводят к более мягким и предсказуемым высказываниям. Если же системы автозаполнения выдают предвзятые подсказки, такими же будут и реплики. В одном эксперименте положительные варианты автозаполнения увеличивали количество положительных отзывов о ресторанах, а отрицательные – наоборот. Но последствия могут выйти далеко за рамки изменения нашей манеры письма и повлиять на психическое здоровье, как и в случае с соцсетями, склонными провоцировать депрессию и тревогу.

Другой вариант, куда нас могут привести чат-боты, и он беспокоит еще больше, – это мир, где наше с ними общение становится причиной, что к людям мы начинаем относиться так же равнодушно, без уважения и учтивости, как и к машинам.

Сегодняшние чат-боты работают лучше всего, если данные им инструкции настолько четко выражены, что в человеческом общении это выглядело бы грубо, а также лишены любезностей, которые модель могла бы неправильно истолковать: «Напишите абзац из 250 слов в моем типичном стиле, дайте три развернутых примера в поддержку следующего тезиса и приведите свои источники». Даже самый бесчувственный руководитель корпорации, вероятно, не станет так разговаривать со своим помощником, но для общения с чат-ботами это обычное дело.

Если чат-боты станут для некоторых людей основными ежедневными собеседниками, есть серьезный риск, что эти пользователи усвоят лексикон ИИ-команд даже при общении с другими людьми. Вместо эмпатичной, изящной и деликатной беседы мы привыкнем к холодной точности компьютерных команд, отдаваемых программистом. Яркие афоризмы и анекдоты, сбивающие с толку LLM, но делающие общение именно человеческим, могут из него исчезнуть.

Для примера достаточно взглянуть на то, как в социальных сетях боты ухудшают цифровой дискурс, разжигая страсти грубо запрограммированными ответами на глубоко эмоциональные темы. Для некоторых пользователей ИИ-компаньоны, вероятно, будут составлять основную часть социального окружения и потенциально оказывать гораздо большее влияние на то, как эти люди используют язык и ориентируются в отношениях. Пока сложно сказать, негативно это повлияет на одного человека из миллиарда или на большую их часть.

Такой сдвиг вряд ли превратит человеческие беседы в карикатурно-роботизированное говорение в одночасье, однако с течением времени он может сделать это незаметно, но существенно. Так же, как в текстовых сообщениях ограничение по количеству символов превратило аббревиатуры LOL и IMHO в повседневный сленг.

Чат-боты с ИИ всегда рядом – в любой момент и для любых целей. Люди не таковы. Представьте себе будущее, где человек годами общается с искусственными друзьями или романтическими партнерами. К людям его ожидания будут так же нереалистичны, как у того, чей сексуальный опыт был опосредован порнографией или эротикой. И чем более распространенными и человекоподобными станут чат-боты, тем сильнее будет их влияние.

В более глобальном смысле ИИ может ускорить разрушение институционального и социального доверия. Предполагалось, что технологии, вроде соцсетей, объединят мир, но за прошедшие годы люди стали всё с большей опаской относиться к окружающим и меньше доверять гражданским институтам. ИИ может еще сильнее подтолкнуть их к изоляции и подозрительности, поскольку они не уверены, с кем общаются – с машинами или людьми, и независимо от этого относятся к ним не по-человечески.

Конечно, история полна тех, кто заявляет, что цифровое небо падает, а каждое новое изобретение – это конец цивилизации, какой мы ее знаем. В конце концов, LLM может оказаться лишь текстовым процессором будущего, удобной инновацией, делающей работу немного проще, но не затрагивающей основную часть нашей жизни. Какой путь мы выберем, зависит от того, как обучим чат-ботов завтрашнего дня, но также зависит и от того, вкладываемся ли мы сегодня в укрепление связей гражданского общества.

Источник

Свежие материалы