Опасные заблуждения: почему не стоит принимать речь роботов за признак сознания

Опасные заблуждения: почему не стоит принимать речь роботов за признак сознания

ИИ умеет рассказывать о своих чувствах, но это не значит, что он их на самом деле испытывает

Фото: Karls Kamera/Flickr

Когда вы читаете предложение, подобное этому, ваш прошлый опыт подсказывает, что оно написано думающим, чувствующим человеком. И в данном случае эти слова действительно напечатал человек. Привет всем! Но в наши дни некоторые предложения, удивительно похожие на человеческие, на самом деле генерируются системами искусственного интеллекта, обученными на огромных объемах человеческого текста.

Люди считают, что свободное владение языком исходит от мыслящего, чувствующего человека, а доказательства обратного трудно уложить в голове. Как им ориентироваться на этой относительно неизведанной территории? Из-за устойчивой тенденции ассоциировать свободное выражение с беглым мышлением естественно, но потенциально ошибочно считать, что если модель ИИ бегло выражает свои мысли, то она думает и чувствует так же, как люди.

Неудивительно, что бывший инженер Google заявил, что система искусственного интеллекта Google LaMDA обладает чувством собственного достоинства, поскольку она красноречиво генерирует текст о своих предполагаемых чувствах. Это событие и последующее освещение в средствах массовой информации привели к появлению скептических статей и постов об утверждении, что вычислительные модели человеческой речи разумны, то есть способны думать, чувствовать и переживать.

Сложно разобраться, что значит для модели ИИ быть разумной, но наша цель сейчас заключается не в том, чтобы ответить на этот вопрос. Как исследователи языка, мы используем свою работу в области когнитивной науки и лингвистики, чтобы объяснить, почему людям слишком легко попасть в когнитивную ловушку и счесть, что существо, свободно пользующееся языком, разумно, сознательно или обладает интеллектом.

Использование искусственного интеллекта для генерации речи, похожей на человеческую

Текст, сгенерированный такими моделями, как LaMDA от Google, трудно отличить от написанного человеком. Это впечатляющее достижение — результат десятилетней программы по созданию моделей, генерирующих грамматически осмысленную речь.

Ранние версии, датируемые 1950-ми годами, известные как n-граммные модели, просто подсчитывали совпадения определенных фраз и использовали их, чтобы угадать, какие слова будут встречаться в определенных контекстах. Например, легко понять, что «арахисовое масло и желе» — более вероятная фраза, чем «арахисовое масло и ананасы». В большом массиве текста на английском языке вы будете видеть фразу «арахисовое масло и желе» снова и снова, но, возможно, никогда не встретите сочетание «арахисовое масло и ананасы».

Современные модели — это наборы данных и правил. Они приближены к человеческому языку, но отличаются от ранних попыток несколькими важными аспектами. Во-первых, они обучаются практически на всех просторах интернета. Во-вторых, изучают взаимосвязи между словами, находящимися на большом расстоянии друг от друга, а не только между соседними. В-третьих, они настраиваются огромным количеством внутренних «регуляторов» — и даже инженерам, которые их проектируют, трудно понять, почему они генерируют одну последовательность слов, а не другую.

Однако задача моделей остается такой же, как в 1950-е: определить вероятную последовательность слов. Сегодня они настолько хорошо справляются с этой задачей, что почти все генерируемые предложения кажутся изящными и грамматически верными.

Арахисовое масло и ананасы?

Мы попросили большую языковую модель GPT-3 завершить предложение «Арахисовое масло и ананасы…». Машина предложила такой вариант: «Арахисовое масло и ананасы — отличное сочетание. Сладкий и соленый вкус арахисового масла и ананаса прекрасно дополняют друг друга». Если бы так сказал человек, то мы предположили бы, что он попробовал арахисовое масло и ананас вместе, составил мнение и поделился им с читателем.

Но как GPT-3 придумала этот абзац? Сгенерировав слово, которое соответствовало предложенному контексту. А затем еще одно. И потом еще одно. Модель никогда не видела, не трогала и не пробовала ананасы — она просто обработала все предложения в интернете, в которых они упоминаются. И все же чтение этого абзаца заставляет человеческий разум, даже если это разум инженера Google, представить GPT-3 разумным существом, которое рассуждает о блюдах из арахисового масла и ананасов.

В человеческом мозге заложена способность угадывать намерения, скрывающиеся за словами. Каждый раз, когда вы вступаете в разговор, ваш разум автоматически создает ментальную модель собеседника. Затем вы используете слова, чтобы заполнить модель целями, чувствами и убеждениями этого человека.

Процесс перехода от слов к ментальной модели происходит плавно и запускается каждый раз, когда вы получаете полноценное предложение. Этот когнитивный процесс экономит время и усилия в повседневной жизни, значительно облегчая социальное взаимодействие.

Однако в случае с системами искусственного интеллекта он дает осечку — строя ментальную модель из воздуха.

Более подробное исследование определяет серьезность этой оплошности. Рассмотрим следующее предложение: «Арахисовое масло и перья вместе очень вкусны, потому что ___». GPT-3 продолжает: «Арахисовое масло и перья вместе очень вкусны, потому что они оба обладают ореховым вкусом. Арахисовое масло гладкое и кремообразное, что помогает компенсировать текстуру перьев».

Текст в этом случае такой же беглый, как и в примере с ананасами, но на этот раз модель говорит что-то менее разумное. Начинаешь подозревать, что GPT-3 на самом деле никогда не пробовал арахисовое масло с перьями.

Приписывание интеллекта машинам и отрицание его у людей

Печальная ирония заключается в том, что та же когнитивная предвзятость, которая заставляет людей приписывать человечность GPT-3, приводит к бесчеловечному обращению с реальными людьми. Социокультурная лингвистика — изучение языка в социальном и культурном контексте — показывает, что предположение о чрезмерно тесной связи между свободным выражением и свободным мышлением приводит к предвзятому отношению к людям, говорящим иначе.

Например, людей с иностранным акцентом часто считают менее умными, и они с меньшей вероятностью получат квалифицированную работу. Подобные предубеждения существуют и в отношении носителей диалектов, которые не считаются элитными, например, южный английский в США, а также в отношении глухих, использующих языки жестов, и людей с дефектами речи, такими как заикание.

Эти предубеждения очень вредны, часто приводят к расистским и сексистским предположениям, а их необоснованность уже не единожды доказана.

Свободное владение языком само по себе не говорит о человечности

Станет ли ИИ когда-нибудь разумным? Этот вопрос требует глубокого осмысления, а философы размышляют над ним на протяжении десятилетий. Однако исследователи пришли к выводу, что нельзя просто доверять языковой модели, когда она говорит о своих чувствах. Слова вводят в заблуждение, и слишком легко принять беглую речь за свободное мышление.

Источник

Свежие материалы