€ 95.62
$ 89.10
Без ума умные: почему сложность ИИ принимают за интеллект

Без ума умные: почему сложность ИИ принимают за интеллект

Как человек очеловечивает всё, что не понимает

Будущее
Фото: ravi kumar/Flickr

Что стоит считать признаком разумности искусственного интеллекта? Есть версия, что это способность к пониманию, какой обладает человек. При этом возникает парадокс: если человек понимает внутреннюю механику разумности другого существа, то обладателем разума его не считает. И наоборот. О том, почему этот парадокс так важен сегодня, когда внутренняя механика ИИ становится всё более сложной, размышляет профессор философии из Бруклинского колледжа Самир Чопра.

В рассказе «Робби» – первом из культового сборника «Я, робот» Айзека Айзимова – есть одна весьма актуальная сегодня мысль. У Глории – восьмилетней дочери супругов Уэстон – няней служит робот Робби. Между ним и девочкой складываются очень теплые и добрые отношения, которые мать Глории начинает считать «неестественными», потому что увлеченная этой дружбой девочка практически не общается со сверстниками. Кроме того, миссис Уэстон считает, что робот может причинить ребенку вред, несмотря на Первый закон робототехники (в этом тексте автор впервые упоминает о нем), она не хочет, чтобы ее ребенка воспитал робот, и т. д. и т. п. В итоге родители разлучают Глорию и Робби в надежде, что девочка забудет своего друга. А когда этого не происходит, пытаются разрушить ее привязанность, показав, что Робби – это всего лишь собранный механизм, а «не тот, кем она его считает», не личность, которую она любит. Но и этот план проваливается.

С философской точки зрения, по словам Чопры, в этой истории важно то, что наше понимание разумности другого существа зависит не столько от понимания его сущности, сколько от нашего представления, чем эта разумность обеспечивается. «Те, кто взаимодействует с искусственными агентами, не зная (или не пытаясь узнать), как они внутри “на самом деле работают”, будут развивать с ними особые отношения и приписывать им те психические качества, которые соответствуют этим отношениям, – поясняет он. – Например, Глория думает, что Робби разумен, а ее родители думают, что могут свести его, казалось бы, интеллектуальное поведение к машинным операциям более низкого уровня».

И здесь возникает парадокс. Если мы точно знаем, что обеспечивает разумное поведение, к примеру, робота – определенный перечень внутренних операций более низкого уровня, который, по сути, демистифицирует его действия, – мы склонны отказывать ему в разумности, поскольку считаем, что он действует в соответствии с этим перечнем. И наоборот, те существа, «внутренние операции» которых мы не понимаем, кажутся разумными.

Это связано, с одной стороны, с тем, что мы не понимаем сущности ментальных качеств, которые приписываются человеку. «Такие качества, как интеллект, интуиция, креативность, проницательность, понимание, имеют одно общее свойство: мы не знаем, что они собой представляют, – говорит Чопра. – Несмотря на экстравагантные утверждения, часто транслируемые специалистами в области нейробиологии и эмпирической психологии, а также различными учеными-когнитивистами, эти комплименты, адресованные самим себе, остаются неопределимыми». Иначе говоря, любая попытка их охарактеризовать приводит к «порочному кругу» определения друг через друга, например, «истинный интеллект требует интуиции и креативности».

С другой стороны, это связано с антропоморфизацией любого достаточно сложного и интересного объекта, когда отсутствует понимание, какие механизмы обеспечивают его кажущиеся разумными действия. В данном случае приписывание человеческих качеств объекту преследует цель «управлять нашим взаимодействием с ним, понять, почему он делает то, что он делает, и, что важно, попытаться предсказать его поведение». Ярким историческим примером этому служит мифологическое очеловечивание природных явлений и т. п.

Примечательно, что та же самая антропоморфизация происходит и по отношению к любому другому человеку, который не-я. Для этого есть несколько причин. С одной стороны, знание, что у других людей есть разум, – это, по сути, допущение. «Если они выглядят, как я, ведут себя, как я, полагаю, что у них должен быть мозг, подобный моему, который, думаю, работает так же, как мой», – говорит Чопра. С другой стороны, физические корреляты человеческого интеллекта до сих пор неизвестны: «Мы никогда не вскрываем мозг других людей, чтобы проверить наличие разума, потому что не знаем, что искать. Мы знаем, что увидели бы мозг, но не знаем, как он работает».

В результате, антропоморфизировать других людей, или «обращаться с ними так, как если бы они были точно такими же, как я» – это лучший способ понять их, когда их «сложное и плохо изученное внутреннее устройство не позволяет нам объяснить, предсказать и понять их взаимодействие с нами с точки зрения их физических свойств».

Кроме того, антропоморфизация людей делает существование более комфортным по сравнению с существованием «солипсическим, опирающимся на убеждение, что мой разум – единственный, который существует». А это вероятный вариант, если, к примеру, других людей считать кем-то вроде инопланетян, «которые похожи на меня и действуют, как я, но не похожи на меня в каком-то “важном, решающем” смысле, поскольку у меня нет убедительных доказательств, что их внутренняя жизнь и разум подобны моим».

Эти философские рассуждения, по словам Чопры, важны именно сейчас, потому что приближается момент, когда «разумность» искусственного интеллекта станет непостижимой – исчезнет возможность объяснить перечнем операций то, как был получен тот или иной результат. «Обратите внимание на недоуменную реакцию некоторых разработчиков ChatGPT на его якобы “эмерджентное” поведение, когда кажется, что никто не знает, как именно ChatGPT дал те ответы, которые дал», – говорит он.

И добавляет, что объяснять это чем-то вроде автозавершения командной строки всё равно, что объяснять людей возбудимостью нейронов – это не добавляет понимания ни в том, ни в другом случае. Поэтому, утратив понимание внутренней механики систем ИИ, мы, по словам Чопры, вероятно, сразу же припишем им разумность, что будет, возможно, «лучшим способом понять, что и почему они делают», а также «вопросом не открытия, а прагматики».

Прагматика же здесь заключается в том, чтобы при правовом регулировании исследований ИИ соблюсти необходимый баланс. С одной стороны, говорит Чопра, «мы хотим технических и социальных преимуществ ИИ, …поэтому хотим, чтобы конструкторы продолжали разработку таких систем», а конструкторы нуждаются «в покрытии ответственности», иначе риски, в том числе финансовые, слишком велики. С другой стороны – «чтобы общество было защищено и от негативного воздействия интеллектуальных систем, особенно если они способны к непрогнозируемым действиям, а это, конечно, является их предпочтительным функционалом». Другими словами, с юридической и экономической точек зрения «необходимо надлежащим образом распределить риски и ответственность».

Один из способов сделать это – пересмотреть понимание искусственного интеллекта. «Когда у нас есть концептуальное представление о том, что искусственные агенты, с которыми мы взаимодействуем, являются агентами в психологическом смысле – то есть мы понимаем, что их действия вызваны их убеждениями и желаниями, – это позволит нам рассматривать эти системы как законных агентов тех, кто их разрабатывает и внедряет», – объясняет Чопра.

К примеру, чат-бот Bing будет, по его словам, законным агентом своего принципала Microsoft, который несет ответственность за действия программы и ее последствия (интересы общества), но в рамках ее обязанностей (интересы разработчика). В таком случае зоной ответственности, допустим, версии Bing для рекомендаций по ценообразованию будет именно ценообразование, и Microsoft обязан нести ответственность за плохие рекомендации только в этой области и никакой другой.

И в этой связи интересна ситуация с Gmail – агентом Google, сканирующим сообщения электронной почты для последующей таргетированной рекламы, что дало повод обвинить компанию в нарушении конфиденциальности. Google подобные обвинения отвергла на том основании, что это делала программа, а не люди. Чопра считает подобный ответ «смешным», но при этом отмечает, что если бы в данной ситуации искусственному интеллекту был предоставлен статус законного агента – т. е. фактическое признание его разумности, – это бы не умалило прав человека, а наоборот их защитило.

И хотя сейчас человек как обладатель разума испытывает в отношении созданных им роботов и систем ИИ скорее фамильярность с оттенком презрения и превосходства, но это неизбежно изменится и тем быстрее, чем меньше создатель будет понимать, как и о чем «думают» его детища.

 

Источник

Свежие материалы