Я слышал, что в будущем компьютеризированный искусственный интеллект станет настолько умнее нас, что захватит всю нашу работу и ресурсы, а люди вымрут. Это правда?
Это самый распространенный вопрос, который мне задают всякий раз, когда я говорю об ИИ. И задают очень серьезным тоном. Это беспокойство частично связано с тем, что некоторые эксперты задаются таким же вопросом. Среди них умнейшие из ныне живущих людей, такие как Стивен Хокинг, Илон Маск, Макс Тегмарк, Сэм Харрис и Билл Гейтс, и они считают, что этот сценарий вполне может стать реальностью. Недавно на конференции, где обсуждались эти вопросы относительно ИИ, девять самых информированных авторитетов по ИИ согласилась, что появление такого сверхчеловеческого разума неизбежно, и что оно не за горами.
Однако в этом сценарии захвата власти сверхчеловеческим искусственным интеллектом есть пять предположений, которые, если рассмотреть их тщательно, не имеют под собой каких-либо доказательствах. Эти утверждения могут реализоваться когда-нибудь в будущем, но пока ничего не подтверждает, что так будет. Вот они:
1. Искусственный интеллект уже становится умнее нас, и его уровень растет по экспоненте.
2. ИИ станет универсальным интеллектом — как наш собственный.
3. Мы можем создать человеческий разум в микрочипе.
4. Интеллект можно неограниченно расширять.
5. Как только у нас случится взрыв сверхразума, это решит большинство наших проблем.
В противовес этим устоявшимся мнениям я привожу 5 утверждений, у которых куда больше доказательств.
1. Интеллект — это не единичное понятие, поэтому концепция «умнее людей» бессмысленна.
2. У людей нет универсального разума, не будет его и у ИИ.
3. Имитация человеческого мышления в других средах будет сдерживаться издержками.
4. Размеры интеллекта не бесконечны.
5. Интеллект — это только один фактор прогресса.
Если ожидание захвата власти сверхчеловеческим ИИ строится на пяти ключевых предположениях, которые не имеют доказательств, то это скорее религиозное убеждение, миф. В следующих параграфах я раскрываю свои доказательства для каждого из пяти контрпредложений и показываю, что сверхчеловеческий ИИ — это действительно своего рода миф.
1. Наиболее распространенное заблуждение об искусственном интеллекте состоит в том, что интеллект предполагает некое одно измерение. Большинство технических специалистов с подачи Ника Бострома изображают развитие ИИ как линейный график. На одном конце находится низкий интеллект, скажем, небольшого животного, на другом — высокий интеллект, например, гения. Проблема в том, что эта модель — абсолютно мифическая, как, например, предарвиновская эволюционная лестница, предполагавшая, что простейшие организмы эволюционировали в сложных млекопитающих. Но более точная диаграмма естественной эволюции видов — это диск, расходящийся лучами наружу. Люди существуют рядом с тараканами, моллюсками, папоротниками, лисами и бактериями. Каждый из этих видов претерпел непрерывную цепочку из трех миллиардов лет успешного размножения, а это означает, что бактерии и тараканы сегодня столь же развиты, как и люди. Лестницы нет.
Точно так же нет никакой лестницы интеллекта. Интеллект — это не одно измерение. Это комплекс многих типов и способов познания, каждый из которых непрерывен.
Эти комплекты познания различаются у людей и других видов. Белка может помнить точное местоположение нескольких тысяч желудей в течение многих лет, что недоступно человеку. Значит, в этом одном типе познания белки превосходят людей.
ИИ превосходит людей в некоторых областях и может решать некоторые проблемы, которые мы не можем. Но мы не называем Google сверхчеловеческим ИИ, хотя его память превосходит нашу. Потому что есть много других вещей, которые мы можем сделать лучше, чем Google.
Мы скоро придем к осознанию того, что разум — это не одно измерение, и нам необходимо овладеть множеством других способов, которыми работает интеллект, — всеми другими узлами познания, которые мы еще не обнаружили.
2. Второе заблуждение относительно человеческого интеллекта — наша вера в то, что он универсальный. Человеческий интеллект — это очень, очень специфический тип интеллекта, который развивался в течение многих миллионов лет, чтобы наш вид выжил на этой планете. В пространстве всех возможных умственных способностей человеческий тип интеллекта занимает один уголок, точно так же, как наш мир занимает свое место на краю огромной галактики.
Мы, конечно, можем себе представить и даже изобрести мышление, способное решать множество разных задач сразу. Но ИИ будет следовать тому же инженерному правилу, которому все сделанные или рожденные вещи должны следовать: вы не можете оптимизировать каждое измерение. Вы только можете найти компромисс. И большой «делающий все» разум не сможет делать все так же хорошо, как это делают специализированные исполнители.
3. Частично вера в универсальное мышление исходит из гипотезы Черча-Тьюринга, утверждающей, что все вычисления, соответствующие определенному порогу, эквивалентны. Поэтому существует универсальное ядро для всех вычислений, независимо от того, где оно происходит — в машине или даже в биологическом мозге. Это означает, что можно имитировать любой вычислительный процесс (мышление) на любой машине, которая может выполнять «универсальные» вычисления.
Проблема состоит в том, что в действительности ни один компьютер не имеет бесконечной памяти или времени. Когда вы работаете в реальном мире, реальное время имеет огромное значение, зачастую жизненно важное. Да, все мышление эквивалентно, если вы игнорируете время. Да, вы можете имитировать мышление человеческого типа в любой матрице, если игнорировать время или реальные ограничения памяти.
Тем не менее, если вы учитываете время, то вам необходимо существенно переформулировать основное положение: две вычислительные системы, работающие на существенно разных платформах, не будут эквивалентны в реальном времени. Это можно повторить еще раз: единственный способ получить эквивалентные способы мышления — запустить их на эквивалентных подложках. Разум, работающий в совсем другом теле (в сухом кремнии вместо влажного углерода), будет думать по-другому.
4. В основе уверенности, что интеллект будет становиться лучше, лежит утверждение, что разум бесконечен. Я не нахожу для этого никаких доказательств. Насколько известно науке, в мире нет ни одного бесконечного физического параметра. Температура не бесконечна — существует конечный холод и конечная теплота. Пространство и время имеют свой предел. Скорость конечна. Возможно, математическая числовая ось бесконечна, но все остальные физические атрибуты конечны. Само собой разумеется, что сам разум конечен, а не бесконечен.
Также я не нашел доказательств, что ИИ развивается в геометрической прогрессии. Когда я спросил об этом Рэя Курцвейла, он написал мне: «Он требует экспоненциальных улучшений как в вычислении, так и в алгоритмической сложности для перехода на каждый дополнительный уровень иерархии».
Поэтому, представляя «взрыв разума», стоит думать не о каскадном буме, а скорее о постепенно возрастающих новых возможностях. Кембрийский взрыв, а не ядерный. Результаты эти будут «вне» нашего опыта, но не обязательно «над» ним.
5. Считается, что супермощный, почти бесконечный ИИ сможет решить все наши проблемы.
Но посмотрите на проблемы лечения рака или продления долголетия. Одно только мышление не сможет решить их. Никакое количество мыслителей не выяснит, как эта клетка стареет, или как теломеры укорачиваются. Никакой разум не сможет понять, как работает человеческое тело, просто прочитав всю известную научную литературу.
Мышление (интеллект) — это только часть науки, даже, может быть, небольшая ее часть. Например, мы до сих пор не приблизились к решению проблемы смерти. Для большинства экспериментов с живыми организмами нужно много времени, так как метаболизм клетки невозможно ускорить. Нужны годы, месяцы или, по крайней мере, дни, чтобы получить результаты.
Конечно, скорость открытий значительно увеличится благодаря достижениям искусственного интеллекта — отчасти потому, что он сможет задать вопросы, о которых не задумывается человек, но даже очень мощный (по сравнению с нами) интеллект не означает мгновенного прогресса.
Я согласен с более широкими целями OpenAI и с умными людьми, которые беспокоятся о сверхчеловеческом ИИ. Мы должны спроектировать дружественные ИИ и выяснить, как привить им самовоспроизводящиеся ценности, которые соответствуют нашим.
Сверхчеловеческий ИИ — это отдаленная возможная экзистенциальная угроза (которая заслуживает рассмотрения), но я уверен, что его маловероятность (основанная на доказательствах, которые мы имеем до сих пор) не должна влиять на нашу науку, политику и развитие.
Полностью статью Кевина Келли можно прочитать здесь.