За чей счет банкет: кто оплатит этический долг искусственного интеллекта
Профессор этики технологий Кейси Фислер уверена, что девиз «двигайся быстро и ломай вещи» нельзя применять к технологиям
БудущееПоскольку в обществе растет озабоченность этическими и социальными последствиями искусственного интеллекта, может показаться, что пора сбавить обороты. Но у технологических компаний настроения прямо противоположные. В условиях разгорающейся гонки ИИ в Big Tech было бы «абсолютно фатальной ошибкой в данный момент беспокоиться о вещах, которые можно исправить позже», — написал один из руководителей Microsoft во внутреннем письме о генеративном ИИ, как сообщает The New York Times.
Другими словами, пришло время «двигаться быстро и ломать вещи». Конечно, когда вы что-то ломаете, то, вероятно, придется потом это чинить. За дополнительную плату.
В разработке программного обеспечения термин «технический долг» означает предполагаемые затраты на исправление ошибок в будущем в результате выбора в пользу скорого, но непродуманного решения сейчас. Стремление быстро выйти на рынок может означать выпуск программного обеспечения, которое еще не готово. Вы знаете, что как только оно появится на рынке, обнаружатся ошибки, и надеетесь их исправить.
Однако неприятные новости о генеративном ИИ, как правило, не связаны с такими ошибками. Вместо этого большая часть опасений связана с тем, что системы ИИ усиливают вредные предубеждения и стереотипы, а студенты используют технологию, чтобы ввести в заблуждение преподавателей. На слуху проблемы конфиденциальности и то, что людей обманывают дезинформацией, есть вопросы об эксплуатации труда и опасения по поводу того, как быстро будут заменены человеческие рабочие места, и это еще не все. Эти проблемы не являются программным сбоем. Осознание того, что технология усиливает угнетение или предвзятость, это вопрос другого порядка, чем неработающая кнопка на сайте.
Как преподаватель и исследователь в области этики технологий, я много размышляла о такого рода «ошибках». Здесь накапливается не только технический, но и этический долг. Так же как технический долг может возникнуть из-за недостаточно тщательного тестирования в процессе разработки, этический долг появляется из-за того, что не были учтены возможные негативные последствия или вред обществу. И в случае этического долга, его заемщики редко являются теми, кто платит по нему в итоге.
На старт
Как только в ноябре 2022 года был выпущен OpenAI ChatGPT, прозвучал стартовый выстрел гонки технологий ИИ, а я представила себе, как начинает заполняться долговая книга.
В течение нескольких месяцев Google и Microsoft выпустили свои собственные программы генеративного ИИ. Казалось, они спешат выйти на рынок, лишь бы не отстать. Котировки акций Google упали, когда чат-бот компании Bard в ходе демонстрации уверенно выдал неверный ответ. Можно ожидать, что компания Microsoft будет особенно осторожна, когда речь заходит о чат-ботах, учитывая Tay, бота на базе Twitter, который был почти сразу же закрыт в 2016 году после того, как поразглагольствовал о женоненавистничестве и превосходстве белой расы. Тем не менее первые разговоры с ботом Bing, управляемым искусственным интеллектом, вызвали тревогу у некоторых пользователей, к тому же он повторяет заведомо ложную информацию.
Когда придет срок погашения социального долга за эти поспешные выпуски, я думаю, что мы услышим упоминания о непреднамеренных или непредвиденных последствиях. В конце концов, даже при наличии этических норм, OpenAI, Microsoft или Google не могут предвидеть будущее. Откуда кто-то может знать, какие социальные проблемы могут возникнуть до того, как технология будет полностью разработана?
Корень этой дилеммы — неопределенность, которая является обычным побочным эффектом многих технологических революций. Но в случае с ИИ эффект усиливается. В конце концов, суть искусственного интеллекта в том, что его действия неизвестны заранее. Его предназначение — это создавать непредвиденный результат, необязательно негативный.
Однако, было бы наивно предположить, что специалисты сферы технологий не могут точно определить, какими могут быть многие из этих последствий. На сегодняшний день существует бесчисленное количество примеров того, как ИИ может воспроизводить предубеждения и социальные предрассудки, но сами технологические компании редко публично заявляют об этих проблемах. Так, например, именно независимые исследователи обнаружили расовую предвзятость в широко используемых коммерческих системах анализа лиц, а также в алгоритме прогнозирования медицинских рисков, который применялся примерно к 200 миллионам человек. Академические, правозащитные и исследовательские организации, такие как Лига алгоритмической справедливости и Исследовательский институт распределенного ИИ, выполняют большую часть этой работы по выявлению вреда постфактум. И картина, похоже, не изменится, если компании продолжат избавляться от специалистов по этике.
От рассуждений к действиям
Иногда я называю себя оптимистом в области технологий, который думает и планирует, как пессимист. Единственный способ сократить этический долг — это уделить время размышлениям о том, что может пойти не так. Но это не то, чему учат специалистов техносферы.
Ученый и культовый писатель-фантаст Айзек Азимов однажды сказал, что фантасты «предвидят неизбежное, и хотя проблемы и катастрофы могут быть неизбежны, решения — нет». Конечно, писателям-фантастам не свойственно брать на себя реальные решения, но прямо сейчас это делают разработчики ИИ.
Как же разработчикам ИИ научиться мыслить в этом ключе? Один из моих текущих исследовательских проектов направлен на разработку способов поддержки процесса этических рассуждений. Я не имею в виду разработку с учетом далеких войн роботов, речь идет о способности учитывать последствия в целом, в том числе в самом ближайшем будущем.
Как преподаватель, я поощряю студентов размышлять об этических последствиях научно-фантастических технологий, чтобы подготовить их к работе с тем, что они могут создать. Одно из упражнений, которое я разработала, называется «Зал сценаристов Черного зеркала», где студенты рассуждают о возможных негативных последствиях таких технологий, как алгоритмы социальных сетей и беспилотные автомобили. Часто эти рассуждения основаны на закономерностях прошлого или подразумевают участие злоумышленников.
Цель, однако, не в том, чтобы подготовить их к такому далекому будущему. Главная задача — это научить строить предположения как навык, который можно применить немедленно. Это умение особенно важно для того, чтобы помочь студентам представить себе ущерб другим людям, поскольку в сфере технологий вред часто непропорционально сильно влияет на уязвимые группы, которые недостаточно представлены в компьютерных профессиях. Следующим шагом в моем исследовании будет использование этих этических стратегий моделирования в реальных командах разработчиков.
Время сделать паузу?
В марте 2023 года в открытом письме с тысячами подписей прозвучал призыв приостановить обучение систем ИИ, более мощных, чем GPT-4. Неконтролируемое развитие ИИ в итоге приведет к тому, что он может «превзойти, перехитрить, вытеснить и заменить нас», или даже привести к «потере контроля над нашей цивилизацией», предупреждали авторы письма.
Как отмечают критики письма, такое внимание к гипотетическим рискам игнорирует реальный вред, происходящий сегодня. Тем не менее я думаю, что среди специалистов по этике ИИ практически нет разногласий по поводу того, что развитие искусственного интеллекта следует замедлить: разработчики, разводя руками и ссылаясь на «непредвиденные последствия», не смогут этого сделать.
Гонка технологий ИИ набрала значительную скорость всего несколько месяцев назад, и я думаю, уже ясно, что этические соображения остаются на обочине. Но рано или поздно настанет срок оплатить долг, и, как показывает история, расплачиваться, вероятно, придется не руководителям и инвесторам крупнейших компаний.