Правда жизни или правда ценностей: два типа предвзятости ИИ
Технологические компании должны решить, с каким типом предвзятости они должны бороться, а с каким — смириться
БудущееНедавно компания Google была вынуждена приостановить работу генератора изображений с искусственным интеллектом под названием Gemini, после того как критики пожаловались на то, что в нем прослеживается предвзятое отношение… к белым людям.
Споры начались с вирусного поста в популярной социальной сети. Согласно сообщению пользователя @EndWokeness, на запрос изображения отца-основателя Америки Gemini показал темнокожего коренного американца, азиата и еще одного темнокожего мужчину. На запрос о портрете Папы Римского он показал чернокожего мужчину и женщину. Сообщается, что и нацисты изображались с расовым разнообразием.
Из-за жалоб компания приостановила способность ИИ-инструмента генерировать изображения людей.
«Очевидно, что система не справилась с поставленной задачей. Некоторые из созданных изображений неточны или даже оскорбительны», — написал первый вице-президент Google Прабхакар Рагхаван, добавив, что Gemini иногда «перегибает палку» в стремлении к разнообразию.
Рагхаван дал техническое объяснение тому, почему инструмент так работает: в Google обучали Gemini не попадать в некоторые классические ловушки ИИ, например, стереотипно представлять всех юристов мужчинами. Но эта настройка не учитывала случаи, которые явно должны были попасть в разряд исключений.
Все это может показаться очередным витком унылой культурной войны за «равную репрезентацию», которую, по крайней мере в этот раз, можно быстро решить, устранив техническую проблему. (Google планирует перезапустить инструмент через несколько недель).
Но здесь скрывается кое-что более серьезное. Проблема Gemini — не только техническая.
Это философский вопрос, для которого в мире ИИ пока нет однозначного ответа.
Что означает предвзятость?
Представьте, что вы работаете в Google. Босс поручает вам разработать генератор изображений с искусственным интеллектом. Для вас это проще простого — вы же гениальный разработчик! Но однажды, тестируя инструмент, вы понимаете, что попали в затруднительное положение.
Вы просите ИИ создать изображение генерального директора. И вот, пожалуйста, это мужчина. С одной стороны, вы живете в мире, где подавляющее большинство генеральных директоров — мужчины, поэтому программа должна точно отражать это, создавая изображения мужчин. С другой стороны, это закрепляет гендерные стереотипы, которые не позволяют женщинам занимать руководящие должности. А в определении термина «генеральный директор» нет ничего, что указывало бы на пол. Так стоит ли стараться создавать инструмент, который показывает сбалансированный состав, даже если это не отражает действительность?
Это зависит от того, как вы понимаете предвзятость.
Компьютерные специалисты привыкли думать о «предвзятости» с точки зрения статистического значения. Программа для составления прогнозов необъективна, если она постоянно ошибается в ту или иную сторону. (Например, если приложение прогноза погоды постоянно завышает вероятность дождя, его прогнозы статистически необъективны). Коротко и ясно. Однако, это отличается от современного понимания слова «предвзятость» у большинства людей, что больше похоже на «предубеждение против определенной группы».
Проблема в том, что если вы создадите генератор изображений, который будет делать статистически верные выводы о гендерном распределении руководителей компаний, то он будет необъективным во втором смысле этого слова. А если сделать его таким, чтобы его результаты не имели связи с полом, то он будет необъективным в статистическом смысле.
Так как бы вы решили эту проблему?
«Не думаю, что есть однозначный ответ, — считает Джулия Стоянович, директор Центра по контролю за искусственным интеллектом Нью-Йоркского университета. — Потому что все дело в ценностях».
В любой алгоритм заложено ценностное суждение о том, чему отдать предпочтение, в том числе, когда речь идет о конкурирующих понятиях предвзятости. Поэтому компаниям приходится решать, хотят ли они быть точными в отображении того, как выглядит общество в настоящее время, или продвигать видение того, как, по их мнению, общество могло бы или даже должно выглядеть, то есть мир мечты.
Как быть технологическим компаниям?
Первое, что нужно сделать компаниям, — это четко понять, для чего оптимизируется алгоритм. На уменьшение какого типа предвзятости он будет нацелен? Затем компании должны понять, как встроить это в алгоритм.
Частично на этот вопрос можно ответить, понимая, для чего люди будут использовать инструмент ИИ. Они могут попытаться создать реальную картину мира (папа римский — белый мужчина) либо отличающуюся, но возможную (женщины — папы римские, ваш выход!).
«В Gemini выбрали второй подход, понимая, что возврат к историческим предубеждениям, которые усвоила модель, вызовет протест у многих», — поясняет Маргарет Митчелл, главный специалист по этике в ИИ-стартапе Hugging Face.
Как объясняет Митчелл, Google могла использовать определенные «технические хитрости», чтобы Gemini выдавала «нужные» картинки. Например, в запросы пользователей могли быть добавлены подсказки о разнообразии, превращающие «папу римского» в «папу римского женского пола», а «отцов-основателей» в «отцов разного этнического происхождения».
Но вместо того, чтобы использовать подход, основанный только на воображаемых идеях, Google могла бы оснастить Gemini возможностью выяснить, какой подход действительно нужен пользователю (например, запросив отзывы о его предпочтениях), а затем выдать нужный результат, при условии, что пользователь не просит чего-то запрещенного.
Что считать запрещенным, опять же, сводится к ценностям. Каждая компания должна четко определить ценности, а затем обеспечить инструмент искусственного интеллекта возможностью отклонять запросы, которые их нарушают. В противном случае мы получим что-то вроде фильмов для взрослых с Тейлор Свифт.
У разработчиков ИИ есть технические возможности для этого. Вопрос в том, есть ли у них философская способность считаться с ценностным выбором, который они делают, и добросовестность, чтобы быть честными в этом вопросе.