€ 95.62
$ 89.10
Нас посчитали: что делать, когда ИИ знает о человеке все?

Нас посчитали: что делать, когда ИИ знает о человеке все?

Редактор strategy+business Арт Кляйнер — о том, чем опасны и одновременно полезны алгоритмы, анализирующие наш характер и черты личности

Будущее
Кадр из фильма Blade Runner 2049

Одно из самых противоречивых за последнее время психологических исследований появилось в прошлом месяце в виде анонса статьи, которая будет опубликована в Journal of Personality and Social Psychology. Илун Ван и Михал Косински, представляющие Высшую школу бизнеса Стэнфордского университета, использовали глубокую нейронную сеть (компьютерную программу, имитирующую сложные нейронные взаимодействия в мозге человека) для анализа фотографий, взятых с сайта знакомств, и выявления сексуальной ориентации людей на изображениях. Алгоритм сумел правильно различить гетеро- и гомосексуальных мужчин в 81% случаев. А если ему для анализа предоставляли пять фотографий одного и того же человека, показатель точности вырастал до 91%. Для женщин оценка была ниже: 71% и 83% соответственно. Но алгоритм показал гораздо лучшие результаты, чем люди, которые, основываясь лишь на одной фотографии, смогли правильно угадать ориентацию только 61% мужчин и 54% женщин.

Конечно, подобные методы могут быть использованы для раскрытия людей, которые скрывают свою гомосексуальность, либо ошибочно идентифицировать их как геев или лесбиянок. Группы защитников ЛГБТ GLAAD и Human Rights Campaign совместно осудили исследование как неточное, указав, что в нем не участвовали не-белые лица, а алгоритм не идентифицировал бисексуальность. Но, как отмечает Washington Post, на карту поставлены еще более фундаментальные проблемы. Репрессивные правительства, нетолерантные бизнесы или шантажисты могут использовать эти данные против людей.

Исследование также вызывает другие вопросы, помимо сексуальной ориентации, — вопросы, касающиеся потенциальных возможностей для вторжения в частную жизнь и злоупотребления этим. Такие алгоритмы основаны на машинном обучении. Благодаря повторению и калибровке компьютерные программы учатся сопоставлять свои модели с реальностью и постоянно совершенствовать эти модели, пока они не достигнут огромной прогностической точности. Программа такого рода может выбирать атрибуты, которые совершенно не интересовали человечество, — и собирать огромные массивы сведений о них. Мир, в котором это распространено, становится похожим на мир из фильма «Особое мнение», где люди постоянно приспосабливаются к более «нормальному» поведению, потому что окружающие их системы отслеживают не только то, что они сделали, но и то, что могут сделать.

Стэнфордские исследователи Ван и Косински указали на это в своей статье: алгоритмы могли бы овладеть, а затем и превзойти человеческую способность «точно оценивать характер, психологические состояния и демографические черты людей по их лицам», — пишут они. «Люди тоже оценивают с некоторой минимальной точностью политические взгляды окружающих, честность, сексуальную ориентацию или даже вероятность победы на выборах». Хотя суждения не всегда точны — вы не всегда можете сделать вывод о сайте по его домашней странице, — эта низкая точность объясняется не недостатком признаков, а нашей общей неопытностью при их интерпретации. Люди, которые действительно пытаются научиться анализировать других людей, оттачивают мастерство, а машина, которая не умеет делать ничего другого — и обладает бесконечным количеством изображений для работы, — вероятно, может стать необычайно профессиональной.

А что, если дело не ограничится статическими портретами? Представьте себе, какую статистическую корреляцию можно было бы получить о человеке по видео — оценивая интонацию голоса, осанку, движения, способы реагирования друг на друга, морщины на носу и поднятие бровей и т.д.? Предположим, машина могла бы получать эти сигналы от камеры на ноутбуке или от микрофона на смартфоне. Алгоритм такого рода, анализирующий выражения лица и голосовую интонацию, мог бы отслеживать, кто доволен своей работой, а кто тайно рассылает резюме.

Многие из этих сигналов, вероятно, были бы полностью незаметны для человеческого сознания — как скрытое послание. Но датчики и алгоритмы наверняка заметят их. Добавьте к этому такие поведенческие сигналы, как схемы снятия наличных в банкоматах или посещение веб-сайтов, и вы сможете разработать чрезвычайно точный профиль любого человека, созданный без его ведома. 

Известно, что правительство Китая хочет ввести систему контроля за тем, как ведут себя граждане страны. Пилотный проект уже запущен в городе Ханчжоу провинции Чжэцзян в Восточном Китае. «Человек может получить черные отметки за такие нарушения, как безбилетный проезд, переход улицы в неположенном месте и нарушение правил планирования семьи», — писал Wall Street Journal в ноябре 2016 года. «Алгоритмы будут использовать ряд данных для расчета рейтинга гражданина, который затем может быть использован при принятии решений во всех видах деятельности, таких как получение кредитов, ускоренный доступ к лечению в государственных учреждениях или возможность отдыхать в роскошных отелях». Реализация этой системы в стране с 1,4 млрд населения, как отмечал журнал, станет огромной и, возможно, невыполнимой задачей. Но даже если её применят сначала только локально, как и все системы машинного обучения, мастерство алгоритма будет только увеличиваться со временем.

У машинного обучения есть потенциал, чтобы куда проще раскрывать секреты путем сопоставления деталей наблюдений с другими исследованиями поведения человека. Вы находитесь где-то на аутическом спектре? Вы склонны быть жертвой издевательств или издеваться над другими самостоятельно? Есть ли у вас потенциальная зависимость от азартных игр, даже если вы никогда не играли? Ваши родители отказались от вас? У ваших детей легко возникают проблемы? Сильное или слабое у вас либидо? Вы притворяетесь экстравертом, а на самом деле вы — интроверт? (или наоборот)? Есть ли у вас какие-то личные особенности, которые в вашей компании считают признаком высокого потенциала — или наоборот? О таких чертах могут рассказать вашей компании, правительству или даже вашим знакомым — вы даже не узнаете, что окружающие были проинформированы о них, и что они вообще существуют.

Мне вспомнилось высказывание покойного мыслителя Эллиотта Жака, сделанное в 2001 году. Его исследования по иерархиям и возможностям сотрудников, которые, на мой взгляд, не имеют себе равных, привели его к осознанию того, что позиции людей в организации зависят от их когнитивных способностей: чем сложнее задачи могут они решить, тем выше они должны подняться. Жак нашел способ обнаружить когнитивную сложность, просматривая видео, в котором человек говорит. Он анализировал, как он или она складывают слова, и присваивал этому человеку «стратум», который должен соответствовать его уровню в иерархии.

«Вы можете проанализировать кого-то, посмотрев 15 минут видеозаписей, — говорил он мне. — И вы можете за несколько часов научить кого-то проводить такой анализ». Но он отказался сделать тест и обучение общедоступными. «Будет слишком много консультантов, которые пойдут в фирмы и скажут: «Мы можем оценить всех ваших людей». Затем подчиненным придется услышать от боссов: «Психолог говорит мне, что вы — «Стратум II», а у меня его нет».

Минули дни, когда кто-то вроде доктора Жака мог сказать «нет». Недалек тот час, когда все мы будем подвергаться компьютерному анализу. Это не просто заставит нас иначе относиться к конфиденциальности. У каждого возникнет вопрос, что же вообще значит быть человеком. Человек — это лишь сумма черт? Если так, то способны ли мы изменяться? И если эти черты изменятся, поймут ли это те, кто получил данные о нас раньше?

Наконец, будем ли мы, люди, иметь доступ к отзывам о нас, — чтобы, например, посмотреть на себя со стороны? Или эти анализы будут использоваться в качестве средства контроля? А кто тогда будет контролерами? На эти вопросы еще нет ответов, потому что люди только начали задавать их в контексте реальных технологических изменений. В некоторых местах разрабатывают ответы в сфере регулирования (например, новый Общий регламент по защите данных Европейского союза или GDPR, который вступит в силу в мае 2018 года). Должны быть правила, определяющие, какими данными могут обладать компании, и устанавливающие правовые границы для нецелевого использования информации. Но формальные правила будут действовать до поры до времени и неизбежно будут меняться от одной страны к другой. Нам также необходимо прояснить культурные ценности, начиная с прощения. Если о людях можно знать всё, тогда придется быть толерантными к гораздо более разнообразным типам поведения.

В политике это уже происходит. У избранных правительственных чиновников в ближайшие годы будет все меньше и меньше возможностей хранить секреты. Для остальных испытательным полигоном станет, вероятно, работа, где люди обычно стараются продемонстрировать свою лучшую сторону ради средств к существованию и репутации.

У новых знаний будут громадные преимущества: мы намного больше узнаем о поведении человека, организационной динамике и, возможно, о влиянии привычек на здоровье. Но если вы встревожены, это тоже правильно. У каждого из нас есть секрет или два, которые мы хотели бы сохранить от окружающих. Часто это не то, что мы сделали, а то, что мы только обдумывали, или то, что могли сделать, если бы не сдержались. Когда наша вторая кожа, оболочка нашего поведения, видна окружающим машинам, эти предрасположенности больше не секретны — по крайней мере, не для машин. Таким образом они становятся частью нашего внешнего амплуа, нашей репутации и даже нашей трудовой жизни, нравится нам это или нет.

Оригинал

Свежие материалы