На церемонии вручения премии TechCrunch в 2010 году Марк Цукерберг заявил, что молодые люди, особенно пользователи социальных сетей, больше не задумываются о конфиденциальности. «Людям действительно стало удобно делиться большим количеством самой разной информации, открыто и с огромным числом людей, — сказал он. Это утверждение не потеряло актуальности, хотя и отражает распространенное мнение о том, что нарушение конфиденциальности происходит, лишь когда человек сам раскрывает информацию. Другими словами, когда что-то, размещенное на Reddit или TikTok, становится вирусным, или утекает фотография в обнаженном виде, отправленная поклоннику, виноват прежде всего тот, кто ее разместил. Такая модель личной ответственности очень популярна. И абсолютно неверна. Она потеряла актуальность в эпоху генеративного ИИ.
Генеративный ИИ сводит на нет идею индивидуальной ответственности за конфиденциальность, поскольку вы не можете контролировать доступ алгоритмов к личной информации, а также то, что они с ней делают. Такие инструменты, как ChatGPT, Dall-E и Google Bard, обучаются на данных, собранных без согласия или даже без уведомления авторов. В худшем случае обучающие наборы собирают огромные объемы цифровой информации и превращают их в данные, которые служат сырьем для генеративного ИИ. Поскольку технологические компании пытаются внедрить генеративный ИИ во всевозможные продукты, от поисковых систем до игр и военных гаджетов, стало невозможно предугадать, куда попадет личная информация и как будет интерпретирована. Их предшественники, брокеры данных, нарушающие неприкосновенность частной жизни, тоже рыскали в интернете и собирали досье на людей, но те результаты не доступны обычным людям бесплатно и не интегрированы в поисковые системы и текстовые программы. Широкое распространение генеративного ИИ усугубляет угрозу нарушения неприкосновенности частной жизни. Все больше людей становятся уязвимыми для негативных последствий.
Массивные базы данных, используемые генеративным ИИ, неизбежно содержат информацию о людях, которая не была специально предоставлена, разработана или даже известна. Публичные записи о браках, ипотеках, регистрации избирателей – все это можно было найти, так же как сюжеты новостей, краткие резюме и страницы Википедии. Но в этом массиве данных также содержатся миллионы фотографий и видео; например, Dall-E обучался на изображениях, собранных из социальных сетей, поисковых систем и хостингов изображений. Так что, если вы находитесь на заднем плане фотографии, сделанной для сервиса размещения фото в 2007 году, ваше изображение может быть использовано для обучения алгоритма. Похоже, никто не знает, что попадает в эту мешанину данных, и нет никакой возможности контролировать ее. Когда ChatGPT пишет обо мне неточную биографию, я не знаю, откуда взялась ложная информация. Но я также не знаю, откуда взялась и верная. Мы привыкли считать, что частная жизнь – это личный контроль за информацией. Но невозможно регулировать использование личных данных, когда вы даже не знаете их происхождение.
Антропологи и специалисты в области права уже давно считают, что отдельные люди не могут контролировать частную жизнь, в том числе и потому, что мы обмениваемся информацией в сети. Другими словами, люди говорят друг о друге как в сети, так и вне ее. Не существует простого способа ограничить это; вы можете попросить своих друзей не публиковать фотографии ваших детей в социальных сетях или не упоминать вас в блоге. Но приватность остается настолько закрытой, насколько хватит совести у самого болтливого собеседника. Нарушения приватности в сети часто происходят потому, что информация, предоставленная в среде с определенными нормами и ожиданиями, перемещается в другие места и интерпретируется по-другому. Поэтому политические выступления, рассчитанные на сочувствующую аудиторию, в итоге используются противниками в своих целях.
Новые технологии все чаще ставят под угрозу сетевую приватность. Например, судебная экспертиза генеалогии позволяет полиции идентифицировать подозреваемых, изучая генетические данные, полученные от дальних родственников. Вы можете отказаться от использования такого сайта, но вы не в состоянии заставить троюродного брата, о существовании которого , вероятно, даже не подозреваете, сделать то же самое. Большие данные, использующие огромные массивы информации аналогичным образом, часто учитывают друзей, родственников и даже дальних знакомых, что становится чрезвычайно тревожным при включении их в алгоритмы оценки рисков или работы полиции по профилактике преступлений. Люди ничего не могут предпринять, чтобы не допустить такое вторжение в частную жизнь.
Генеративный ИИ усиливает проблемы конфиденциальности в сети. Он ставит под угрозу нашу способность выполнять «работу по обеспечению конфиденциальности» — то есть методы и стратегии, что мы используем для того, чтобы добиться приемлемого уровня безопасности в сети. А результаты работы генеративного ИИ полностью отделяются от своего первоисточника в немыслимых ранее формах. Одно дело – утечка личных сообщений, и другое – использование популярной социальной сети в качестве материала для стихов роботов и скверных студенческих работ. Информация, предоставленная в одном контексте, может быть полностью переосмыслена и переделана. Разрушается то, что философ Хелен Ниссенбаум называет контекстуальной целостностью. Разве в силах один человек помешать этому?
Кстати, генеративный ИИ может допускать самые разные нарушения конфиденциальности. Я не смогла заставить ChatGPT сообщить мне адрес моего мужа (мы живем вместе), но он с радостью подсказал, как найти домашний адрес в сети самостоятельно. Технологии глубокой имитации – это новый уровень: что может быть большим нарушением приватности, чем имитация стиля, облика или даже речи другого человека? Я загрузила несколько старых записей своего голоса в программу Descript и через некоторое время получила синтезированную версию своего голоса, с помощью которой могла озвучить любой текст (в пределах бесплатной версии). В то время как некоторые популярные инструменты генеративного ИИ содержат ограничения, предотвращающие наиболее вопиющие нарушения конфиденциальности, другие не уделяют внимания таким пустякам. ИИ имеет доступ к обширным данным. При недобросовестном использовании можно составить карту всей социальной сети человека, собрать воедино его финансовое положение или проблемы со здоровьем, а также определить, насколько он уязвим для мошенников.
Несмотря на то, что я прекрасно понимаю, что ИИ сейчас на гребне волны популярности, существует разница между генеративным ИИ и другими технологиями, имеющими глубокие последствия для конфиденциальности. Социальные платформы контролируются отдельными структурами, и мы понимаем, как они устроены. Никто не понимает, как работают инструменты с искусственным интеллектом, даже люди, которые их исследуют и создают. Эти технологии меняются и внедряют инновации в совершенно ином темпе. Их могут использовать люди с этическими нормами, отличными от наших. Генеративный искусственный интеллект показывает, как трещит по швам наша устаревшая модель приватности, основанная на индивидуальной ответственности. Пришло время это признать и выйти за рамки устаревшего предубеждения.