Алгоритм предлагает обняться: как развиваются технологии контроля эмоций

Алгоритм предлагает обняться: как развиваются технологии контроля эмоций

Искусственный интеллект учится не просто распознавать эмоции. Новые приложения способны давать советы, как вести себя в конфликтной ситуации

Будущее
Фото: Tinomen/Flickr

В мае 2021 года платформа Twitter представила новую функцию, которая предлагает пользователям дважды подумать, прежде чем отправить твит. В следующем месяце Facebook объявил о функции «оповещение о конфликтах» на основе ИИ, чтобы администраторы групп могли предпринимать меры, если идет «спорное или нездоровое общение». Подсказки в электронной почте и мессенджерах  ежедневно завершают миллионы предложений за нас. Halo от Amazon, представленный в 2020 году, — это фитнес-браслет, который отслеживает тон вашего голоса. Хорошее самочувствие сегодня — это не только показатели сердечного ритма или подсчет шагов, но и то, как мы общаемся с окружающими. Идет разработка терапевтических инструментов с использованием алгоритмов ИИ для прогноза и предотвращения негативного поведения.

Джефф Хэнкок, профессор по коммуникациям Стэнфордского Университета, определяет посредничество ИИ в общении так: «Умный агент действует от вашего имени, изменяя, дополняя или генерируя сообщения, чтобы достичь поставленной цели коммуникации». Эта технология, по его словам, уже развернута в широких масштабах.

За всем этим скрывается растущая уверенность, что наши отношения находятся всего лишь в шаге от совершенства. С начала пандемии наше общение происходит все больше посредством компьютерных каналов. На фоне бурлящего океана спама, токсичных сообщений в Slack и бесконечных конференций Zoom могут ли алгоритмы помочь нам быть добрее друг к другу? Может ли приложение понять наши чувства лучше, чем мы сами? А может, отношения между людьми станут менее человеческими, если мы передадим их на аутсорсинг ИИ?

Алгоритмы для родителей

Можно сказать, что Джай Киссун вырос в системе судов по семейным делам. Ну, или по крайней мере, рядом с ней. Его мать, Кэтлин Киссун, была адвокатом по семейным делам, и когда он был подростком, он проводил время в ее офисе в Миннеаполисе и помогал собирать документы. Это было до изобретения «модных копировальных аппаратов», и пока Киссун перебирал бесконечные стопки бумаг, которыми полнились коридоры юридической фирмы, он наслушался историй о том, как распадаются семьи.

Мало что для него поменялось, когда он стал сооснователем сервиса OurFamilyWizard, запущенного в 2001 году инструмента планирования и общения для пар, которые разведены и совместно воспитывают детей. Концепцию придумала Кэтлин, а Джай разработал бизнес-план, первоначально запустив OurFamilyWizard как вебсайт. Вскоре он привлек внимание специалистов, работающих в правовой системе, среди них был судья Джеймс Свенсон, который в 2003 году запустил пробную программу с использованием этой платформы в суде по семейным спорам округа Хеннепин, Миннеаполис. В рамках этого проекта были отобраны 40 «самых сложных семей», которые пользовались этим сервисом и прекратили обращаться в суд. Когда некоторые все же вновь оказывались в суде, выяснялось, что один из родителей перестал пользоваться программой.

За два десятилетия OurFamilyWizard использовали около миллиона человек, сайт получил одобрение судебной системы США. В 2015 году он распространился в Великобритании и год спустя в Австралии. Сейчас платформа работает в 75 странах, есть схожие сервисы, такие как coParenter, Cozi, Amicable и TalkingParents. Брайан Карпф, секретарь секции семейного права Американской ассоциации юристов, говорит, что многие юристы теперь рекомендуют приложения для родителей в качестве стандартной практики, особенно когда хотят оказать «охлаждающий эффект» на стиль общения пары. Эти приложения могут быть сдерживающим фактором преследований, а их использование в общении может быть предписано судом.

Искусственный интеллект становится все более важной функцией цивилизованного общения. Платформа OurFamilyWizard использует функцию ToneMeter, которая анализирует эмоциональный посыл сообщений, отправляемых через приложение, «что-то вроде знака «уступи»», — объясняет Киссун. Анализ настроения — это обработка естественного языка, анализ человеческой речи. Широкие языковые базы данных позволяют алгоритмам разбивать текст на части и оценивать его с точки зрения эмоций и настроения на основе слов и фраз. В случае с ToneMeter, если в сообщении есть эмоционально заряженная фраза, то индикаторы сигнала эмоций становятся красными, а проблемные слова помечаются. Например, фраза «Это твоя вина, что мы опоздали» может получить отметку «агрессивная». Другие фразы могут быть помечены как «унизительные» или «расстраивающие». При этом, пользователь самостоятельно решает, нажимать ли ему кнопку «отправить».

Изначально ToneMeter использовался только в обмене сообщениями, но сейчас функцию распространили на все процессы взаимодействия родителей на платформе. Шейн Хелгет, директор по продуктам, сообщает, что скоро приложение будет не только предостерегать от негативных высказываний, но и поощрять позитивные. Анализируется огромное количество данных о взаимодействиях между людьми, чтобы понять, как помочь родителям сделать шаг навстречу друг другу помимо разговоров. Это могут быть напоминания о необходимости заранее планировать график встреч, предложения изменить даты празднования некоторых событий, жесты, которые не являются обязательными, но могут быть хорошо восприняты.

Приложение CoParenter, запущенное в 2019 году, также использует анализ настроений. Родители ведут переговоры через текстовые сообщения, и если они слишком враждебные, то всплывает предупреждение, примерно так же, как посредник заставил бы замолчать своего клиента во время переговоров. Если система не приводит к согласию, то есть возможность пригласить в чат посредника-человека.

Использование приложения для таких эмоционально напряженных переговоров не лишено проблем. Киссун сознательно не позволил ToneMeter оценивать родителей по тому, насколько позитивными или негативными они кажутся, и, как отмечает Карпф, он видит определенное влияние на поведение пользователей. «Общение становится более роботизированным», — говорит он.

Приложения для совместного воспитания могут помочь направить проблемные отношения в нужное русло, но не решить их. Иногда они могут сделать только хуже. Карпф говорит, что некоторые родители используют приложение как оружие и посылают сообщение-«приманку», чтобы спровоцировать супруга. Киссун вспоминает разговор, который состоялся у него с судьей, когда он запускал пилотную программу. «Нужно всегда помнить об инструментах вот что: я могу дать вам отвертку, и вы почините с ее помощью множество вещей, — сказал судья. — Или вы можете пойти и ткнуть себе в глаз».

Компьютер советует «обнимашки»

В 2017 году Адела Тиммонс, аспирант психологии, проходила клиническую стажировку в Калифорнийском Университете в Сан-Франциско и больнице общего профиля Сан-Франциско, где она работала с малообеспеченными семьями, в которых были маленькие дети, пережившие травму. Во время работы она заметила одну закономерность: пациенты достигали прогресса в терапии, но затем теряли его в хаосе повседневной жизни между сеансами лечения. Она осознала, что технологии могут «сократить разрыв между кабинетом терапевта и реальным миром», и увидела потенциал в том, что в момент возникновения проблемы может помочь устройство, которое всегда под рукой.

Теоретически это можно представить как врача, который успокоит во время эмоциональной тревоги. «Но чтобы это было эффективным, — говорит Тиммонс, в настоящий момент директор лаборатории Технологического Вмешательства в экологические системы (TIES) Флоридского Международного Университета, — необходимо вовремя распознать момент или определить его удаленно.

Исследование Тиммонс включает в себя построение вычислительных моделей человеческого поведения и создание алгоритмов, которые могут эффективно прогнозировать поведение в парах и семьях. Изначально она сосредоточилась на парах. В одном исследовании у 34 молодых пар при помощи мониторов на запястье и грудной клетке измеряли температуру тела, сердечный ритм и потоотделение. Для прослушивания разговоров использовались смартфоны. Сопоставив эти данные с ежечасными отчетами, в которых каждый отмечал свое эмоциональное состояние и любые конфликты, Тиммонс и команда ученых смогли разработать модель, определяющую момент, когда шанс на ссору особенно велик. Факторами прогноза становятся учащенное сердцебиение, частое использование слова «ты» и обстановка вокруг (время суток и качество освещения в комнате). «Нет какого-то одного элемента, который станет индикатором неизбежного скандала, — объясняет Тиммонс, — но когда разные части информации используются в одной системе, вы можете создать алгоритм, который будет работать с большой точностью в реальном мире».

Тиммонс собирается расширить эти модели для анализа динамики семейных взаимоотношений, сосредотачиваясь на том, чтобы улучшить детско-родительские связи. Ее лаборатория разрабатывает мобильные приложения, целью которых является определение позитивных взаимодействий с использованием смартфонов, Fitbits, and Apple Watches (идея в том, что приложение должно быть совместимо с существующими устройствами). Сначала собираются данные, главным образом, частота сердечных сокращений, тон голоса и язык. Оборудование также определяет физическую активность и то, находятся ли родители и ребенок вместе или порознь.

В исследовании пар алгоритм определял конфликт с 86-процентной вероятностью и отслеживал связь с эмоциональным состоянием, которое участники самостоятельно указывали в отчетах. Есть надежда, что, обнаружив предвестники конфликта, приложение сможет вмешаться. «Это может быть подсказка, например, «иди и обними своего ребенка», или «скажи ребенку о том, что хорошего он сегодня сделал, — говорит Тиммонс. — Мы также работаем над алгоритмами, которые могут определять негативные состояния и предупреждать о них родителей, чтобы те могли регулировать свои эмоции. Когда родители контролируют свои чувства, дела идут лучше».

Информация об обстановке помогает улучшить точность прогноза. Как человек спал ночью? Занимался ли спортом в этот день? Подсказки могут предложить помедитировать, попробовать дыхательные упражнения или техники когнитивно-поведенческой терапии. Приложения для осознанности уже существуют, но они полагаются на то, что пользователь не забудет использовать их в тот момент, когда он, вероятно, рассердится, расстроится или будет эмоционально перегружен. «На самом деле, в такие моменты вы меньше всего способны воспользоваться когнитивными ресурсами, — говорит Тиммонс. — Мы надеемся, что сможем пойти навстречу человеку, предупреждая его, когда наступит момент использовать эти навыки». 

По мере того, как такие технологии будут расширяться, особенно важной станет проблема конфиденциальности. Компания Apple осваивает это пространство, сейчас проходят трехлетние исследования совместно с учеными из Калифорнийского Университета в Лос-Анджелесе, которые покажут, могут ли iPhone и Apple Watch определять, и что самое важное, прогнозировать и вмешиваться в случае депрессии и расстройств настроения. Данные будут собираться с камер iPhone и аудио-датчиков, наравне с двигательной активностью пользователя и даже тем, как он печатает на устройстве. Apple намерена защитить данные пользователей, используя алгоритмы, которые будут работать только на телефоне, без отправки на сервер.

Тиммонс говорит, что в ее организации никакие данные не передаются, включая коммерческое использование, за исключением случаев, связанных с причинением вреда или преследованием. Она считает важным, что при разработке данных технологий ученые заранее думают о возможных злоупотреблениях. «Это совместная ответственность научного сообщества с законодателями и общественностью за установление приемлемых пределов и границ в этом пространстве».

Отношения под рентгеном

Идея, что датчики и алгоритмы могут разобраться в сложностях человеческого взаимодействия, не нова. Для психолога Джона Готтмана любовь всегда была игрой цифр. С 1970-х годов он пытался количественно оценить и проанализировать алхимию отношений.

Наиболее известные исследования Готтман проводил в «Лаборатории любви», исследовательском центре при Университете Вашингтона, который он основал в 1980-х годах. Аналог этого проекта работает и сегодня в Институте Готтмана в Сиэтле, который был основан психологом в 1996 году вместе с его женой и коллегой Джули Готтман. С точки зрения романтических фильмов, «Лаборатория любви» похожа на вступительную сцену фильма «Когда Гарри встретил Салли», совмещенную со сценой в «Знакомстве с родителями», когда Роберт Де Ниро заставляет своего будущего зятя пройти тест на детекторе лжи. На людей надевали специальные датчики, которые отслеживали их пульс, потоотделение, тон голоса и то, как сильно они ерзают на стуле, и просили поговорить между собой сначала об истории взаимоотношений, затем о конфликте. В отдельной комнате со множеством мониторов операторы-специалисты фиксировали каждое выражение лица. Целью проекта было собрать как можно больше данных о том, как пары взаимодействуют и выражают свои эмоции.

Это исследование привело к созданию «метода Готтмана», методике консультирования по вопросам взаимоотношений. Важно поддерживать соотношение 5:1 в позитивных и негативных взаимодействиях, 33-процентная неспособность ответить на просьбу партнера о внимании приравнивается к «катастрофе», а закатывание глаз сильно связано с обреченностью брака. «Отношения не так уж и важны», — говорит Готтман, выступая из своего дома на острове Оркас, штат Вашингтон.

Чета Готтман тоже осваивает сферу ИИ. В 2018 году они основали стартап Affective Software, чтобы создать онлайн-платформу для оценки и руководства отношениями. Эта история началась со знакомства в реальной жизни, дружба зародилась много лет назад, когда Джули Готтман встретила Рафаэля Лисицу, давнего сотрудника Microsoft, они вместе забирали дочерей из школы. Лисица, соучредитель и генеральный директор компании Affective Software, разрабатывает виртуальную версию «Лаборатории любви», в которой пары смогут также проанализировать «на рентгене» свои отношения при помощи камеры на компьютере, iPhone или планшете. И вновь отслеживается выражение лица и тон голоса, а также частота сердечных сокращений. Это показатель того, насколько далеко продвинулась система распознавания эмоций, ведь первоначально в «Лаборатории Любви», несмотря на все устройства и датчики, анализ проводил человек, который следил за монитором и правильно определял каждую реплику. Готтман никогда не верил, что можно устранить человеческий фактор. «Было очень мало специалистов, способных чутко распознавать эмоции, — рассказывает он. — И они должны были обладать музыкальными способностями,  иметь опыт театральной сцены. Никогда бы не поверил, что машина способна на такое».

Но не все убеждены, что машины так могут. Распознавание эмоций ИИ — это спорная территория. Способность основана на убеждении, что люди универсальным образом выражают свои эмоции. Теория, развитая в 1960-х и 70-х, на основе наблюдений Пола Экмана, который разработал систему распознавания мимики, что и легла в основу работы пары Готтман и стала фундаментом для подобного программного обеспечения. Некоторые исследователи, например, психолог Лиза Фельдман Барретт из Северо-Восточного университета, ставят под сомнение возможность надежного определения эмоций по выражению лица. И хотя некоторые программы распознавания лиц уже распространены, они демонстрируют признаки расовой предвзятости. В одном исследовании, где рассматривались две программы, которые уже широко используются, было обнаружено, что они присваивают больше негативных эмоций темнокожим лицам, чем белым. Готтман говорит, что виртуальная «Лаборатория Любви» обладает широкими базами данных о лицах, включая все типы кожи, и тестировалась среди разных этнических групп в США, включая афроамериканцев и американцев азиатского происхождения. «Мы знаем, что культура влияет на то, как люди выражают или маскируют эмоции, — говорит он. — Мы изучали Австралию, Великобританию, Южную Корею и Турцию. И похоже, что разработанная мной специфическая система эмоций работает. Но будет ли она работать одинаково для всех культур? Я не знаю».

Готтман добавляет, что «Лаборатория Любви» работает с помощью системы социального кодирования, принимая во внимание тему разговора, тон голоса, язык тела и мимику, она меньше сосредоточена на выявлении отдельной эмоции в данный момент, а вместо этого анализирует общие качества взаимодействия. Собрав их вместе, по словам Готтмана, можно с большей достоверностью определить такие эмоции, как гнев, печаль, отвращение, презрение. Когда пара принимает участие в исследовании, ей предлагается ответить на подробный вопросник, а затем записать два 10-минутных разговора. Один из них — это обсуждение событий прошлой недели, другой касается конфликтной ситуации. После загрузки видео пара оценивает свое эмоциональное состояние на разных этапах разговора от 1 (очень негативное) до 10 (очень позитивное). Затем приложение анализирует эти данные вместе с обнаруженными сигналами и выдает результаты, включая соотношение положительных и отрицательных эмоций, уровень доверия и наличие «четырех всадников Апокалипсиса» — критики, защиты, презрения и упрямства. Эти данные предназначены для использования совместно с терапевтом.

Терапия и услуги по охране психического здоровья все чаще предоставляются по видеосвязи, с начала пандемии эта тенденция усиливается. По данным аналитиков компании McKinsey, с начала пандемии Covid-19 венчурные инвестиции в виртуальную помощь и цифровое здравоохранение утроились, а чат-боты терапии с ИИ, такие как Woebot, становятся мейнстримом. Приложения для консультирования по вопросам отношений, такие как Lasting, уже использующие методику Готтмана,  отправляют уведомления, напоминающие пользователям, например, о необходимости сказать партнеру, что они его любят. Можно подумать, что мы станем совсем ленивыми, но пара Готтман уверена, что это скорее процесс обучения нужной привычке, которая станет второй натурой. Команда уже думает над упрощенной версией, которую можно использовать без участия врача.

Специалистов Готтман вдохновил тот факт, что многие пары все равно зациклены на своих смартфонах, а технология открывает путь к более широкому консультированию. «Люди все больше привыкают к технологии как к языку, — говорит Готтман, — как к инструменту для улучшения жизни всевозможными способами».

Электронная почта для вас и за вас

Эта технология уже распространена повсеместно. Возможно, она влияет на ваши взаимоотношения, а вы и не замечаете. К примеру, Smart Reply от Gmail —  предложения о том, как вы можете ответить на письмо, — и Smart Compose, которая предлагает закончить ваши предложения. Smart Reply был добавлен в качестве мобильной функции в 2015 году, Smart Compose появился в 2018 году; обе функции работают на основе нейронных сетей.

Джесс Хоэнштайн, доктор философии из Корнельского университета, впервые столкнулся с Smart Reply, когда появился Google Allo, ныне не существующее приложение для обмена сообщениями. В нем был виртуальный помощник, который подсказывал, как можно ответить. Это показалось ей жутковатым: «Я не хотела, чтобы какой-то алгоритм влиял на мои речевые обороты, но я думала, что это должно иметь какой-то эффект».

В 2019 году она провела исследование, в ходе которого обнаружила, что ИИ действительно меняет способы нашего взаимодействия и отношения друг к другу. В одном из исследований с использованием Google Allo 113 студентов колледжа попросили выполнить задание с партнером, при этом один из них, оба или ни один не могли использовать Smart Reply. После этого участников спросили, насколько сильно они связывают успех или провал в задании с другим человеком (или ИИ) в разговоре. В ходе второго исследования изучались лингвистические эффекты: как люди реагировали на положительные или отрицательные «умные» ответы.

Хоэнштайн обнаружила, что общение между людьми, которые использовали Smart Reply было более позитивным. Люди чаще соглашались с позитивным предложением чем с негативным, участники также часто оказывались в ситуации, когда они хотели не согласиться, но им предлагали только выразить согласие. В результате переговоры шли быстро и гладко, и Хоэнштайн отметила, что благодаря этому люди в разговоре также стали лучше относиться друг к другу.

Хоэнштайн считает, что этот эффект может быть вреден для профессиональных отношений: эта технология (в сочетании с нашей собственной внушаемостью) может отбить у нас желание отстаивать свою точку зрения или проявлять несогласие вообще. Чтобы сделать процесс общения эффективным, ИИ вполне может убрать из нашей речи любую искренность, свести разговор до реплик «мне нравится!» и «отличная идея». На рабочем месте людям всегда было сложно говорить открыто, приложение может стать дополнительным препятствием на этом пути.

В ходе исследования Хоэнштайн обнаружила, что люди ставили себе в заслугу положительные результаты решения задачи. Когда что-то не получалось, виноват был ИИ. Таким образом, алгоритм защищал человеческие отношения и обеспечивал буфер для наших собственных неудач. Возникает более глубокий вопрос о прозрачности процесса: следует ли раскрывать, что ИИ помог подготовить ответ? Когда партнер использовал Smart Reply, это изначально заставляло получателя чувствовать себя более позитивно по отношению к другому человеку. Но когда им сказали, что в этом участвовал искусственный интеллект, они почувствовали себя неловко.

В этом скрывается парадокс, который лежит в основе использования таких технологий: восприятие и реальность не совпадают. «Люди пугаются от этой мысли, но это улучшает межличностное восприятие людей, с которыми вы общаетесь, — говорит Хоэнштайн. — Это парадоксально».

В своей статье Джефф Хэнкок подчеркивает, что эти инструменты «могут иметь социальные последствия широкого масштаба», и излагает программу исследований, необходимых для технологической революции, которая происходит прямо на наших глазах. Посредничество ИИ при общении изменит то, как мы говорим, смягчит предвзятость или усугубит ее. Это может заставить нас задуматься о том, с кем мы на самом деле разговариваем. Это может даже изменить наше самовосприятие. «Если ИИ поменяет сообщения пользователя на более смешные, позитивные и экстравертные, изменится ли восприятие самого себя у человека, что он более позитивный, остроумный экстраверт?», — пишет он. Если ИИ возьмет на себя слишком много функций в нашем общении, то с чем останемся мы?

Источник

Свежие материалы