€ 70.66
$ 63.74
Рана эль Калиоби: Это приложение знает, что вы чувствуете, — по выражению вашего лица

Лекции

Саморазвитие 130 Лидерство 53 Будущее 0 Свой бизнес 35 Образ жизни 15 Экономика 69 История 6

Рана эль Калиоби: Это приложение знает, что вы чувствуете, — по выражению вашего лица

Наши эмоции оказывают влияние на все стороны жизни — как мы получаем знания, как общаемся, как принимаем решения. И все же их нет в нашей цифровой жизни. Устройства и приложения, которыми мы пользуемся для общения, не оснащены возможностью узнать, что мы чувствуем. Исследователь Рана эль Калиоби намерена это изменить. Она демонстрирует новую мощную технологию, считывающую выражение лица и сопоставляющую его с соответствующей эмоцией. «У этого «эмоционального ядра» есть множество применений, — говорит она, — и оно может изменить не только то, как мы взаимодействуем с машинами, но и как мы взаимодействуем друг с другом»

Рана эль Калиоби
Будущее

Наши эмоции оказывают влияние на все стороны жизни: от здоровья и способов получения знаний, до ведения бизнеса и принятия важных либо не очень важных решений. Наши эмоции также влияют на то, как мы взаимодействуем друг с другом. Мы созданы для жизни в мире эмоций, но вместо этого все чаще и чаще мы живем вот так — это смс от моей дочери, которое я получила вчера вечером, — в мире, напрочь этих эмоций лишенном. Я намерена это изменить. Я хочу вернуть эмоции в наш цифровой мир.

Этот путь я начала 15 лет назад. Я работала программистом в Египте и только что поступила в аспирантуру в Кембридже. Я сделала нечто несвойственное молодым новобрачным мусульманкам-египтянкам: при поддержке своего мужа, которому пришлось остаться в Египте, я упаковала чемоданы и переехала в Англию. В Кембридже, за тысячи километров от дома, я осознала, что провожу за ноутбуком больше времени, чем с людьми. Но несмотря на эту близость, мой ноутбук не имел представления о моих чувствах. Он не знал, счастлива ли я, был ли у меня тяжелый день, напряжена ли я или потеряна, и это стало меня расстраивать. Даже хуже того: общаясь с семьей онлайн, я чувствовала, как эмоции испаряются в киберпространстве. Я скучала по дому, мне было одиноко, иногда я даже плакала, и единственным способом передать все эти чувства было вот это. Технологии сегодняшнего дня обладают огромным IQ, но не EQ — высокий показатель интеллекта, но никакого эмоционального интеллекта. Тогда я задумалась: а что, если бы технологии могли ощущать наши эмоции? Что, если бы наши устройства могли ощущать, как мы себя чувствуем, и реагировать в соответствии этому, как сделал бы эмоционально интеллектуальный друг? Эти вопросы подтолкнули меня и мою команду на создание технологий, способных понимать и отвечать на наши эмоции. И начали мы с человеческого лица.

Человеческое лицо — один из самых мощных каналов, используемых нами для передачи социальных и эмоциональных состояний: наслаждения, удивления, сопереживания, любопытства. В науке об эмоциях каждое движение мышцами лица мы называем действием. Например, действие 12 — это не название голливудского блокбастера, а движение уголков губ вверх — главный компонент улыбки. Давайте-ка все попробуем улыбнуться! Другой пример — действие 4. Это нахмуривание бровей. Это когда сводишь брови вместе, и получаются морщинки. Мы их не любим, но они — явный показатель негативной эмоции. У нас 45 таких действий, и они комбинируются для передачи сотен эмоций.

Научить компьютер считывать выражения лица трудно, потому что такие действия могут быть быстрыми, нечеткими и по-разному комбинироваться. Возьмем, к примеру, улыбку и ухмылку. Они выглядят похоже, но значат абсолютно разные вещи. Улыбка позитивна, а ухмылка часто негативна. Иногда ухмылка может сделать вас знаменитым. Но если серьезно, важно, чтобы компьютер мог определить разницу между этими двумя выражениями.

Как это сделать? Мы снабжаем наши алгоритмы десятками тысяч примеров людей, которые точно улыбаются, — людей из разных этнических групп, разных возрастов, разного пола. То же самое мы делаем и для ухмылки. А затем с помощью глубинного обучения алгоритм рассматривает все эти текстуры, морщинки и изменения форм лица и запоминает, что у всех улыбок есть общие характеристики, а у ухмылок — слегка иные характеристики. В следующий раз, когда компьютер видит новое лицо, он, по сути, узнает, что у этого лица есть те же самые характеристики улыбки, и восклицает: «Ага! Узнаю. Это выражение улыбки».

Лучший способ показать эту технологию в работе — это живая демонстрация, так что мне нужен волонтер, желательно с лицом. Хлоя будет сегодня нашим волонтером.

За последние 5 лет мы превратились из исследовательского проекта в MIT в компанию, где моя команда упорно трудилась над тем, чтобы технология заработала, как мы любим говорить, в естественных условиях. Мы также ее уменьшили, и теперь центральное ядро эмоций работает на любом мобильном устройстве с камерой, как вот этот iPad. Давайте попробуем.





Как вы видите, алгоритм обнаружил лицо Хлои — вот эта белая рамка — и он отслеживает основные характерные точки на ее лице: это ее брови, глаза, рот и нос. Вопрос в том, может ли он определить выражение ее лица? Протестируем механизм. Сначала покажи мне каменное лицо. Да, супер. А затем, когда она улыбается… Искренняя улыбка, здорово! Видите, зеленая полоска растет, когда она улыбается? Это была широкая улыбка. Можешь слегка улыбнуться, чтобы посмотреть, распознает ли компьютер? Да, распознает и неявные улыбки. Мы усердно трудились, чтобы это работало. Теперь подними бровь — индикатор удивления. Сдвинь брови — индикатор замешательства. Посмотри с неодобрением. Да, отлично. Это различного рода действия. Их гораздо больше. Это короткая демонстрация. Каждое считывание эмоции мы называем точкой данных. Они подпитывают друг друга для изображения разных эмоций. На правой стороне демо — смотри, как будто ты счастливая. Это радость. Радость усиливается. А теперь покажи мне отвращение. Вспомни, как Зейн ушел из группы One Direction. Да, сморщи нос. Великолепно. Валентность весьма негативная, то есть ты, пожалуй, была фанатом. Валентность — это насколько опыт положителен или отрицателен. А вовлеченность — насколько она выразительна. Представьте, если бы у Хлои был доступ к этому потоку эмоций в реальном времени и она могла бы поделиться этим с кем угодно.

На данный момент мы собрали 12 млрд таких вот точек данных. Это самая крупная база данных эмоций в мире. Мы собрали ее с 2,9 млн видео — людей, согласившихся поделиться с нами своими эмоциями, — из 75 стран мира. База данных с каждым днем растет. Меня поражает, что теперь мы можем измерять нечто настолько личное, как эмоции, причем в таком масштабе.

Что мы узнали на сегодняшний день? Данные о полах. Наши данные подтверждают то, о чем вы, пожалуй, сами догадываетесь: женщины более выразительны, чем мужчины. Они не только чаще улыбаются, но и улыбки их длятся дольше. И теперь мы можем измерить, на что мужчины и женщины реагируют по-разному. Начнем с культуры: в США женщины на 40% выразительнее мужчин, но любопытно, что в Англии подобного различия не наблюдается. Возраст: люди от 50 лет и старше на 25% более эмоциональны, чем те, кто моложе. Женщины после 20 улыбаются куда чаще мужчин того же возраста, может, это необходимо для флирта. Но, пожалуй, больше всего нас удивило то, что мы постоянно передаем эмоции, даже когда в одиночестве сидим за своими устройствами, причем не только когда смотрим видео о кошках на Facebook. Мы выражаем эмоции, когда пишем имейлы, смс, делаем покупки онлайн или даже оформляем налоги.

Где сейчас используются эти данные? Для анализа взаимодействия со СМИ, то есть чтобы изучить виральность и электоральное поведение, а также в технологиях, делающих возможным проявление эмоций. Я хочу поделиться несколькими дорогими мне примерами. Очки с эмоциональной поддержкой позволяют пользователю со слабым зрением считывать лица окружающих, они могут помочь людям с аутизмом определять эмоции — сложная задача для таких людей. В образовании: представьте, что ваше обучающее приложение чувствует, что вы запутались, и понижает темп, или чувствует, что вам скучно, и ускоряется, как бы сделал хороший учитель в классе. Что, если бы наручные часы отслеживали ваше настроение или автомобиль ощущал, что вы устали, или, может, ваш холодильник чувствовал, что вы напряжены, и запирался, чтобы предотвратить обжорство. Мне бы такое понравилось. Что, если бы, когда я была в Кембридже, у меня был доступ к моему эмоциональному потоку в реальном времени и я могла бы поделиться им со своей семьей, как если бы они были со мной в одной комнате?

Думаю, через 5 лет у всех наших устройств будет эмоциональный чип, и мы забудем о тех временах, когда мы не могли просто нахмуриться, а наше устройство сказало бы: «Тебе это не понравилось, не так ли?» Наша наибольшая трудность в том, что у этой технологии так много областей применения, что я и моя команда не можем все делать в одиночку. Мы сделали эту технологию доступной, чтобы другие разработчики могли начать свои проекты и творить. Мы осознаем, что есть риск и возможность неправильного обращения, но лично мне, после многих лет за этим делом, кажется, что польза для человечества от наличия эмоционально интеллектуальной технологии значительно перевешивает риски злоупотребления. Я приглашаю всех принять участие. Чем больше людей знают об этой технологии, тем больше возможности для каждого из нас высказаться о том, как ее использовать. По мере того, как наша жизнь все больше становится цифровой, мы ведем безнадежную борьбу, пытаясь обуздать применение устройств, чтобы вернуть нам наши эмоции. Вместо этого я пытаюсь привнести эмоции в технологии и сделать их более чуткими. Я хочу, чтобы устройства, отделившие нас друг от друга, снова нас объединили. Путем очеловечивания технологий мы обретаем блестящую возможность переосмыслить то, как мы взаимодействуем с машинами, а значит и то, как мы, люди, взаимодействуем друг с другом.

Перевод: Алина Силуянова
Редактор: Ольга Дубан

Источник

Свежие материалы