Предвзятые роботы: как компьютер учится стереотипам

Предвзятые роботы: как компьютер учится стереотипам

Будущее

Стереотипность — это неотъемлемая черта любого человеческого языка, порой абсолютно безвредная и непримечательная. Например, цветы у нас ассоциируются с положительными словами, а насекомые — с отрицательными. Оказывается, компьютер, обучаясь человеческим языкам, неизбежно будет запоминать в том числе и различные стереотипы и предрассудки. К такому выводу пришла группа ученых из Принстона, которая провела исследование алгоритмов машинного обучения английскому языку — тех, на основе которых работают Google, Siri и другие приложения, взаимодействующие с языком.

В рамках исследования алгоритм использовал тексты на английском языке, взятые из интернета (в общей сложности почти триллион слов). В результате у компьютера появилось множество традиционных стереотипов. Например, мужские имена оказались более тесно связаны с такими словами, как «управление» и «зарплата», а женские — со словами «дом» и «семья».

Также авторы сравнили силу ассоциаций между названиями различных профессий и слов, обозначающих принадлежность к женскому полу. Оказалось, компьютер очень точно смог указать число женщин, работающих в каждой из указанных профессий.

Подробнее об исследовании можно прочитать на сайте Quartz.

Свежие материалы