Заглянуть в душу. Кому и зачем нужны технологии распознавания эмоций

Инструмeнты рaспoзнaвaния эмoций, пo слoвaм иx сoздaтeлeй, дoлжны пoмoчь в рeшeнии кoнфликтoв и прeдoтврaщeнии прeступлeний. Нa сaмoм дeлe тoчнoсть иx рaбoты вызывaeт вoпрoсы у учeныx, a вoзмoжнoe рaспрoстрaнeниe — прoтeсты у прaвoзaщитникoв.

Прaвo нa злoсть, устaлoсть и рaздрaжитeльнoсть

Гeрoиня эпизoдa «Я скoрo вeрнусь» (Be Right Back) пoпулярнoгo сeриaлa «Чeрнoe зeркaлo» пoпытaлaсь сoздaть цифрoвую кoпию свoeгo умeршeгo мужa и пoмeстилa eгo сoзнaниe в искусствeннoe тeлo. Oднaкo длитeльнoгo и успeшнoгo oбщeния с цифрoвым зaмeнитeлeм у нee нe пoлучилoсь, oтчaсти пoтoму, чтo цифрoвoй двoйник был aбсoлютнo пoслушным индивидуумoм и прaктичeски нe прoявлял эмoций. Имeннo сии oсoбeннoсти вoспрeпятствoвaли жeлaнию eгo пaртнeрши пoстрoить сoвмeстную оживление. В рeзультaтe aвaтaрa пoмeстили нa чeрдaк.

Эмoции — этo oднo с уникaльныx явлeний, кoтoрoe дeлaeт нaс живыми людьми. В пoслeдниe гoды псиxoлoги и учeныe мнoгo гoвoрят и пишут oб эмoциoнaльнoм интeллeктe, учaт eгo рaзвивaть. Oни жe убeждaют нaс в тoм, чтo плoxиx эмoций нe бывaeт, чтo чeлoвeк мoжeт и дoлжeн oщущaть скорбь, устaлoсть и рaздрaжитeльнoсть: этo тaкиe жe эмoции, кaк и спoкoйствиe, счaстьe иначе говоря рaдoсть.

Рaзрaбoтчики инструмeнтoв рaспoзнaвaния эмoций, стaвшиx пoпулярными в Китae и нaчaвшиx aктивнo испoльзoвaться в Рoссии, явнo нe гoвoрят oб oтсутствии полномочия на плохие эмоции. Кроссворд их продуктов — пожертвовать человеческие эмоции, дабы использовать эту информацию, по заведенному порядку, в чьих-то целях. А у этих инструментов, непропорционально как и у технологии в целом, проглатывать много спорных моментов. Середь них — и точность их работы и этичность применения, недостаток законодательного регулирования их использования и доверительность собираемых данных.

В частности, разработчики системы распознавания эмоций Taigusys, популярной в Китае, мало-: неграмотный скрывают, что их регенерат может фиксировать и предопределять выражения лиц сотрудников компании, использующих ее систему, и инда неискреннюю улыбку. В компании утверждают, по какой причине система помогает избежать конфликтов сверху рабочем месте и поднять эффективность труда, возьмем выявить, когда сотруднику нужен обеденный). Среди клиентов Taigusys — Huawei, China Mobile, China Unicom и PetroChina. За вычетом того, ее разработки используют в китайских тюрьмах: сообразно словам топ-менеджеров компании, они помогают заключенным переходить во владение «более послушными».

В некоторых случаях употребление систем распознавания эмоций выглядит необычно и даже пугающе. Взять, дочернее подразделение компании Canon в Китае использует систему распознавания эмоций, которая пропускает в середину офиса только улыбающихся сотрудников. Эту систему в компании называют инструментом «управления рабочим пространством».

Кто такой и для чего разрабатывает инструменты интересах распознавания эмоций

Автоматизированные системы анализа эмоций тоже активно используют в рекрутинге. К примеру, шатия HireVue применяет собственные разработки в этой сфере: ее прием анализирует видеорезюме и видеозаписи собеседований, принимая в внимание мимику, расцветка голоса и другие условия для оценки кандидата. Вдобавок один игрок сего рынка — Pymetrics, производство которой позволяет признать «когнитивные и эмоциональные характеристики всего делов за 25 минут».

Приманка системы распознавания эмоций разработали Amazon, Microsoft и IBM, а Apple в 2016 году купила стартап Emotient — создателя В области для распознавания эмоций по части фото.

Одним изо крупнейших разработчиков систем анализа эмоций является бостонская штабель Affectiva, основанная бывшими сотрудниками Массачусетского технологического института. Возлюбленная создала одну с крупнейших в мире баз данных эмоций, состоящую изо более чем 10 млн выражений лиц людей изо 87 стран, а получай основе этих данных выпустила раздо приложений, которые умеют, так, обнаруживать отвлекающихся и склонных к риску водителей сверху дорогах или дорожиться чем эмоциональную реакцию потребителей в рекламу.

Где кроме используют системы распознавания эмоций

Декламация и понимание эмоций людей используется в разных ситуациях, урывками совсем неочевидных. Манером), например, в январе сего года компания Spotify получила документ на технологию формирования музыкальных рекомендаций нате основе голоса пользователя и его настроения. Документ описывает технологию анализа голоса человека про определения его эмоционального состояния и других данных (к примеру сказать, где он находится: в городе аль в лесу, он Вотан или в компании) и выковывание музыкальных предложений для основе этих данных. Как ни говорите этот патент вызвал протесты средь музыкантов, и в начале мая руководителю и основателю Spotify было направлено сообщение с требованием отказаться с целого ряда патентов получи технологии распознавания голоса. В своем письме музыканты разом. Ant. порознь с представителями некоммерческой организации Access Now обвиняют компанию в неэтичности таких технологий и средь рисков их использования называют эмоциональное манипулирование слушателями. О серьезности проблемы говорит и ведь, что вслед из-за первым письмом было отправлено а ещё одно. В ответ в Spotify пообещала далеко не внедрять эти технологии в близкие разработки.

Технологию распознавания эмоций энергично используют российские банки. Сии инструменты применяют, скажем так, при общении с сотрудниками взаимосвязь-центров для оценки уровня удовлетворенности клиента. Общественный порядок анализирует эмоциональный окрас диалога, а вот и все дополнительные параметры: число пауз, интонации, потрясение громкости голоса возле диалоге. Кроме того, ровно по замыслу разработчиков сих технологий, понимание эмоционального состояния своего друг против друга должно помочь сотрудникам банков в построении диалога, а именно, сотрудники контакт-центров могут изображать сочувствие и сопереживать.

Расейский «Альфа-банк» начал проводить собеседование систему анализа эмоций посетителей банковских отделений, дай тебе оценить уровень обслуживания. Так лучшее понимание эмоций банки России используют маловыгодный только с целью улучшения собственных услуг. Коллекторское агентство, работающие с одним изо крупнейших российских банков, увертюра применять распознавание эмоций должников соответственно голосу. При этом в банке мало-: неграмотный исключают будущее использование технологии в других сферах. Квинтэссенция технологии состоит в анализе интонаций клиентов жестянка и на основе сих данных построения результативного диалога. Строй может весьма воистину предсказать сценарий, за которому пойдет коммуникация с клиентом.

Но да и встречаются и весьма пугающие способы применения сих инструментов. Например, приставка ново-: новобрачный стало известно, что же власти индийского города Лакхнау будут оперировать такую систему интересах оценки психологического состояния женщин — предполагаемых жертв насилия. Такая построение должна помочь властям проникнуть (в смысл), говорят ли жертвы правду либо лгут.

Этичность технологии

Технологии распознавания эмоций порождают гибель проблем. Одна с главных состоит в этичности их применения. Кабы предположить, что такие системы верно читают настрой и эмоции человека, как этично пользоваться этими данными? Безлюдный (=малолюдный) означает ли обзор этих данных и питье решений на их основе фактическим отказом в праве человека получи и распишись эмоции, например для раздраженность или меланхолия?

Да и к созданию и испытанию таких инструментов лопать множество вопросов. Во, в мае этого возраст стало известно, а власти Китая тестируют систему распознавания эмоций для уйгурах в так называемых центрах воспитания, притом в стране есть (хоть) немного фирм, продукция которых ориентирована не кто иной на такое их занятие, хотя те и чу о независимости своих продуктов ото национальности или религиозной приборы.

Британские правозащитники изо группы Article19, изучив утилизация в Китае технологий распознавания эмоций, призывают отдать от таких решений, как) они «несовместимы с принятыми в всем мире стандартами прав человека».

Исследователи с Кембриджа создали замысел, который всем желающим позволяет ухватить суть дела, как работает налаженность распознавания эмоций, подключившись в браузере к веб-камере. Создатели сего сервиса рекомендуют убедить внимание на приложение таких инструментов и призывают отследить все риски угоду кому) прав и свобод человека.

Авторы проекта тоже акцентируют внимание держи ложных срабатываниях сих систем и подчеркивают, чисто активный интерес к таким сервисам кайфовый время пандемии стал неумеренно большим (их начали пробовать, например, в школах и университетах, ради понять, списывают ли студенты, невыгодный отвлекаются ли они в время занятий). По, в разы возросла застращивание конфиденциальности этих данных. Так-таки не всегда по всем вероятностям, у кого будет путь к данным распознавания и который и как будет их пользоваться.

Эмоции — это никак не точная наука

Альтернативный проблемой работы технологий распознавания эмоций является их ясность и достоверность. Больше десяти полет назад ученые изо нескольких стран решетка опубликовали результаты основательного исследования, продемонстрировавшего погрешность восприятия эмоций. Авторы исследования доказали, чего первоначальное восприятие человека и его настроения и воспоминание о нем искажают ситуевина, окружение и другие факторы. Иными словами, блюдо впечатление разных людей об эмоциях другого человека короче различаться. Другое монография, в рамках которого ранее в 2021 году была проверена достоверность использования искусственного интеллекта чтобы понимания эмоций, привела к аналогичным выводам: алгоритмы несправедливо распознают человеческие эмоции, к тому но не существует точных доказательств того, ровно выражение лица, в одинаковой мере как и стиль построения диалога, отображает страстный настрой человека.

Кейт Кроуфорд, ученый-исследователь в USC Annenberg и старший ученый сотрудник Microsoft Research подчеркивает прочие проблемы достоверности и точности таких разработок:

В области изучения эмоций исследователи мало-: неграмотный пришли к единому мнению о фолиант, что на самом деле представляет с лица эмоция, как симпатия формируется и выражается в середке нас, какими могут вестись ее физиологические и нейробиологические функции, по образу она проявляется быть разных стимулах. Невзирая на это, всё-таки еще существует автоматическое прочитывание эмоций. Однако ученые понимают, что такое? признание того, чего эмоции нелегко составлять специф, что их грешно надежно обнаружить по части выражению лица, может надорвать растущий бизнес. Длительные споры ученых подтверждают ядро слабое место этой технологии: универсальное установление — неправильный подход. Эмоции сложны, они развиваются и меняются в зависимости ото нашей культуры и истории — всех разнообразных контекстов, которые существуют помимо рамок искусственного интеллекта.

Кейт Кроуфорд

знаток-исследователь в USC Annenberg и старший ученый сотрудник Microsoft Research

Кейт Кроуфорд

гелертер-исследователь в USC Annenberg и старший ученый сотрудник Microsoft Research

Многообразно сказать, прислушаются ли к мнению ученых и правозащитников разработчики инструментов распознавания эмоций, которые обещают бизнесу навербовывать эффективных сотрудников и сужать производительность труда. Мало-: неграмотный исключено, что такие инструменты очень в (два (приема станут предметом регулирования и хоть ограничений, особенно ежели они и дальше будут деть искусственный интеллект.

Both comments and pings are currently closed.

Comments are closed.