Экономика эмпатии: Наступает время эмоционального искусственного интеллекта

Эмоциональные машины улучшают взаимодействие между людьми и системами, поддерживающими бизнес

Источник: «Сбербанк»


09:55 29.10.2018   |   3760 |  Майк Илган |  Computerworld, США

Рубрика Предприятие



Искусственный интеллект способен распознавать человеческие эмоции лучше, чем это делают люди.

Большой бизнес становится эмоциональным.

Пользовательские интерфейсы и другие аспекты корпоративных компьютерных систем все чаще разрабатываются для распознавания эмоционального состояния и настроения пользователей, а также для имитации эмоций при взаимодействии с людьми.

В опубликованном в январе 2018 года отчете аналитики Gartner утверждают, что уже в ближайшие четыре года устройства «будут знать о вашем эмоциональном состоянии больше, чем члены вашей семьи».

Глубинное обучение помогло улучшить анализ эмоционального состояния и дополнить основные эмоции – счастье, удивление, гнев, печаль, страх и отвращение – еще двадцатью более тонкими оттенками, к которым относятся, например, благоговейный трепет, радостное удивление и ненависть. (Психологи говорят о том, что у людей проявляются 27 различных эмоций.)

В Университете штата Огайо разработана программа, позволяющая по фотографии и выражению лица распознавать 21 эмоцию. И вот что поражает: по заверениям исследователей, их система выявляет эмоции лучше человека.

Для внедрения эмоциональных интерфейсов на предприятии есть по крайней мере две причины: важная и очень веская.

Сначала о важной.

Эмпатия стимулирует бизнес

«Экономика эмпатии» – это денежная или деловая ценность, создаваемая искусственным интеллектом, который обнаруживает и имитирует человеческие эмоции, возможность, трансформирующая клиентское обслуживание, виртуальных помощников, роботов, безопасность на предприятиях, здравоохранение и транспорт.

В ходе опроса, проведенного Frost & Sullivan по заказу компании Cogito, 93% респондентов заявили, что взаимодействие со службой поддержки решительным образом влияет на восприятие клиентом компании. А эмпатия является одним из ключевых факторов качественного взаимодействия.

Программное обеспечение искусственного интеллекта Cogito, построенное на основе результатов поведенческих исследований лаборатории Human Dynamics Lab Массачусетского технологического института, анализирует эмоциональное состояние клиентов и мгновенно пересылает соответствующую информацию сотрудникам контакт-центра, что помогает им лучше сопереживать клиентам.

Технология такого рода наделяет персонал контакт-центра сверхспособностями к сопереживанию, что в свою очередь заметно улучшает внешнее восприятие организации.

Компании Affectiva и Realeyes предлагают облачные решения, использующие веб-камеры для отслеживания выражения лица и частоты сердечных сокращений (распознавая биение пульса на коже лица). Такие решения применяются в том числе и в исследованиях рынка (потребители смотрят рекламу, а компьютер анализирует их отношение к видеоряду и рекламному тексту).

Предприятия рассматривают и экспансию в другие области, например, в сферу здравоохранения, где автоматизированные call-центры могут обнаруживать в голосе звонящего депрессию или боль, даже если он не выражает их вербально.

Робот Forpheus, созданный японской компанией Omron Automation и продемонстрированный в январе на выставке потребительской электроники CES, играет в пинг-понг. В арсенал его навыков игры в настольный теннис входит способность читать язык тела, анализируя таким образом настроение соперника и уровень его мастерства.

Впрочем, основным предназначением этого робота является не пинг-понг, а промышленные машины, которые, работая «в гармонии» с людьми, повышают тем самым производительность труда и уровень безопасности. Читая язык тела фабричных рабочих, промышленные роботы прогнозируют направление и характер их перемещений.

Роботы Sanbot, Pepper и 3E-A18, выпускаемые соответственно компаниями Qihan Technology, SoftBank Robotics и Honda, помогают людям воспринимать информацию на стендах аэропортов, торговых центров, гостиниц и в других местах. Они распознают и имитируют человеческие эмоции, выдавая благодаря этому полезный ответ на любой заданный вопрос. Эти роботы умеют читать язык тела, анализировать голосовые нюансы и выражение лица, распознавая чувства пользователя и моменты, когда он находится в замешательстве.

Другим крупным и очевидным направлением применения технологий распознавания эмоций являются автомобили и грузовики. Используя биометрические датчики и камеры на приборной панели, в сиденьях и ремнях безопасности, бортовые средства искусственного интеллекта распознают у водителя состояние стресса или усталости. Автомобили, распознающие эмоции, способны уменьшить количество дорожно-транспортных происшествий и удешевить страховку.

Компания Ford, например, в сотрудничестве с ЕС занимается разработкой подобной системы.

Создатели технологий распознавания эмоций не ограничиваются анализом фотографий, видео и разговорного языка.

Решение IBM Watson поддерживает функцию «анализатора тона», которая выявляет эмоции и даже сарказм при письменном общении.

Несмотря на то, что приложения эмоционального искусственного интеллекта очень широко применяются на предприятиях, впервые они были использованы в потребительской сфере и общественной жизни.

Недавно в Facebook зарегистрировали патенты на «фильтры селфи, распознающие эмоции». Идея заключается в выборе для селфи подходящей «маски» на основе выявленных на фотографии эмоций. Например, если человек на фотографии кажется грустным, в качестве фильтра по умолчанию используются мультяшные слезинки. А человек, который выглядит счастливым, получает фильтр «счастливого панды».

В видеоигре Nevermind биологическая обратная связь позволяет распознать настроение игрока и подстроить соответствующим образом уровень сложности. Игра становится тем сложнее, чем более испуганным выглядит игрок. (Здесь используется технология, разработанная компанией Affectiva.)

Все это тривиальные приложения, но они помогут обществу привыкнуть к идее программного обеспечения, распознающего эмоции.

В Великобритании правительство использует специально разработанный компаниями FlyingBinary и Emrays сервис G-Cloud 10, чтобы держать руку на пульсе настроений, которые определяются на основе эмоций, выявляемых в публикациях и комментариях в социальных сетях.

А для людей, живущих в Китае, первое столкновение с искусственным интеллектом происходит уже в школе. В марте классные аудитории в китайских школах начали оснащаться видеокамерами, которые используют искусственный интеллект для распознавания эмоционального состояния учеников. (Кроме того, система отслеживает, что делают дети в каждый конкретный момент.) Учащиеся ранжируются даже по тому, насколько они сосредоточены. Нужно не просто внимательно смотреть и слушать, но еще и демонстрировать свою сосредоточенность.

Эмоции и эмпатия во многих отношениях стимулируют бизнес. Это то, что касается важной причины применения таких технологий.

А теперь о веской причине.

Эмоции необходимы для общения

Искусственный интеллект и роботы – это машины, а люди – нет.

Согласно распространенному заблуждению, содержание наших слов есть суть человеческого общения. На самом же деле, люди общаются при помощи не только слов, но и интонации голоса, выражения лица, жестов и языка тела.

Вот почему общение по электронной почте чревато недопониманием. Без невербальных сигналов существенная часть смысла теряется.

В богатой истории вычислительной техники общая тенденция такова: по мере того, как компьютеры становятся все более мощными, существенная часть этой вычислительной мощности тратится на повышение качества взаимодействия между машиной и пользователем.

Когда-то давно в качестве интерфейса использовались переключатели, перфокарты и перфоленты. Общаться на двоичном языке компьютеров человеку было тяжело. Затем произошел довольно быстрый переход от командной строки к графическому интерфейсу и далее к интерфейсу голосовому. С каждым последующим этапом машине становится все тяжелее поддерживать интерфейс, упрощающий взаимодействие для человека.

Проблема в том, что сегодняшние голосовые интерфейсы не удовлетворяют существующие потребности, поскольку оперируют исключительно словами, а не невербальными сигналами. Когда вы разговариваете с голосовым помощником, произнесенные вами слова преобразуются в текст, и именно текст затем анализируется. В будущем для понимания смысла и контекста анализироваться будут как текст, так и голосовая интонация.

Главное преимущество эмоционального искусственного интеллекта заключается в том, что взаимодействие между человеком и машиной все чаще происходит как на вербальном, так и на невербальном уровне, что способствует улучшению понимания с обеих сторон.

Наиболее интересной сферой применения средств распознавания и имитации эмоций могли бы стать наши повседневные виртуальные помощники. В новых версиях Siri, Google Assistant, Alexa и Cortana взаимодействие будет интерпретироваться по-другому, на основе эмоций пользователя.

В октябре я уже говорил о том, что камера iPhone X и функции Face ID открывают путь к высококачественному распознаванию эмоций смартфонами. Теперь целая отрасль быстро продвигается вперед в деле создания телефонов с эмпатией.

Ведущий производитель телефонов в Китае, компания Huawei (у которой, по ее данным, в настоящее время насчитывается 110 млн пользователей), работает над модернизацией существующего виртуального помощника и его оснащением средствами искусственного интеллекта, умеющими распознавать эмоции пользователя.

Все крупные поставщики виртуальных помощников – Apple, Amazon, Google, Samsung – стараются улучшить голосовое взаимодействие за счет использования датчиков эмоций и имитаторов с искусственным интеллектом.

Суть в том, что эмоциональные машины улучшают конечный результат. Они добиваются этого самыми разными способами, но наиболее важным из них является улучшение взаимодействия между людьми и системами, поддерживающими бизнес.


Теги: Робототехника Искусственный интеллект Обработка естественного языка
На ту же тему: