Технология обнаружения эмоций должна быть ограничена законом

Биометрика Технологии

Системы распознавания человеческих эмоций по выражению лица утверждают, что способны распознавать лежащее в основе эмоциональное состояние человека. Они утверждают, что читают, если хотите, наши внутренние эмоциональные состояния, интерпретируя микро-выражения на нашем лице, тон нашего голоса или даже то, как мы ходим.

Технологии, как говорят их разработчики, используются везде, от того, как вы нанимаете идеального сотрудника до оценки боли пациента, отслеживания того, какие студенты, кажется, внимательны на занятиях.

Ведущий исследовательский центр призвал принять новые законы, ограничивающие использование технологий обнаружения эмоций. Институт AI Now говорит, что выводы строятся «на заметно шатких основаниях».

Несмотря на это, системы продаются, например, чтобы помочь проверять подозреваемых в преступлениях на признаки обмана и устанавливать страховые цены.

Но данный исследовательский центр хочет, чтобы такое программное обеспечение было запрещено использовать в важных решениях, которые влияют на жизнь людей и/или определяют их доступ к возможностям.

Этот американский центр нашел поддержку в Великобритании, у основателя компании, разрабатывающей свои собственные технологии эмоционального реагирования, но он предупредил, что любые ограничения должны быть достаточно тонкими, чтобы не препятствовать всей работе, проводимой в этой области.

По мнению ученых, в то же время, как эти технологии внедряются, большое количество исследований показывает… нет никаких существенных доказательств того, что люди имеют эту постоянную связь между эмоциями, которые они испытывают, и тем, как они при этом выглядят.

Профессор Кроуфорд предположил, что часть проблемы заключалась в том, что некоторые фирмы основывали свое программное обеспечение на работе Пола Экмана, психолога, который в 1960-х годах предположил, что существует только шесть основных эмоций, выражаемых через эмоции лица.

Но, добавила она, последующие исследования показали, что существует гораздо большая вариативность, как с точки зрения количества эмоциональных состояний, так и с точки зрения того, как люди их выражают. «Это зависит от принадлежности людей к разным культурам, от ситуации, это меняется даже в течение одного дня у одного и того же человека», — говорит Кроуфорд.

Сторонники использования технологии распознавания эмоций утверждают, что способность обнаруживать эмоции, такие как гнев, стресс или беспокойство, обеспечивает правоохранительным органам дополнительную проницательность при проведении крупномасштабного расследования.

Также они, в большинстве своем соглашаются, что именно ответственное применение этой технологии будет фактором, делающим мир более безопасным.

HireVue, которая продает управляемые ИИ видеоинструменты, предназначенные, чтобы рекомендовать, с какими кандидатами компания должна провести собеседование, использует сторонние алгоритмы для обнаружения «эмоциональной вовлеченности» в микро-выражениях кандидатов, чтобы помочь сделать свой выбор. Представители разработчика говорят, что использование их технологического инструмента способно помочь устранить значительную человеческую предвзятость в существующем процессе найма.

Была также упомянута компания Cogito, которая разработала алгоритмы анализа голоса для сотрудников колл-центра, чтобы помочь им обнаружить, когда клиенты становятся обеспокоенными.

Однако сторонники осторожного внедрения подобных технологий уверены, прежде, чем искусственный интеллект по распознаванию эмоций получит разрешение на самостоятельное принятие автоматизированных решений, необходимо получить значительно больше доказательств того, что машины действительно могут эффективно и последовательно обнаруживать человеческие эмоции, истолковывать.

То, что можно сделать сегодня, — это оценить поведение, которое опосредует определенные эмоции, и предоставить вывод, сделанный ИИ человеку, чтобы помочь ему принять правильное решение.

Для развития технологии в более самостоятельную в будущем все практики и лидеры в этой области должны сотрудничать, исследовать и разрабатывать решения, способствующие более глубокому, общему пониманию, которое в конечном итоге приведет к более тесным отношениям друг с другом — не вопреки технологии, а благодаря ей.

Вот еще пример того, как компания, желающая интегрировать технологию обнаружения эмоций в гарнитуры виртуальной реальности, подходит к решению задачи. Emteq-брайтонская фирма, основатель которой говорит , что хотя современные системы искусственного интеллекта могут распознавать различные выражения лица, не так-то просто определить, в каком эмоциональном состоянии находится субъект. «Нужно понять контекст, в котором происходит эмоциональное выражение. Например, человек может хмурить лоб не потому, что он сердится, а потому, что он концентрируется или солнце светит слишком ярко, и он пытается защитить свои глаза. Контекст – это ключевой момент. И это — то, что вы не можете получить, просто глядя на компьютерное отображения лица», — объяснил Чарльз Ндука.

Он тоже считает, что необходимо регулировать использование такой техники.

Чарльз Ндука, однако, выразил обеспокоенность тем, что если законодатели примут решение об ограничении использования технологий распознавания эмоций, которую он и другие создают, они могут ограничить ее и в медицинской сфере, где, например, с «контекстом боли» все достаточно понятно.

«Если что-то будет запрещено, очень важно, чтобы люди не выбрасывали ребенка вместе с водой из ванны», — сказал он.