«Создание искусственной эмпатии»

Создание искусственной эмпатии искусство установления эмоциональной связи

Путь к более реалистичному эмпатическому поведению роботов все еще долгий и изрезанный. ¶ Кредит: Ansira.com

Достаточно сложно для людей читать эмоции друг друга и выражать соответствующий уровень эмпатии. Попросить машину мыслить, чувствовать и действовать, как человек, выходит за рамки современного искусственного интеллекта (ИИ).

Тем не менее, для создания лучших сервисных роботов, чат-ботов и систем искусственного интеллекта, важно дарить вычислительным устройствам чувство эмпатии, способность понимать, что переживает другой человек. В настоящее время искусственные агенты могут имитировать базовые формы сострадания, но они просто реагируют на ключевые слова или другие базовые сигналы и выдают закодированные ответы.

Согласно Антони Г. Ваккаро, научному сотруднику-иностранцу в стипендиатуре в лаборатории нейроэндокринологии общественных связей (Лаборатория NEST) в Южной Калифорнийскому университете, «современные системы неисчерпаемы. До достижения точки, когда ИИ сможет определить эмоции и функционировать на уровне, который всегда обеспечивает соответствующую эмпатию и понимание, путь еще очень долгий».

На данный момент “эмпатия машиноведения остается высокоабстрактной проблемой», – говорит ассоциированный профессор философии св. Иоанна Каролина Малиновская, преподаватель в Адам Мицкевич университете в Польше и член центра когнитивной нейронауки университета. «Разработка систем, которые понимают сложные человеческие сигналы поведения, включая неопределенность и двусмысленность, представляет собой чрезвычайно сложную задачу».

Не первобытные эмоции

Наберитесь в онлайн-чат с ботом или взаимодействуйте с сервисным роботом, и, скорее всего, вы столкнетесь с системой, которая включает некую форму эмпатии; она является основой для обретения доверия и согласия с людьми. Однако, хотя слова, которые исходят от устройства, иногда могут быть утешительными, эти системы “одного подхода для всех” также могут показаться искусственными и нисколько неискренними.

Проблема заключается в основной проблеме: эмпатия является очень сложной и интригующей. “Существуют множество факторов, которые влияют на эмпатию и то, как люди воспринимают эмпатию, включая их предпочтения и реакции в различных ситуациях”, – указывает Ваккаро. К сожалению, сегодняшний ИИ не способен адаптироваться и приспособиться к индивидуальным особенностям – например, предпочтению юмора против уверений, проистекающих из того же события.

Попытка воссоздать весь спектр человеческого мышления и чувств является трудной, так как в то время как все люди разные, роботы должны работать с ограниченным набором данных, заложенных в систему. Распознавание и интерпретация слов в разных контекстах уже вызывает затруднения, но эти системы также должны справляться с выражениями лица и языком тела. «Даже лучшие сегодняшние системы часто ошибаются. Это не удивительно, потому что люди также часто неправильно понимают эмоции других», – говорит она.

Неудивительно, что грань между убедительным и манипулирующим поведением в ИИ может быть весьма тонкой. Некоторые функции вызывают сочувствие у людей и могут усилить склонность к эмпатии с роботами, в то время как другие могут подчеркивать искусственную природу взаимодействия, что может приводить к раздражению, страху, разочарованию, смущению или даже агрессии у пользователя», – говорит Малиновская.

Одной из основных проблем является склонность людей к антропоморфизации робототехнических систем, отмечает Малиновская. Иногда это хорошо, а иногда проблематично. В результате сопоставление поведения робота с конкретной ситуацией или вариантом использования может оказаться чрезвычайно сложной задачей. Например, поддерживающий робот в больнице и робот специалист по обезвреживанию бомб взаимодействуют с людьми по-разному, и у пользователей скорее всего будут разные реакции, чтобы это понять.

Эти роботы также должны вызывать разные эмоции у своих пользователей – боты для ухода могут, и даже в некоторых случаях должны, вызывать сочувствие, тогда как в случае военных роботов это обычно нежелательно. “Для того чтобы избежать проектировочных ошибок и достичь желаемых результатов, нам необходимо понять основные факторы, определяющие этот процесс”, объясняет Малиновска.

Цель, следовательно, заключается в разработке более эффективных алгоритмов, а также мультимодальных систем, которые не только реагируют на слова или текст, но также включают машинное зрение, распознавание речи и тональность, а также другие признаки, основанные на биологии человека. “Лучшая искусственная эмпатия заключается в более точном отражении мотивов человеческого поведения”, – говорит Ваккаро.

Превосходя рациональность

Университетские исследователи и компании продолжают работать над роботами, обеспечивающими эмоциональную поддержку, служебными роботами и другими инструментами для детей, взрослых с деменцией и других. В их числе такие фирмы, как Groove X, которая разработала мобильного робота стоимостью 2 825 долларов с 50 датчиками, который предлагается в качестве домашнего компаньона, и Moxie, социальный робот, помогающий детям с социальными, эмоциональными и развивающими задачами.

Однако путь к более реалистичному эмпатическому поведению роботов остается долгим и сложным. Хотя большая часть акцентов приходится на создание более совершенных языковых моделей, все больше внимания уделяется также разработке мультимодального искусственного интеллекта, который может действовать более подобно пятью человеческим чувствам. Пока заполнять все пробелы, включая нюансы языка и языка тела во всех языках и культурах, остается чем-то вроде “черного ящика”, говорит Малиновска.

Ваккаро считает, что традиционные методы жесткого закодирования поведения в вычислительные системы имеют слишком много ограничений, особенно в таких размытых областях, как эмпатия. Например, если робот смотрит видео, на котором человек испытывает боль после падения и включает это в свое обучение, он может имитировать реакцию, чтобы установить контакт с человеком. Однако такая реакция, скорее всего, будет казаться комической или абсурдной, потому что человек может понять, что здесь нет настоящей эмпатии.

Вместо этого исследовательская группа Ваккаро исследовала идею использования машинного обучения для помощи системам ощутить то, через что проходит настоящий человек, с акцентом на уязвимость. Хотя пока невозможно действительно заставить робота почувствовать боль от падения, устройство может по крайней мере начать разбираться в происходящем и в том, как человек интерпретирует свои чувства. “Это способ сделать системы искусственного интеллекта более объективно умными и уменьшить риск неприемлемого или антиобщественного поведения системы”, – отмечает Ваккаро.

Нехватка слов

Еще одной проблемой является излишняя зависимость от эмоционально поддерживающих систем. Например, робот, предоставляющий поддержку пациентам с деменцией, может предложить компаньонство, а также когнитивную стимуляцию, говорит Лорел Рик, профессор компьютерных наук и инженерии в Университете Калифорнии в Сан-Диего и директор Лаборатории робототехники здравоохранения университета.

Однако, “Люди могут очень привязаться к роботам, особенно когда они предоставляют социальную или терапевтическую поддержку”, – говорит Рик. Тот же самый робот может усугублять ощущение социальной изоляции и вызывать проблемы безопасности и автономии. Рик поддерживает концепцию выходов для людей. “Все взаимодействия с роботом в конечном итоге закончатся, поэтому важно обеспечить участие пользователей в процессе создания плана выхода”.

Существуют и другие проблемы. Рик говорит, что среди них есть злоумышленники, использующие эмпатийные подходы для обмана и манипулирования людьми, вытеснение работников здравоохранения и других сфер, а также вопросы конфиденциальности данных, особенно когда робототехнические устройства используются для установления связей с людьми в здравоохранении.

Тем не менее, концепция искусственной эмпатии в машинах безусловно будет развиваться. Как заключает Малиновска: “Пройдет много времени, прежде чем робототехнические системы и искусственный интеллект достигнут сходства с людьми в отношении искусственной эмпатии. Но мы продолжаем приобретать понимание и делать прогресс”.

Сэмюэль Грингард – автор и журналист из Уэст-Линн, штат Орегон, США.