Исследование, что делает набор инструментов по этике искусственного интеллекта работоспособным

Исследование набора инструментов по этике искусственного интеллекта

Наборы инструментов этики искусственного интеллекта повсюду, но мы действительно их понимаем?

Фото Тодда Квакенбуша на Unsplash - Пришло время разобрать набор инструментов этики искусственного интеллекта

Введение

По мере увеличения использования ИИ-систем в приложениях с серьезными последствиями эксперты все чаще призывают к более участным и ценностно ориентированным практикам при их проектировании. Увеличение участия заинтересованных сторон может принести ряд преимуществ в проектировании ИИ-систем, включая их более широкую доступность, борьбу с существующими предубеждениями и обеспечение ответственности. В ответ на это, в последние годы область этики искусственного интеллекта произвела значительное количество наборов инструментов. Они поступают из разных источников, таких как университеты, компании и регулирующие институты, применяют различные методы и фреймворки, и имеют различные целевые аудитории от специалистов по обработке данных и инженеров ИИ до дизайнеров и широкой общественности (Wong и др., 2023).

Многие наборы инструментов этики искусственного интеллекта фокусируются исключительно на технических аспектах, связанных с созданием ИИ, и в основном адресованы техническим специалистам (например, инструмент FAIR Self-Assessment). Однако есть несколько наборов инструментов, которые отстаивают участие заинтересованных сторон, особенно заинтересованных сторон, не входящих в команду создания ИИ, таких как конечные пользователи и эксперты в области (например, инструмент AI Meets Design). Наборы инструментов, которые фокусируются на включении заинтересованных сторон, обычно обеспечивают ресурсы, такие как канвасы или наборы карточек, которые позволяют заинтересованным сторонам, особенно тем, у кого нет технического образования, участвовать в дизайнерских мероприятиях. Участие может привести к широкому спектру результатов, начиная от обсуждения последствий различных решений до развития эмпатии с пользователями ИИ.

Несмотря на большое количество наборов инструментов, никто действительно не пытался понять, что делает их работающими или каковы их основные стратегии. Это означает, что неясно, действительно ли они оказывают положительное влияние на пользователей наборов инструментов и на результаты, которые они производят при использовании этих наборов, несмотря на их широкое использование. Из-за этого я хотел изучить, как работает определенный набор инструментов, что оказалось очень познавательным опытом.

Часть набора инструментов 'AI Meets Design', созданного Надией Пиет, AIxDESIGN. Взято с: https://aixdesign.co/shop.

Что я сделал

Я провел дизайн-воркшоп с 9 участниками, работающими с ИИ в различных областях. Воркшоп состоял из идеационной деятельности для обсуждения сценариев использования и функций дизайна для вымышленного разговорного ИИ, помогающего людям самостоятельно управлять диабетом. В нем использовался набор инструментов этики искусственного интеллекта, созданный отдельным дизайнером, а не корпорацией или университетом. Я специально выбрал этот набор инструментов, чтобы более глубоко изучить, что в его основе лежит и что делает его успешным, несмотря на отсутствие массового финансирования.

Воркшоп был проведен на платформе Miro и длился два часа. Набор инструментов состоял из набора карточек. Каждая карточка имела определенную ценность (например, конфиденциальность, автономия, безопасность и т. д.) и вопросы “Как мы можем?” (How Might We?), которые служили подсказками для различных идей, которые могли привести к соблюдению указанной ценности в создаваемой технологии. Я разместил эти карточки на доске Miro и оставил стикеры для людей для идей, затем каждому участнику присвоил две ценности, на которые они должны были сосредоточиться индивидуально.

Через час мы все собрались вместе, и я перевернул карточки так, чтобы люди уже не видели ценности, а только идеи на стикерах, которые они написали. Я попросил каждого участника представить свои идеи, и остальным пришлось угадывать ценность, которую они стремились соблюдать.

Снимок экрана с доски Miro воркшопа, показывающий карточку 'честность' и идеи, которые участник размышлял вокруг нее.

Что я узнал

Использование ценностей в качестве пружин для развития эмпатии и более широких соображений

Набор инструментов был разработан для использования списка ценностей, которые они предоставили, как пружин для идеализации и генерации идей. 3 участника отметили, что это был очень полезный подход:

«Было интересно увидеть, как различные ценности применимы к разработке разговорного агента».

«Мысли о дизайне с позиции одной ценности за раз».

«Просмотр карт ценностей и производство идей на их основе».

  • Было мало фокуса на техническую осуществимость в пользу акцентирования внимания на ценностях и важности разных идей с точки зрения пользователя. Участникам, кажется, понравилось и предпочли это, так как это предложило приветственное изменение фокуса с технических аспектов и пренебрежения ценностями, такими как безопасность и равенство. Один участник выразил мнение, что эти ценности могут не возникать, когда человек мыслит о системе и о том, что можно построить и технологии, лежащей в ее основе, или думает о том, что самое простое или быстрое для выполнения. Он сказал, что хотя люди должны думать о таких ценностях при проектировании, это не всегда так, так как есть другие приоритеты, затмевающие это. Вкратце, акцентирование внимания на ценностях помогло участникам генерировать идеи и рассматривать обычно пренебрегаемые не-технические аспекты.
  • Упражнение заставило участников захотеть узнать больше о жизни диабетиков и их опыте, чтобы понять, как лучше всего поддержать их наиболее индивидуализированным и конкретным образом и придумать решения, которые действительно были бы актуальными и не основаны на предположениях. Ценности, которые вызвали это желание, были «спокойствие» (ведущее к желанию получить информацию о ситуациях, вызывающих у них стресс и беспокойство) и «безопасность» (ведущее к желанию получить информацию о ситуациях, которые могут привести к опасности для них). Вкратце, фокусировка на ценностях увеличила (i) эмпатию участников к целевым пользователям и (ii) их любопытство/желание научиться лучше поддерживать их.
Фото Милтиадиса Фрагкидиса на Unsplash — Работа со значениями заинтересованных сторон может способствовать глубокой эмпатии и пониманию

Использование геймификации для повышения вовлеченности и улучшения результатов

Участники очень наслаждались аспектом геймификации, когда им приходилось угадывать значения:

«Мне понравилось угадывать, к какой ценности относятся идеи — это удерживало меня намного больше вовлеченным в обсуждение, чем простое чтение/обсуждение».

«Я думаю, что угадывание значения наиболее полезно для полного понимания различных ценностей и их взаимосвязи».

  • При угадывании значений участники чувствовали, что несколько идей могут соответствовать разным ценностям, и разные идеи под разными ценностями относились к одному и тому же концепту или предложению. В ходе обсуждения также отмечалось, что некоторые ценности слишком похожи или имеют большие перекрытия, и их трудно отличить друг от друга. — Многие ценности считались слишком похожими или перекрывающимися, и участникам было сложно их угадывать или различать. Между разными ценностями существует много связей, и некоторые могут приводить к другим или способствовать им, или воплощать схожие феномены/эмоции. При угадывании «равенство» было принято за «инклюзивность»; «сообщество», «свобода» и «автономия» не могли быть различены друг от друга; «мастерство» было спутано с «смелостью» и «любопытством»; и «инклюзивность» была принята за «доступность» и «уважение». Вкратце, геймификация позволила участникам лучше понять взаимосвязи между идеями и ценностями.
Фото Эрика Маклина на Unsplash — Геймификация имеет много преимуществ. В контексте совместного проектирования ИИ она может помочь участникам понять взаимосвязи и больше насладиться вовлеченностью.

Будущие улучшения и идеи

  • Три участника отметили, что им хотелось бы получить больше контекстной информации и подсказок, чтобы лучше сопереживать целевым заинтересованным сторонам разговорного искусственного интеллекта. Участники сопереживали пользователям, используя конкретные ценности, такие как “безопасность” и “спокойствие”, и хотели узнать больше о их опыте, чтобы лучше поддерживать их с помощью более индивидуальных решений, которые специально учитывают их потребности. Один из участников считал, что первоначальная подсказка не содержала обратной связи от людей, для которых они разрабатывали идеи (диабетиков), чтобы на самом деле сгенерировать идеи для них. Он хотел получить более индивидуальную специфическую информацию о сценариях пользователей, описаниях моментов из их жизни или реальной контекстной информации, которая может быть использована для более индивидуальной настройки генерируемых идей.
  • Один из предложений заключалось в проведении такого же мероприятия, которое сначала фокусируется на абстрактном, высоком уровне без предварительной информации, а затем собирает информацию о пользователях для контекста. Потому что если сначала собирать информацию о пользователях, вы можете упустить идеи или ценности и быть слишком сосредоточенными на том, что вы собрали. Затем вы можете объединить все это и снова провести сеансы брейншторминга и технические аспекты с учетом обоих источников знаний.
  • Два участника отметили, что если бы у них не было списка ценностей с определениями, то им могли бы быть трудности с поиском точных слов, используемых для описания ценностей, возможно, что-то похожее на них, но не точно то же самое. Было бы также сложно понять, что означают эти ценности без предоставления для них описаний.

Как это может помочь вам

Этот эксперимент, направленный на то, чтобы понять, что делает «набор инструментов по этике искусственного интеллекта» эффективным, привел меня к более глубокому пониманию силы использования геймификации и упражнений на основе ценностей. Ниже я изложил свои наработки в шесть пунктов, которые могут помочь вам проводить собственные дизайнерские мастерские с использованием наборов инструментов по этике искусственного интеллекта с заинтересованными сторонами для брейншторминга или создания концепций в области разработки искусственного интеллекта:

  • Один из основных аспектов коллективного мышления о этике искусственного интеллекта заключается в том, чтобы сделать искусственный интеллект более ориентированным на человека. Поэтому очень важно включить много контекстной (и желательно первичной) информации о целевых пользователях и тех, для кого вы разрабатываете систему. Помните, что многие технические специалисты могут быть непривычны к упражнениям по развитию эмпатии и генерации идей, поэтому помогите им понять, кому они хотят помочь.
  • Подумайте, нуждается ли ваша мастерская в множестве активностей, начиная с общего представления о том, что может быть важным или актуальным, и заканчивая деталями. Смешивание обоих может вызывать путаницу у участников, особенно если вы просите их оценивать идеи, которые не могут быть сравнены на одном уровне.
  • Если вы работаете с ценностями, убедитесь, что вы четко определили значение каждой ценности. Это важно, потому что разные ценности могут иметь разное значение в зависимости от того, кого вы спрашиваете, и между ними может быть много конфликтов и перекрытий, если они не определены четко.
  • Включение ценностей в ваши активности по разработке искусственного интеллекта может помочь участникам генерировать идеи, учитывая часто игнорируемые не технические аспекты, помочь им сопереживать целевым пользователям и увеличить их любопытство и желание лучше поддерживать этих пользователей.
  • Включение игровых техник может помочь улучшить вовлеченность и удовлетворение участников во время мастерских по этике искусственного интеллекта, а также помочь им глубже понять связи между идеями.

Мое место

Моя докторская диссертация посвящена использованию инструментов и техник из области дизайна для доступности и включительности проектирования систем искусственного интеллекта. Я работаю над созданием участнического процесса и набора инструментов для его поддержки, чтобы систематически вовлекать людей на всех этапах жизненного цикла искусственного интеллекта с учетом ценностей.

Вы можете посетить официальную страницу моего проекта на сайте Imperial College London. Вы также можете прочитать другую статью, в которой я объясняю подробности своей докторской диссертации.

Я создал эту учетную запись VoAGI для публикации интересных результатов в ходе работы над своим проектом докторской диссертации, чтобы, надеюсь, распространить новости и информацию о системах искусственного интеллекта таким образом, чтобы они были понятны каждому.

Ссылки

Richmond Y. Wong, Michael A. Madaio, and Nick Merrill. 2023. Seeing Like a Toolkit: How Toolkits Envision the Work of AI Ethics. Proc. ACM Hum.-Comput. Interact. 7, CSCW1, Article 145 (April 2023), 27 pages. https://doi.org/10.1145/3579621