Темная сторона искусственного интеллекта – как создатели могут помочь?!

Темная сторона искусственного интеллекта как создатели могут помочь?

Ответственная разработка искусственного интеллекта – соображения и фреймворки для руководителей AI и команд продуктов AI.

Фото Ramón Salinero на Unsplash

В последнее время не проходит ни одного дня, чтобы мы не узнали о чем-то удивительном, что сделала искусственно-интеллектная система. Да, мы находимся в неизведанных территориях. Революция в области искусственного интеллекта продвигается вперед с огромной скоростью, и с ней растут чувства беспокойства и страхи. Истина в том, что многие из этих опасений являются реальными!

«Искусственный интеллект достигнет уровня человека примерно к 2029 году. Если мы продолжим развитие дальше, скажем, до 2045 года, мы увеличим интеллект, биологический интеллект человека нашей цивилизации в миллиард раз».

— Рэй Курцвейл

Однако это не означает, что мы должны быть медлительными в разработке искусственного интеллекта. Общий эффект в основном положительный, будь то в здравоохранении, автономном вождении или любом другом применении. Поэтому с правильным набором гарантий мы должны быть в состоянии преодолевать ограничения в этических и ответственных пределах.

Вот несколько соображений и фреймворков, которые помогут в ответственной разработке искусственного интеллекта – для тех, кто хочет быть частью решения.

Согласование принципов

Одна из первых и важных шагов в решении этих дилемм на организационном уровне – четкое определение ваших принципов. Процесс принятия решений становится проще, и вероятность принятия решений, нарушающих организационные ценности, уменьшается, как только ваши принципы определены. Google создал «Принципы искусственного интеллекта». Microsoft создал «Принципы ответственного использования искусственного интеллекта».

Фото Brett Jordan на Unsplash

ОЭСР (Организация экономического сотрудничества и развития) создала принципы искусственного интеллекта ОЭСР, которые способствуют использованию инновационного, надежного и уважающего права человека и демократических ценностей искусственного интеллекта. Более 90 стран уже приняли эти принципы.

В 2022 году Главный координационный совет Организации Объединенных Наций одобрил Принципы этичного использования искусственного интеллекта в системе Объединенных Наций.

Консалтинговая фирма PWC объединила более 90 наборов этических принципов, содержащих более 200 принципов, в 9 основных принципов (см. ниже). Посмотрите их набор инструментов для ответственного использования искусственного интеллекта здесь.

PwC

Внедрение разнообразия для преодоления предвзятости

1. Разнообразие в команде искусственного интеллекта: Для эффективной борьбы с предвзятостью организации должны обеспечить включение и участие в каждом аспекте своего портфеля искусственного интеллекта – исследования, разработки, внедрения и поддержки. Это легче сказать, чем сделать. Согласно опросу AI Index в 2021 году, два основных фактора, способствующих недостаточному представительству, – отсутствие ролевых моделей и отсутствие сообщества.

Источник: AI Index report 2020

2. Разнообразие в наборах данных: Обеспечьте разнообразное представление в наборах данных, на которых обучается алгоритм. Нелегко получить наборы данных, которые отражают разнообразие в популяции.

Встроить конфиденциальность

Как мы можем гарантировать безопасность лично идентифицируемых данных? Нельзя предотвратить сбор данных. Организации должны обеспечивать конфиденциальность при сборе, хранении и использовании данных.

Фотография Claudio Schwarz на Unsplash
  1. Согласие — Сбор данных должен гарантировать, что субъекты предоставят согласие на использование данных. Люди также должны иметь возможность отозвать свое согласие на использование своих личных данных или даже удалить свои персональные данные. ЕС уже установил этот порядок — через GDPR он уже сделал незаконным обработку даже аудио- или видеоданных с личной информацией без явного согласия людей, от которых собираются данные. Можно предположить, что и другие страны последуют этому примеру со временем.
  2. Минимально необходимые данные — Организации должны убедиться, что они определяют, собирают и используют только минимально необходимые данные для обучения алгоритма. Используйте только то, что необходимо.
  3. Деидентификация данных — Используемые данные должны быть в формате деидентифицированных данных, если нет явной необходимости не раскрывать личную информацию. Даже в этом случае разглашение данных должно соответствовать правилам конкретной юрисдикции. Отрасль здравоохранения является лидером в этом отношении. Существуют четко определенные законы и регламенты, запрещающие доступ к личной и медицинской информации.

Встроить безопасность

Как вы можете убедиться, что ИИ работает так, как ожидается, и не делает ничего непреднамеренного? Что, если кто-то взломает или обманет систему искусственного интеллекта для совершения незаконных действий?

DeepMind сделала одно из наиболее эффективных движений в этом направлении. Они предложили трехступенчатый подход, чтобы убедиться, что системы искусственного интеллекта работают так, как предполагается, и сократить негативные последствия до минимума. По их мнению, мы можем обеспечить техническую безопасность ИИ, сосредоточившись на трех основных принципах.

Фотография Towfiqu barbhuiya на Unsplash
  1. Спецификация — Определите цель системы и выявите проблемы в идеальной спецификации (желания), проектной спецификации (проект) и раскрытой спецификации (поведение).
  2. Устойчивость — Обеспечьте стойкость системы к возможным изменениям и помехам.
  3. Обеспечение — Активно контролируйте поведение системы и вмешивайтесь при отклонениях.
Источник: DeepMind

Встроить ответственность

Ответственность является одним из самых сложных аспектов ИИ, с которым нам нужно справиться. Это сложно из-за его социотехнической природы. Вот основные кусочки головоломки — по мнению Стивена Сэндфорда, Клаудио Новелли, Мариарозария Таддео и Лучано Флориди.

  1. Структуры управления — Цель состоит в обеспечении четко определенных структур управления в отношении искусственного интеллекта. Это включает ясность целей, обязанностей, процессов, документации и мониторинга.
  2. Стандарты соответствия — цель состоит в уточнении этических и моральных стандартов, применимых к системе и ее применению. Это по крайней мере означает намерение за поведением системы.
  3. Отчетность — цель здесь состоит в том, чтобы убедиться, что использование системы и ее влияние записываются, чтобы можно было использовать для оправдания или объяснения при необходимости.
  4. Надзор — цель заключается в обеспечении постоянного контроля. Внутренние и внешние аудиты являются полезными. Это включает исследование данных, получение доказательств и оценку поведения системы. При необходимости это может включать и судебный контроль.
  5. Принуждение — цель состоит в определении последствий для организации и других заинтересованных сторон. Это может включать санкции, авторизации и запреты.

Обеспечение прозрачности и объяснимости

Объяснимость искусственного интеллекта (XAI) является важной областью, которая привлекла много внимания в последние годы. Проще говоря, это способность привнести прозрачность в причины и факторы, которые привели алгоритм искусственного интеллекта к определенному выводу. GDPR уже добавила “Право на объяснение” в рекитале 71, что означает, что субъекты данных могут запросить информацию от компании о том, как алгоритм принял автоматическое решение. Это становится сложным, когда мы пытаемся внедрить искусственный интеллект в отрасли и процессы, которые требуют высокой степени доверия, такие как правоохранительная деятельность и здравоохранение.

Проблема заключается в том, что чем выше точность и нелинейность модели, тем сложнее ее объяснить

Источник: машинное обучение для коммуникаций мобильной и беспроводной связи 5G/B5G: потенциал, ограничения и перспективы

Простые модели, такие как модели на основе правил классификации, линейные регрессионные модели, решающие деревья, KNN, байесовские модели и т. д., в основном являются “белыми ящиками” и, следовательно, непосредственно объяснимыми. Сложные модели в основном являются “черными ящиками”.

  1. Специализированные алгоритмы: Сложные модели, такие как рекуррентные нейронные сети, являются “черными ящиками”, которые все же могут иметь проследимость в результате использования других модельно-агностических или нацеленных алгоритмов, предназначенных для этой цели. Среди них популярными являются LIME (Local Interpretable Model-Agnostic Explanations) и SHAP (SHapley Additive exPlanations). Также широко используются другие алгоритмы, такие как инструмент What-if, DeepLift, AIX360 и т. д.
  2. Выбор модели: Очевидно, вышеупомянутые инструменты и методы могут быть использованы для обеспечения объяснимости в алгоритмах искусственного интеллекта. Кроме того, есть случаи, когда используется черный ящик искусственного интеллекта, когда белый ящик искусственного интеллекта был бы достаточным. Прямо объяснимые белые ящиковые модели сделают жизнь проще, когда речь идет об объяснимости. Вы можете рассмотреть более линейную и объяснимую модель вместо сложной и трудно объяснимой модели, если необходимые чувствительность и специфичность для конкретного случая удовлетворяются простой моделью.
  3. Карты прозрачности: Некоторые компании, такие как Google и IBM, имеют собственные инструменты объяснимости для искусственного интеллекта. Например, решение XAI от Google доступно для использования. Google также запустила Карты модели для своих искусственных интеллектуальных моделей, которые позволяют ясно указать ограничения соответствующих моделей искусственного интеллекта в терминах тренировочных данных, алгоритмов и вывода.

Следует отметить, что NIST различает объяснимость, интерпретируемость и прозрачность. В целях простоты я использую эти термины взаимозаменяемо в контексте объяснимости.

Когда речь идет о здравоохранении, CHAI (Coalition for Health AI) разработала “План доверенного искусственного интеллекта” – всесторонний подход к обеспечению прозрачности в области здравоохранения с помощью искусственного интеллекта. Это стоит прочитать всем, кто работает в сфере технологий здравоохранения над системами искусственного интеллекта для здравоохранения.

Встраивание оценки рисков и управление ими

Организации должны обеспечить стратегию управления рисками от начала до конца, чтобы предотвратить этические подводные камни при внедрении решений искусственного интеллекта. Существует несколько изолированных фреймворков, которые используются. RMF НИСТ ((Национальный институт стандартов и технологий) разработан совместно с частными и государственными организациями, работающими в области искусственного интеллекта. Он предназначен для добровольного использования и ожидается, что повысит надежность решений искусственного интеллекта.

NIST

В двух словах…

Технология шагает вперед, нравится вам это или нет. Так было с индустриализацией, электричеством и компьютерами. Так будет и с искусственным интеллектом. Искусственный интеллект развивается слишком быстро для того, чтобы законы могли его догнать. Также возникают потенциальные опасности. Поэтому теми, кто его разрабатывает, несёт ответственность в интересах нашего общества. Мы должны создавать правильные фреймворки, чтобы технология могла развиваться безопасно и ответственно.

«С великой силой приходит великая ответственность». — Человек-паук

Теперь у вас есть отличный отправной пункт. Вопрос в том, готовы ли вы взять на себя ответственность или ждать, пока правила и регуляции заставят вас это сделать. Вы знаете, что нужно делать. Я заканчиваю свою речь!

  • 👏 Если вам понравилась моя статья, пожалуйста, поставьте максимальное количество аплодисментов и подпишитесь! Это значит для нас, создателей контента, и помогает нам создавать ещё больше удивительных статей в будущем ❤️
  • 🔔 Подписывайтесь на меня в VoAGI | Linkedin | Twitter

Спасибо за ваше время и поддержку. Очень ценю!