Модели нейрональной основы для интерпретируемости

Модели на основе нейронов для повышения интерпретируемости

Разбираем новую интерпретируемую модель, предложенную Meta AI

Широкое применение машинного обучения и искусственного интеллекта в различных областях ставит перед нами повышенные вызовы в отношении рисков и этической оценки. Как показано в случае исследований, таких как модель рецидива преступников, описанная ProPublica, алгоритмы машинного обучения могут быть чрезвычайно предвзятыми и, следовательно, требуют надежных механизмов объяснения, чтобы обеспечить доверие и безопасность при использовании этих моделей в областях с высокими ставками.

Так как же мы сбалансируем интерпретируемость с точностью и выразительностью модели? Исследователи Meta AI предложили новый подход, который они назвали Нейроосновные модели (NBMs)[1], подсемейство обобщенных аддитивных моделей, которые достигают передовых показателей на базовых наборах данных, сохраняя при этом прозрачность объяснения.

В этой статье я попытаюсь объяснить, что такое NBM и что делает его полезной моделью. Как обычно, я призываю всех прочитать оригинальную статью.

Если вас интересует интерпретируемое машинное обучение и другие аспекты этического искусственного интеллекта, рекомендую ознакомиться с некоторыми из моих других статей и следить за мной!

Nakul Upadhya

Nakul Upadhya

Интерпретируемый и этичный ИИ

Просмотреть список3 истории

Контекст: GAMs

NBM является обобщенной аддитивной моделью (GAM). GAMы являются по своей сути интерпретируемыми моделями, которые изучают форму функции для каждого признака, а предсказания делаются путем “опроса” этой формы функции. Поскольку эти формы функций независимы, влияние признака на предсказание можно понять, визуализируя эти формы функций, что делает их высокоинтерпретируемыми. Взаимодействия между переменными моделируются путем передачи нескольких переменных в одну и ту же функцию и создания формы функции на основе этого (обычно ограничивая количество переменных до 2 для совместимости), конфигурацию, которую называют GA2M.

Различные модели GAM и GA2M используют разные механизмы для разработки этих форм функций. Explainable Boosting Machine (EBM) [2] использует набор улучшенных деревьев, обученных на каждом признаке, Neural Additive Models (NAMs) [3] используют глубокую нейронную сеть для каждого признака, а NODE-GAM [4] использует ансамбли…