Интерпретируемый искусственный интеллект с помощью SHAP

ИИ с SHAP

Фото Ника Корбы на Unsplash

Аргументы в пользу интерпретируемого искусственного интеллекта

Мы живем в эпоху искусственного интеллекта. Он окружает нас повсюду, и СМИ не позволяют нам забыть о его влиянии на мир, каким мы его знаем. В связи с растущей популярностью искусственного интеллекта и его применений все больше людей осознают роль, которую машинное обучение играет в повседневной жизни — от систем рекомендаций до прогнозов и генеративного искусственного интеллекта.

С повышенной чувствительностью общественности к всему, что связано с искусственным интеллектом, становится все более важным для ученых-данных и инженеров уметь интерпретировать, когда это уместно, почему их модели делают определенные прогнозы и принимают решения. Обычно хорошая модель может взять проблему и объяснить, что скорее всего будет наблюдаться в будущем. Однако это решает только часть реальной проблемы:

«Модель также должна объяснить, как она пришла к прогнозу («почему»), поскольку правильный прогноз только частично решает вашу исходную проблему». — Кристоф Мольнар, Интерпретируемое машинное обучение

Вышеприведенная цитата подчеркивает необходимость рассмотрения процесса, который модель использует для своих прогнозов. Существует множество методов объяснения модели, но я сосредоточусь на методе, который стал все более популярным благодаря своей эффективности и простоте.

SHAP (SHapley Additive exPlanations)

SHAP – это применение значения Шепли — хорошо проверенного концепта из теории кооперативных игр, который измеряет индивидуальный вклад каждого игрока в результат игры. Например, если 4 друга играют в кооперативную игру вместе, с помощью значений Шепли можно рассчитать, насколько каждый друг внес вклад в результат игры.

Когда речь идет о интерпретируемом машинном обучении, SHAP рассматривает игроков в игре как отдельные признаки в модели, а результат игры как прогнозы модели. Таким образом, SHAP измеряет, как каждый признак в модели влияет на отдельный прогноз.

Подробности

Значения Шепли рассчитываются путем моделирования игры, в которой отсутствуют некоторые игроки, а некоторые присутствуют. Путем моделирования различных игр с разными группами игроков и расчета результатов модель может…