Эта научная статья по AI раскрывает новый подход к пониманию моделей глубокого обучения распаковка Где и Что с использованием метода распространения релевантности концептов (CRP).

Расшифровка моделей глубокого обучения новый подход с использованием метода распространения релевантности концептов (CRP) в AI

Область машинного обучения и искусственного интеллекта стала очень важной. У нас есть новые достижения, которые становятся все более значимыми с каждым днем. Эта область влияет на все сферы. Используя тщательно разработанные нейронные архитектуры, у нас есть модели, отличающиеся выдающейся точностью в своих соответствующих секторах.

Несмотря на их точное исполнение, мы все равно должны полностью понимать, как работают эти нейронные сети. Нам необходимо знать механизмы, управляющие выбором атрибутов и прогнозами внутри этих моделей, чтобы наблюдать и интерпретировать результаты.

Сложная и нелинейная природа глубоких нейронных сетей (DNN) часто приводит к выводам, которые могут проявлять предвзятость к нежелательным или нежелательным чертам. Внутренняя непрозрачность их мышления представляет собой вызов, делая сложным применение моделей машинного обучения в различных смежных областях применения. Нелегко понять, как принимаются решения искусственного интеллекта.

Поэтому профессор Томас Виганд (Fraunhofer HHI, BIFOLD), профессор Войцех Самек (Fraunhofer HHI, BIFOLD) и доктор Себастьян Лапушкин (Fraunhofer HHI) представили концепцию передачи релевантности (CRP) в своей статье. Этот инновационный метод предлагает путь от карт атрибуции к понятным человеку объяснениям, позволяющим прояснить индивидуальные решения искусственного интеллекта через понятные человеку концепции.

Они подчеркивают CRP как продвинутый метод объяснения глубоких нейронных сетей, дополняющий и обогащающий существующие объяснительные модели. Путем интеграции локальных и глобальных точек зрения CRP отвечает на вопросы “где” и “что” в отдельных прогнозах. CRP раскрывает идеи искусственного интеллекта, их пространственное представление ввода и отдельные сегменты нейронных сетей, ответственные за их рассмотрение, вдобавок к соответствующим входным переменным, влияющим на выбор.

В результате CRP описывает решения, принимаемые искусственным интеллектом, так, чтобы люди могли понять.

Исследователи подчеркивают, что этот подход объяснимости рассматривает всю процедуру прогнозирования искусственного интеллекта от ввода до вывода. Исследовательская группа уже разработала техники использования тепловых карт для демонстрации того, как алгоритмы искусственного интеллекта делают выводы.

Доктор Себастьян Лапушкин, руководитель исследовательской группы по объяснительному искусственному интеллекту в Fraunhofer HHI, расшифровывает новую технику подробнее. Он сказал, что CRP переносит объяснение из пространства ввода, где находится изображение со всеми пикселями, в семантически обогащенное концептуальное пространство, формируемое более верхними слоями нейронной сети.

Исследователи также сказали, что следующая фаза объяснимости искусственного интеллекта, известная как CRP, открывает новые возможности для исследования, оценки и улучшения производительности моделей искусственного интеллекта.

Изучение представления и композиции идей внутри модели и количественная оценка их влияния на прогнозы могут быть получены путем изучения модельных конструкций и областей применения с использованием CRP-ориентированных исследований. Эти исследования используют мощь CRP, чтобы углубиться в сложные слои модели, распутывая концептуальный ландшафт и оценивая количественное влияние различных идей на прогностические результаты.