Культурные компетенции для управления рисками машинного обучения

Управление рисками машинного обучения культурные компетенции

Культура организации является существенным аспектом ответственного искусственного интеллекта.

Фото от Google DeepMind, доступное бесплатно на Pexels

Представьте себе мир, где системы, работающие на основе искусственного интеллекта (ИИ), не могут совершать ошибок, где они безупречно выполняют свои задачи без сбоев. Звучит как сюжет научно-фантастического фильма, не так ли? Добро пожаловать в реальный мир ИИ, где не всегда все идет по плану. Важная часть ответственной практики использования ИИ заключается в предотвращении и устранении того, что мы называем “инцидентами с ИИ“. В этой статье рассматриваются культурные компетенции, которые могут предотвратить и смягчить инциденты с ИИ, с акцентом на концепции, способствующие ответственной практике использования ИИ. В будущих статьях мы также рассмотрим связанные бизнес-процессы, чтобы предоставить всестороннюю перспективу по этой важной теме.

Примечание о серии

Прежде чем начать эту серию, важно предоставить контекст. Я являюсь одним из соавторов книги “Machine Learning for High-Risk Applications“, вместе с Патриком Холлом и Джеймсом Куртисом. Цель этой серии – предложить краткое, читательски дружелюбное дополнение к обширному контенту книги. В каждой статье мы стремимся извлечь основные идеи, концепции и практические стратегии, представленные в книге, и представить эту информацию в удобном для восприятия формате, чтобы сделать знания доступными для более широкой аудитории.

Определение инцидентов с искусственным интеллектом

Прежде чем говорить о безопасности машинного обучения, важно разобраться с инцидентами, связанными с искусственным интеллектом, потому что мы не можем эффективно смягчать то, что не понимаем. Инциденты с искусственным интеллектом включают любые последствия, возникающие из систем ИИ, которые могут потенциально причинить вред. Серьезность таких инцидентов варьируется в зависимости от степени нанесенного ущерба. Они могут быть относительно незначительными неудобствами, например, падение роботов-охранников по лестнице в торговом центре, или более катастрофическими событиями, такими как наезд автономных автомобилей на пешеходов или масштабное отклонение ресурсов здравоохранения от тех, кто нуждается в них срочно.

Инциденты с искусственным интеллектом включают любые последствия, возникающие из систем ИИ, которые могут потенциально причинить вред.

Мы можем классифицировать инциденты с ИИ на три основные группы: