Китай имеет новый план оценки безопасности генеративного искусственного интеллекта, и он полон деталей

Китай представляет новую систему оценки безопасности генеративного искусственного интеллекта подробности внутри

Сказал Мэтт Шихан, глобальный технологический исследователь Карнеги Эндаумента по международному миру, «Это, по сути, дает компаниям методику или стратегию, как соблюдать регулятивные требования в отношении генеративного искусственного интеллекта, которые имеют много неясных требований. Кредит: Стефани Арнетт, MIT Technology Review/Getty»

С тех пор, как китайское правительство приняло закон о генеративном искусственном интеллекте в июле, меня интересовало, как именно цензурная машина Китая адаптируется к эпохе искусственного интеллекта. Контент, созданный моделями генеративного искусственного интеллекта, более непредсказуем, чем традиционные социальные медиа. И закон оставил много вопросов без ответа, например, он требовал, чтобы компании «способные к социальной мобилизации» представляли «оценки безопасности» государственным регуляторам, хотя не было ясно, как будет проходить оценка.

На прошлой неделе мы получили некоторую ясность по поводу того, как все это может выглядеть на практике.

11 октября китайская государственная организация с названием Технический комитет по стандартизации информационной безопасности (TC260) опубликовала проект документа, в котором предлагаются подробные правила определения, проблематична ли модель генеративного искусственного интеллекта. Комитет, состоящий из корпоративных представителей, академиков и регуляторов, консультируется по вопросам создания правил для технологической индустрии по вопросам информационной безопасности, конфиденциальности и информационно-технической инфраструктуры.

В отличие от многих манифестов, с которыми вы могли сталкиваться в отношении регулирования искусственного интеллекта, этот стандартный документ очень подробен: он устанавливает четкие критерии, когда источник данных должен быть запрещен для обучения генеративного искусственного интеллекта, и дает метрики по точному числу ключевых слов и примерных вопросов, которые должны быть подготовлены для тестирования модели.

Источник: MIT Technology Review Просмотреть полную статью