Предварительное соглашение ЕС о регулировании искусственного интеллекта последствия для ChatGPT

Воздействие предварительного соглашения ЕС о регулировании искусственного интеллекта на ChatGPT

Европейский союз недавно достиг предварительной договоренности, которая определяет правила регулирования передовых моделей искусственного интеллекта, с особой акцентом на широко признанном ChatGPT. Это значительный шаг к созданию первого в мире всестороннего регулирования искусственного интеллекта.

Прозрачность для систем искусственного интеллекта

В стремлении улучшить прозрачность, разработчики универсальных систем искусственного интеллекта, включая мощный ChatGPT, должны придерживаться основных требований. Это включает в себя внедрение политики допустимого использования, обновление информации о методологии обучения модели и предоставление подробного обзора данных, используемых при ее обучении. Кроме того, обязательным является соблюдение авторского права.

Дополнительные правила для моделей, создающих “системный риск”

Модели, определенные как создающие “системный риск”, подпадают под более строгие правила. Определение этого риска зависит от объема вычислительной мощности, используемой при обучении модели. Следует отметить, что модель, превышающая 10 триллионов операций в секунду, автоматически попадает в эту категорию, при этом GPT-4 от OpenAI становится автоматическим претендентом на это положение. Исполнительная власть Европейского союза имеет право классифицировать иные модели на основе различных критериев, таких как размер набора данных, зарегистрированные пользователи бизнеса и конечные пользователи.

Также читайте: Шокирующая новость: уязвимость ChatGPT к утечке данных

Кодекс поведения для высокопроизводительных моделей

Высокопроизводительным моделям, таким как ChatGPT, требуется принятие кодекса поведения, пока Европейская комиссия разрабатывает более всестороннее и долгосрочное регулирование. Невыполнение требований предполагает необходимость предоставления доказательств соблюдения Закона об искусственном интеллекте. Следует отметить, что открытые модели, хотя и освобождены от некоторых контролей, не являются недоступными, если они считаются создающими системный риск.

Строгие обязательства для моделей

Модели, относящиеся к регулятивной структуре, должны сообщать о своем энергопотреблении, проходить процедуры регламентирующих испытаний или испытаний соперничества, оценивать и смягчать потенциальные системные риски и сообщать о любых происшествиях. Кроме того, они должны обеспечивать внедрение надежных средств кибербезопасности, раскрывать информацию, используемую для настройки модели, и соблюдать более энергоэффективные стандарты, если таковые разрабатываются.

Процесс утверждения и опасности

Европейский парламент и 27 государств-членов Европейского союза еще не утвердили предварительное соглашение. Тем временем были высказаны обеспокоенности стран, таких как Франция и Германия. Беспокойство связано с предполагаемым риском подавления европейских конкурентов в области искусственного интеллекта, представленных компаниями, такими как Mistral AI & Aleph Alpha. Франция и Германия в частности беспокоятся о том, что чрезмерное регулирование может затруднить инновации и конкурентоспособность в мировом арене искусственного интеллекта.

Также читайте: Европейский ИИ-гигант MISTRAL AI привлек €385 миллионов

Наше мнение

Преодоление сложных преград регулирования искусственного интеллекта, подход Европейского союза стремится найти баланс между содействием инновациям и защитой от потенциальных рисков. В то время как предложение ожидает утверждения, некоторые государства-члены высказывают свои опасения. Это подчеркивает сложности в достижении консенсуса относительно необходимого уровня регулирования в области искусственного интеллекта. Обеспечение баланса между амбициями разработчиков искусственного интеллекта и императивом общественной безопасности остается важной задачей для создания будущего регулирования искусственного интеллекта.