Исследователи говорят, что ограждения, построенные вокруг систем искусственного интеллекта, не так прочны.

Исследователи утверждают, что ограждения, построенные вокруг систем искусственного интеллекта, слишком слабы.

По часовой стрелке слева направо: Руокси Цзя, Тинхао Си, Пратик Миттал и И Цзэн, часть команды, выявившей новый недостаток в системах искусственного интеллекта. ¶ Кредит: Илья Вильямс/ The New York Times

Прежде чем в прошлом году был выпущен чат-бот ChatGPT на основе искусственного интеллекта, стартап OpenAI из Сан-Франциско добавил цифровые ограждения , предназначенные для предотвращения генерации расистской и дезинформационной информации его системой. Google сделал нечто подобное с своим чат-ботом Bard.

Теперь статья от исследователей из Принстонского университета, Виргинского технического университета, Стэнфордского университета и IBM говорит о том, что эти ограждения не так прочны, какими кажутся разработчикам искусственного интеллекта.

Новые исследования подчеркивают срочность широко распространенной озабоченности тем, что, несмотря на попытки компаний ограничить злоупотребление искусственным интеллектом, они игнорируют способы, которыми он может по-прежнему создавать вредный контент. Технология, лежащая в основе новой волны чат-ботов, чрезвычайно сложна, и по мере того, как этим системам предлагают больше возможностей, управлять их поведением становится все сложнее.

Источник: The New York Times Посмотреть полную статью