Исследователи говорят, что ограждения, построенные вокруг систем искусственного интеллекта, не так прочны.
Исследователи утверждают, что ограждения, построенные вокруг систем искусственного интеллекта, слишком слабы.
Прежде чем в прошлом году был выпущен чат-бот ChatGPT на основе искусственного интеллекта, стартап OpenAI из Сан-Франциско добавил цифровые ограждения , предназначенные для предотвращения генерации расистской и дезинформационной информации его системой. Google сделал нечто подобное с своим чат-ботом Bard.
Теперь статья от исследователей из Принстонского университета, Виргинского технического университета, Стэнфордского университета и IBM говорит о том, что эти ограждения не так прочны, какими кажутся разработчикам искусственного интеллекта.
Новые исследования подчеркивают срочность широко распространенной озабоченности тем, что, несмотря на попытки компаний ограничить злоупотребление искусственным интеллектом, они игнорируют способы, которыми он может по-прежнему создавать вредный контент. Технология, лежащая в основе новой волны чат-ботов, чрезвычайно сложна, и по мере того, как этим системам предлагают больше возможностей, управлять их поведением становится все сложнее.
Источник: The New York Times Посмотреть полную статью
- Исследователи из UC Berkeley предлагают RingAttention подход искусственного интеллекта, эффективного с точки зрения памяти, для снижения требований к памяти для трансформеров.
- Microsoft Researchers предлагают DeepSpeed-VisualChat прорыв в масштабируемом обучении многомодальной языковой модели
- Это исследование ИИ разработало метод, стойкий к шуму, для обнаружения граней объектов без предварительного изображения