Новые этические аспекты генеративного искусственного интеллекта

Новые этические аспекты генеративного искусственного интеллекта самые актуальные проблемы и вызовы

Скорость развития передового ландшафта искусственного интеллекта (ИИ) разгорается быстрой. Но таковы и риски, которые сопровождают его.

Ситуация такова, что стало трудно для экспертов предвидеть риски.

В то время как большинство лидеров все больше приоритезируют приложения ГенИИ в ближайшие месяцы, они также скептически относятся к рискам, связанным с ними – проблемы с безопасностью данных и предвзятые результаты, например.

Марк Сазман, генеральный директор Фонда Билла и Мелинды Гейтс, считает, что “хотя эта технология может привести к прорывам, способствующим ускорению научного прогресса и повышению эффективности обучения, возможности не обходятся без рисков”.

 

 

Начнем с данными

 

Представьте себе – известный создатель моделей ГенИИ заявляет, что “собирает личную информацию, такую как имя, адрес электронной почты и информацию о платеже, когда это необходимо для деловых целей”.

Последнее время показало, что без четкой схемы управления можно сделать множество ошибок.

  • Италия выразила беспокойство относительно незаконного сбора персональных данных пользователей, охарактеризовав это как “отсутствие законного основания, позволяющего оправдать массовый сбор и хранение персональных данных для ‘обучения’ алгоритмов, лежащих в основе работы платформы”.
  • Комиссия по защите персональных данных Японии также выдвинула предупреждение о минимальном сборе данных для обучения моделей машинного обучения.
  • Индустрия наружные лидеры по обеспечению ХБР также подчеркивают проблемы безопасности данных и предвзятые результаты.

Поскольку модели ГенИИ обучаются на данных из практически всего Интернета, мы являемся лишь незначительной частью, скрытой в этих нейронных сетях. Это подчеркивает необходимость соблюдать регуляции по защите данных и не обучать модели на данных пользователей без их согласия.

Недавно одна из компаний была оштрафована за создание инструмента распознавания лиц, извлекая сэлфи из Интернета, что привело к нарушению конфиденциальности и крупному штрафу.

  

Однако проблемы безопасности данных, конфиденциальности и предвзятых результатов существовали еще до появления моделей ГенИИ. Что же изменилось с появлением приложений ГенИИ?

Ну, некоторые уже существующие риски стали еще более опасными, учитывая масштаб, на котором модели обучаются и развертываются. Давайте разберемся, каким образом.

 

Масштаб – двухгранный меч

 

Галлюцинация, инъекция указаний и недостаток прозрачности

 

Понимание внутреннего устройства таких громадных моделей для доверия к их ответам стало еще более важным. По словам Microsoft, эти новые риски связаны с тем, что ЛЛМ разработаны для создания текста, который кажется согласованным и контекстно соответствующим, а не для соблюдения фактической точности.

В результате модели могут порождать вводящую в заблуждение и неправильную информацию, часто называемую галлюцинациями. Они могут возникать, когда модель не уверена в прогнозах, что приводит к формированию менее точной или несущественной информации.

Кроме того, формулировка является способом взаимодействия с языковыми моделями; злоумышленники могут создавать вредоносный контент, внедряя указания.

 

Ответственность при ошибке ИИ?

 

Использование ЛЛМ вызывает этические вопросы относительно ответственности за вывод, генерируемый этими моделями, а также за предвзятые результаты, которые присутствуют во всех моделях ИИ.

Риски усугубляются в случае применения моделей в высокорисковых сферах, таких как здравоохранение – подумайте о последствиях неправильного медицинского совета для здоровья и жизни пациента.

Translate this HTML (keep the HTML code in the result) to Russian:

Важно, чтобы организации строили этичные, прозрачные и ответственные пути разработки и использования Генеративного ИИ.

Если вас интересует, кому принадлежит ответственность за правильное использование Генеративного ИИ, рекомендуется ознакомиться с этой публикацией, в которой описывается, как мы все вместе, как сообщество, можем сделать это работать.

Поскольку эти большие модели созданы на основе материалов со всего мира, очень вероятно, что они включают в себя материалы, такие как музыка, видео или книги.

Если защищаемые авторским правом данные используются для обучения ИИ-моделей без получения необходимого разрешения, не предоставляя должной приписки или компенсации оригинальным создателям, это приводит к нарушению авторских прав и может привести к серьезным юридическим проблемам для разработчиков.

Deepfake, дезинформация и манипуляция

Одним из основных рисков на большой площади являются deepfakes – интересно, на что способны deepfake?

Они представляют собой синтетические создания – текст, изображения или видео, которые могут цифровыми методами манипулировать внешностью лица.

Результат? Школьные ужасы, дезинформация, предательство, мести – не то, что подходит под определение процветающего мира.

Цель этой публикации – привлечь внимание к тому, что ИИ — это меч с двумя остриями. Он не просто волшебство, работающее только важными инициативами; здесь также участвуют и злоумышленники.

Именно здесь нам нужно быть бдительными.

Меры безопасности

Примером фальшивого видео, привлекшего внимание к отказу одной из политических личностей от предстоящих выборов.

Какой мог быть мотив? – подумаете вы. Ну, такая дезинформация распространяется как пожар, и может серьезно повлиять на ход процесса выборов.

Что же мы можем сделать, чтобы не стать жертвой такой фейковой информации?

Существует несколько линий защиты, начнем с самых основных:

  • Будьте скептическими и сомневайтесь во всем, что видите вокруг себя
  • Включайте режим “это может быть неправдой”, вместо того, чтобы всему верить на слово. Вкратце, сомневайтесь во всем, что вокруг вас.
  • Подтверждайте потенциально подозрительное цифровое содержимое из нескольких источников

Приостановка развития – решение?

Известные исследователи в области ИИ и эксперты промышленности, такие как Йошуа Бенджио, Стюарт Расселл, Илон Маск, Стив Возняк и Юваль Ноа Харари, также высказали свои опасения и призвали приостановить разработку подобных систем ИИ.

Существует значительный страх, что гонка за созданием передового ИИ, соответствующего возможностям Генеративного ИИ, может быстро выйти из-под контроля.

Есть прогресс

Microsoft недавно объявила, что она будет защищать покупателей своих продуктов ИИ от проблем с нарушением авторских прав, если они будут соблюдать правила и фильтры контента. Это значительное облегчение и показывает правильное намерение взять на себя ответственность за последствия использования своих продуктов – это один из основных принципов этических рамок

Это гарантирует, что авторы сохранят контроль над своими правами и получат справедливую компенсацию за свое творчество.

Это большой прогресс в правильном направлении! Главное – увидеть, насколько он решает проблемы авторов.

Что дальше?

До сих пор мы обсуждали ключевые этические последствия, связанные с технологией, чтобы все было правильно. Однако, одним из последствий успешного использования этого технологического прогресса является риск замещения рабочих мест.

Существует мнение, которое вызывает страх, что искусственный интеллект заменит большую часть нашей работы. Компания Mckinsey недавно опубликовала отчет о том, как будет выглядеть будущее работы.

Эта тема требует структурных изменений в нашем понимании работы и заслуживает отдельного поста. Так что следите за обновлениями для следующего поста, который будет обсуждать будущее работы и навыки, которые помогут вам выжить в эпоху GenAI и преуспеть!

[Vidhi Chugh](https://vidhi-chugh.medium.com/) – это стратег и лидер цифровой трансформации, работающий на пересечении продукции, наук и инженерии для создания масштабируемых систем машинного обучения. Она является лауреатом премии лидера инноваций, автором и международным спикером. Ее миссия – демократизировать машинное обучение и разрушить сложный жаргон, чтобы каждый мог стать частью этой трансформации.