Роль этики искусственного интеллекта балансирование инноваций и социальной ответственности.

Роль этики искусственного интеллекта балансирование инноваций и социальной ответственности

Искусственный интеллект (ИИ) представляет собой быстро развивающуюся область, характеризующуюся стремительно развивающимися технологиями и методологиями. Его трансформационный потенциал охватывает различные секторы экономики и общества. Тем не менее, важно признать этические дилеммы, с которыми сталкивается ИИ. Компании, находящиеся на переднем крае развития ИИ, а также бизнес, сообщества, администрации и отдельные лица, внедряющие его в свою повседневную жизнь, должны быть внимательны к этим вопросам.

Основные области искусственного интеллекта

ИИ может быть классифицирован по различным областям, каждая из которых имеет уникальные характеристики, адаптированные для достижения конкретных целей в конкретных приложениях. Эти задачи и применения происходят из технических возможностей и специфических вызовов, присущих соответствующим областям, обеспечивая различные случаи использования.

Машинное обучение (МО) представляет собой подмножество ИИ, позволяющее машинам обучаться самостоятельно, без прямого программирования. Его широкое применение охватывает различные сферы применения, такие как:

  • Медицинский анализ
  • Моделирование удержания клиентов
  • Идентификация спама
  • Рекомендация товаров
  • Обнаружение мошенничества
  • Автомобильная промышленность: помощь в навигации…

Глубокое обучение, расширение машинного обучения, выходит за рамки конструирования сложных иерархических моделей с помощью искусственных нейронных сетей, организованных в слои. Эти связанные сети, состоящие из узлов, похожих на человеческий мозг, созданы для распознавания образов. Глубокое обучение является основой для сложных приложений, включая:

  • Медицинский анализ
  • Распознавание изображений
  • Распознавание речи
  • Обработка языка
  • Робототехника
  • Кибербезопасность
  • Биоинформатика…

Компьютерное зрение является разделом ИИ, позволяющим машинам воспринимать окружающую среду, обрабатывать изображения и интерпретировать видео. Его применение охватывает различные сферы применения, включая идентификацию объектов, определение движения и независимую навигацию.

Разговорный искусственный интеллект позволяет машинам общаться и взаимодействовать с людьми на естественном языке. Эта технология доказывает свою эффективность в различных приложениях, таких как чатботы, виртуальные помощники, интерфейсы поддержки клиентов и системы рекомендаций, чтобы назвать лишь несколько.

Робототехника позволяет машинам двигаться и действовать в реальном мире, автономно или во взаимодействии с людьми. Робототехника применяется в производстве, логистике, обработке пищевых продуктов, погрузки и разгрузки машин, а также в медицине.

Особый случай генеративного искусственного интеллекта

Генеративный искусственный интеллект (Gen AI) – это тип искусственного интеллекта, генерирующий новые данные, такие как изображения, текст, музыку или код. Он полагается на алгоритмы машинного обучения, чтобы учиться на основе существующих данных и генерировать новые данные.

Не смотря на то, что это новейшая технология, она добилась впечатляющих успехов с момента мирового выпуска OpenAI’s ChatGPT. С тех пор на сцене появились такие игроки, как Mistral AI и Hugging Face, а также крупные технологические компании, такие как Google (Bard AI), Meta (LLaMA), IBM (WatsonX), Salesforce (Einstein GPT), а также Microsoft, Oracle и AWS.

Области применения генеративного искусственного интеллекта многочисленны:

  • Создание контента: Создание изображений, видео или музыки. Например, его можно использовать для создания мультфильмов, видеоигр или фотографий.
  • Машинный перевод: Перевод языков более точно и свободно, чем традиционные методы.
  • Исследование и разработка: для генерации новых идей и концепций, а также для тестирования новых гипотез.
  • Улучшение взаимодействия с клиентами с помощью оптимизированных функций чата и поиска.
  • Исследование больших объемов неструктурированных данных с помощью разговорных интерфейсов и сводок,
  • Улучшение работы продаж, например, путем выявления рисков, рекомендации следующих взаимодействий или определения оптимального взаимодействия с клиентом на основе истории разговоров.
  • Выявление ошибок производства, аномалий и дефектов по изображениям
  • Написание кода и документации для ускорения и развития разработок.
  • Суммирование и выделение изменений в больших объемах правовых документов…

Алан Тьюринг против Сэма Альтмана

Генеративное ИИ против традиционного ИИ

Концепции традиционного и генеративного искусственного интеллекта подчеркивают отличные взгляды и последствия в области искусственного интеллекта. Их синергия свидетельствует о постоянно меняющейся траектории и влиянии этих технологических достижений.

Традиционный искусственный интеллект, часто называемый узким или слабым ИИ, фокусируется на выполнении конкретных задач. Это относится к системам, разработанным для реагирования на определенный набор входных данных. Эти системы способны учиться на основе данных и помогать принимать решения или делать прогнозы на основе этих данных.

Чтобы понять это, представьте себе систему машинного перевода, которая использует предопределенные правила для перевода текстов с одного языка на другой без создания новых лингвистических структур. Это традиционный ИИ: он представляет себя как компетентное существо, способное выполнять определенные задачи на основе заранее заданных правил.

Другими известными примерами традиционного ИИ являются Siri от Apple и рекомендательный движок Netflix. Возможно, самым известным является алгоритм поиска Google, который обрабатывает более 5 миллиардов запросов в день. Эти ИИ были обучены следовать определенным правилам, выполнять конкретную задачу и делать ее хорошо, но они не генерируют ничего нового.

Генеративный ИИ, с другой стороны, можно считать следующим поколением искусственного интеллекта. Это форма ИИ, способная генерировать что-то новое на основе гигантского репозитория, на котором он был обучен.

Например, если я покажу генеративной модели набор изображений автомобилей и грузовиков, модель должна полностью “понять”, какие характеристики принадлежат этим двум классам и как они могут быть использованы для генерации подобных изображений. То же самое касается текстов Виктора Гюго или Мартина Лютера Кинга, например.

Модели генеративного ИИ обучаются на наборах данных и изучают их базовые закономерности, чтобы генерировать новые данные, отражающие обучающие наборы.

Этика искусственного интеллекта

Растущее внедрение ИИ во всех секторах привело к многочисленным примерам использования, каждый из которых более актуален и революционен, чем предыдущий. Это варьируется от персонализации бизнес-рекомендаций до прогнозирования тенденций на рынке и внедрения передовой медицинской диагностики. Самым последним достижением являются огромные возможности генеративного ИИ.

Однако эти захватывающие технологические разработки порождают существенные вопросы об этике ИИ.

В то время как мы наилучшим образом используем преимущества и возможности, предлагаемые ИИ, крайне важно прозактивно рассматривать этические аспекты его внедрения. Этика ИИ занимает центральное место в текущих дебатах в компаниях, а также в правительствах, подчеркивая необходимость обеспечения прозрачности, ответственности и справедливости в разработке, внедрении и использовании этих инновационных технологий.

Здесь есть замечательная фраза, написанная в 70-х годах: ‘Определение сегодняшнего ИИ – это машина, способная делать идеальный шахматный ход, когда комната находится в огне’. Она действительно говорит о ограничениях ИИ. В следующей волне исследований в области ИИ, если мы хотим создавать более полезные машины, нам нужно вернуть понимание контекста —Фей-Фей Ли, исследователь и профессор искусственного интеллекта, Стэнфордский университет

Этические риски, связанные с ИИ, разнообразны. Они включают в себя:

  • Дискриминацию: Системы искусственного интеллекта могут воспроизводить предрассудки, распространенные в обществе, что приводит к дискриминации определенных групп, включая, но не ограничиваясь определенными этническими группами, полами или религиями.
  • Неясность: Системы искусственного интеллекта могут становиться все более сложными и труднопонятными. Это может привести к ситуациям, когда люди больше не могут объяснить решения, принимаемые машинами.
  • Злоупотребление: Системы искусственного интеллекта могут использоваться с зловредными намерениями, включая наблюдение за гражданами, вооружение, кибербуллинг или распространение дезинформации.
  • Нарушение регулирования: Закон об искусственном интеллекте (AI Act) представляет рисковый европейский регуляторный подход к ИИ. Его целью является гарантия безопасности систем искусственного интеллекта на европейском рынке, с учетом основных прав и ценностей ЕС, укрепление управления и соблюдения для стимулирования инвестиций и инноваций в области ИИ, а также создание единого рынка для законных, безопасных и надежных приложений ИИ, чтобы избежать фрагментации.

Множество рисков важно учитывать, таких как конфиденциальность данных, вопросы авторского права или включение намеренных или ненамеренных предубеждений. Этот последний вопрос будет освещен в будущей статье.

Некоторые этические риски особенно актуальны для генеративного ИИ:

  • Галлюцинации: Термин “галлюцинация” был выбран для обозначения поведения ИИ, когда модель генерирует информацию, оказавшуюся ложной. Иногда они ассоциируют слова, имена и идеи, которые кажутся логичными, но на самом деле не таковы. Они могут противоречить логической реальности или выглядеть хаотичной смесью фактов. Пример: “Вы можете отличить куриные яйца от коровьих по их размеру и цвету; коровьи яйца обычно крупнее, чем куриные” – ChatGPT
  • Дипфейки: В этом случае искусственный интеллект используется для создания поддельных изображений, аудио- и видеоматериалов. Дипфейки могут преобразовывать существующий контент, изображения, голос или видео, заменяя одного человека другим. Они также могут создавать контент с нуля, где изображается человек в вымышленной ситуации.

Источник bbc.com

Этический подход к искусственному интеллекту

Сталкиваясь с этими рисками, для компаний важно принять этический подход к искусственному интеллекту. Это означает, что компании должны:

  • Рассмотреть этические аспекты своих проектов по искусственному интеллекту с самого начала формирования стратегии их разработки.
  • Внедрить меры по предотвращению этических рисков, такие как обучение команд этике в области искусственного интеллекта или установка механизмов мониторинга и контроля над системами искусственного интеллекта.
  • Быть прозрачными в отношении своих практик по использованию искусственного интеллекта и сообщать о своих усилиях в соблюдении этических принципов.

“Несмотря на растущее осознание важности аспектов этики в развитии искусственного интеллекта (ИИ) и ключевую роль, которую играют профессионалы в области ИИ в экономике и обществе, в 12 из 14 стран, для которых доступны данные, менее 1% вакансий, опубликованных в Интернете в 2022 г., связанных с профессионалами с навыками в области ИИ, упоминали аспекты, связанные с этикой в ИИ” — 

Источник: “OECD Skills Outlook 2023 : Skills for a Resilient Ecological and Digital Transition” отчет.

Конкретные действия, предпринятые компаниями

Компании могут внедрить ряд конкретных мер для интеграции этики в свою стратегию развития искусственного интеллекта. Эти меры могут включать в себя:

  • Создание манифеста этики в области искусственного интеллекта, который описывает этические принципы компании.
  • Установка протоколов для надзора и регулирования систем искусственного интеллекта.
  • Формализация роли “Главного служащего по искусственному интеллекту” (CAIO), чтобы взять на себя растущую ответственность, которую проблемы, связанные с ИИ, возлагают на компанию. Распределение этой ответственности между CDO или CTO может стать менее приемлемым, особенно если компании стремятся эффективно решать эти задачи.

Заключение

Интеграция этики в стратегию развития ИИ является важным вызовом для компаний. Приняв этический подход, компании могут помочь обеспечить ответственное использование ИИ во благо общества.

Все эксперты в области информационных технологий, искусственного интеллекта, особенно в этике, а также в ESG должны помочь обучить и повысить понимание компаний о значимости интеграции этики в их стратегию развития искусственного интеллекта.

Среди мер, которые можно предпринять для повышения осведомленности компаний об этике в ИИ:

  • Создание учебных материалов, таких как руководства, статьи или курсы обучения, чтобы помочь компаниям понять этические вызовы, связанные с ИИ.
  • Организация мероприятий, таких как конференции, MeetUp или семинары, для обсуждения этических вызовов ИИ и обмена bew practices.
  • Установка партнерств с организациями, разделяющими подобные ценности, такими как группы по защите прав человека или регулирующие органы, а также с учебными заведениями и заинтересованными сторонами из сектора Больших Технологических Компаний, которые открыты для таких ценностей.

Я убежден, что эти меры способствуют тому, чтобы этика стала неотъемлемой составляющей стратегии развития ИИ. Какие другие меры, по вашему мнению, следует предпринять?