Внедрение этики в искусственный интеллект

Этика в искусственном интеллекте

.fav_bar { float:left; border:1px solid #a7b1b5; margin-top:10px; margin-bottom:20px; } .fav_bar span.fav_bar-label { text-align:center; padding:8px 0px 0px 0px; float:left; margin-left:-1px; border-right:1px dotted #a7b1b5; border-left:1px solid #a7b1b5; display:block; width:69px; height:24px; color:#6e7476; font-weight:bold; font-size:12px; text-transform:uppercase; font-family:Arial, Helvetica, sans-serif; } .fav_bar a, #plus-one { float:left; border-right:1px dotted #a7b1b5; display:block; width:36px; height:32px; text-indent:-9999px; } .fav_bar a.fav_de { background: url(../images/icons/de.gif) no-repeat 0 0 #fff } .fav_bar a.fav_de:hover { background: url(../images/icons/de.gif) no-repeat 0 0 #e6e9ea } .fav_bar a.fav_acm_digital { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_acm_digital:hover { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_pdf { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_pdf:hover { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_more .at-icon-wrapper{ height: 33px !important ; width: 35px !important; padding: 0 !important; border-right: none !important; } .a2a_kit { line-height: 24px !important; width: unset !important; height: unset !important; padding: 0 !important; border-right: unset !important; border-left: unset !important; } .fav_bar .a2a_kit a .a2a_svg { margin-left: 7px; margin-top: 4px; padding: unset !important; }

Эксперты говорят, что с акцентом на генеративном искусственном интеллекте никогда не было так важно учитывать этические и безопасные практики для искусственного интеллекта. ¶ Кредит: Daffodil.com

Как в потребительской, так и в корпоративной сфере генеративный искусственный интеллект (GAI) распространяется как пожар. Технология, являющаяся подмножеством искусственного интеллекта (AI), генерирует всевозможный контент высокого качества. В связи с этим вопросы о предвзятости и этике, которые начали возникать, когда организации начали внедрять AI в свои системы и процессы в последние годы, теперь привлекают еще больше внимания.

ИИ все чаще используется для автоматизации процессов и повышения эффективности, а также для компенсации недостатка кадров и снижения затрат. Теперь, с акцентом на генеративном искусственном интеллекте, эксперты говорят, что никогда не было так важно учитывать этические и безопасные практики.

“С активным развитием генеративного искусственного интеллекта и его внедрением в массы, его растущая популярность является еще одной причиной, почему ответственный искусственный интеллект – разработка и внедрение искусственного интеллекта в этическом ключе – должен быть главной заботой для организаций, стремящихся использовать его или защитить себя от его неправильного использования”, – говорится в отчете KPMG.

Один из рисков связан с интеллектуальной собственностью, поскольку генеративный искусственный интеллект использует нейронные сети, которые часто обучаются на больших наборах данных для создания нового текста, изображений, аудио или видео на основе распознаваемых ими шаблонов в входных данных, отмечает KPMG.

Другие риски включают возможное неправильное использование сотрудниками, потенциальную неточность в генерируемом материале и использование для создания deepfake-изображений.

“Те риски, которые мы видим сегодня, всегда были частью ИИ, например, предвзятость”, – отмечает Бина Амманат, исполнительный директор Глобального института искусственного интеллекта Deloitte и автор книги “Доверительный ИИ”. “Генеративный ИИ усиливает и ускоряет риски”.

Скорее всего, регулирование в области искусственного интеллекта станет вопросом времени. Администрация Байдена получила добровольные обязательства от компаний по разработке искусственного интеллекта Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI в ряде областей, включая исследование проблемы предвзятости и конфиденциальности, а также прозрачность для идентификации материалов, созданных с использованием искусственного интеллекта. Движение к самоуправлению рассматривается некоторыми как попытка формирования будущего законодательства и регулирования. В 2022 году администрация опубликовала “Проект декларации прав искусственного интеллекта”. “Рано или поздно предприятиям потребуется соблюдать правила и регламенты, регулирующие генеративный искусственный интеллект”, – говорит Эмили Фролик, руководитель отдела доверия в KPMG США. “Управление генеративным искусственным интеллектом разрабатывается параллельно с его использованием и может помочь защитить потребителей и инвесторов, а также укрепить доверие заинтересованных сторон.”

Хорошая новость заключается в том, что организации все больше обращают внимание на ответственные практики использования искусственного интеллекта.

Например, 58% стартапов, использующих тренировочные данные в разработке продуктов, установили набор принципов использования искусственного интеллекта, согласно отчету Брукингс 2022 года на основе опроса 225 искусственно-интеллектуальных стартапов. Стартапы, имеющие отношения по обмену данными с технологическими компаниями, которые подверглись влиянию регулирования конфиденциальности, или получившие финансирование от институциональных инвесторов, также были склонны устанавливать этические принципы использования искусственного интеллекта, говорится в отчете.

Кроме того, отчет говорит, что стартапы, имеющие опыт регулирования в соответствии с Общим регламентом по защите данных (GDPR) Европейского союза, “склонны предпринимать дорогостоящие меры, такие как отказ от использования тренировочных данных или отказ от бизнеса, чтобы придерживаться своих этических принципов использования искусственного интеллекта”.

Отчет Брукингс рекомендует стартапам “находить баланс между этическими вопросами и доступом к данным без существенного руководства со стороны регуляторов или существующих судебных прецедентов”.

Установленные компании также следуют этому совету. Например, PepsiCo начала сотрудничество с Институтом человеко-ориентированного искусственного интеллекта (HAI) в Стэнфордском университете для продвижения исследований, образования, политики и передовых практик в области ответственного принятия искусственного интеллекта. Один из направлений исследований HAI – “улучшение условий человеческой жизни”, говорится в заявлении института.

“Мы почувствовали, что наступает большое изменение в технологии благодаря искусственному интеллекту, и это окажет огромное влияние на общество, а Стэнфордская университетская научно-исследовательская группа была хорошо подготовлена, чтобы прокладывать путь к этому в интересах человечества”, – объясняет Джеймс Лэндэй, вице-директор Стэнфордского HAI и профессор в его инженерной школе. “Мы предсказали это пять с половиной лет назад, и, должен сказать, это происходит немного быстрее, чем мы ожидали”.

На данный момент нет единого согласованного определения этического искусственного интеллекта, и часто люди также называют его “ответственным искусственным интеллектом” или, как это описывает Стэнфорд, “человеко-ориентированным искусственным интеллектом”, говорит Лэндэй.

Лэндэй не считает, что существует серьезный недостаток этики в области искусственного интеллекта, но скорее “недостаток этики в целом в бизнесе. В конечном счете, люди зачастую сделают неправильное, если это принесет им больше денег, даже если это окажет отрицательное влияние”, – говорит он.

Он приводит Facebook в качестве примера компании, где появились доказательства того, что она делала вещи “чисто ради заработка, например, распространяла дезинформацию или контент, который заставлял людей плохо себя чувствовать”. Искусственный интеллект определяет множество таких решений, говорит Лэндэй, добавляя, что потому что люди больше мотивированы зарабатывать деньги, чем делать то, что правильно, “обучение людей быть более этичными не всегда решает эту проблему”.

Помимо предвзятости, возникают и вопросы морали, когда искусственный интеллект встраивается в системы, такие как влияние на принятие решений о том, кому находящемуся на списке ожидания на пересадку сердца следует дать следующее сердце, или о том, следует ли выпустить оружие, говорит Лэндэй. Хотя эти дилеммы всегда существовали, они становятся более проблематичными, когда их решениями занимается машина без прозрачности в отношении данных, которыми она питается.

“Здесь нет универсального решения, нет одного ответа”, – отмечает он. “В университетской среде мы должны обучать студентов, особенно тех, кто создает технологию, но также тех, кто столкнется с ней в своей жизни”, – говорит Лэндэй.

Студентам должно быть объяснено, как работает искусственный интеллект, и они должны понимать, что он не всегда дает правильный ответ. “Если бы люди поняли, как их новостной поток на Facebook и других социальных сетях влияется искусственным интеллектом, они могли бы быть более скептичными”, – говорит он. “Поэтому образование – один из аспектов”.

Другие подходы к установлению этики в контексте искусственного интеллекта включают обучение компаний и студентов проектировать процессы искусственного интеллекта, которые оказывают положительное влияние на общество, а также учет юридических аспектов и политики для обеспечения соблюдения правил и безопасности и определения возможной ответственности”, – говорит Лэндэй.

Представитель компании Mars, производителя потребительских товаров, заявил, что генеративный искусственный интеллект должен использоваться ответственно и “справедливо, инклюзивно и устойчиво”. Компания также обязалась защищать конфиденциальность и безопасность своих сотрудников, потребителей и партнеров при использовании генеративного искусственного интеллекта.

Еще один подход заключается в том, чтобы убедиться, что генеральный директор компании принимает участие в развитии ответственного искусственного интеллекта; когда это происходит, почти четыре из пяти (79%) заявляют, что они готовы к регулированию искусственного интеллекта, согласно отчету Boston Consulting Group за июнь. Отчет указывает, что когда генеральный директор не принимает участие, процент снижается до 22%.

Установка руководств по справедливости и беспристрастности является критической, говорит Амманат из Deloitte. Также важна конфиденциальность; убедитесь, что у вас есть правильные разрешения при создании и обучении моделей, говорит она. И также важны безопасность и защита, а также обеспечение наличия противоударных ограждений.

Кроме того, искусственно интеллектуальные модели должны быть прозрачными, объяснимыми и подотчетными. “Если искусственный интеллект ведет себя неправильно, кто несет за это ответственность в организации?” – говорит Амманат. “Сама модель не может нести ответственность за свои результаты в смысловом плане.”

Последний элемент заключается в том, чтобы быть ответственным в использовании искусственного интеллекта, говорит она. “Отойдите на шаг назад и спросите себя: ‘Это правильно или ответственно? То, что я создаю или строю, является ли это ответственным гражданином мира?’ Мы живем в мире, где понятие ответственного гражданина может становиться нечетким.”

Эстер Шейн является независимым технологическим и бизнес-писателем, проживающим в районе Бостона.