Искусственный интеллект и юридическая идентичность

Искусственный интеллект и его влияние на юридическую идентичность

В этой статье рассматривается вопрос присвоения статуса правового субъекта искусственному интеллекту (ИИ), особенно на основе гражданского права. Правовая идентичность здесь определяется как понятие, интегральное к понятию правоспособности; однако это не означает принятия того, что моральная субъективность совпадает с моральной личностью. Правовая идентичность является сложным атрибутом, который может быть признан для определенных субъектов или присвоен другим.

Я считаю, что этот атрибут является ступенчатым, дискретным, разрывным, многогранным и изменчивым. Это означает, что он может содержать больше или меньше элементов различных типов (например, обязанностей, прав, компетенций и т. д.), которые в большинстве случаев могут быть добавлены или удалены законодателем; права человека, которые, согласно общему мнению, не могут быть лишены, являются исключением.

В настоящее время человечество сталкивается с периодом социальной трансформации, связанной с заменой одного технологического режима на другой; “умные” машины и программное обеспечение быстро обучаются; системы искусственного интеллекта все более способны заменять людей во многих сферахдеятельности. Один из вопросов, который возникает всё чаще в связи с улучшением технологий искусственного интеллекта, – это признание искусственных интеллектуальных систем юридическими субъектами, так как они достигли уровня полностью самостоятельных решений и потенциально проявляют “субъективную волю”. Этот вопрос был гипотетически поднят еще в 20 веке. В 21 веке научный дебат развивается шаг за шагом, достигая другого крайнего значения с каждым внедрением новых моделей искусственного интеллекта на практике, таких как появление самоуправляемых автомобилей на улицах или представление роботов с новым набором функций.

Правовой вопрос определения статуса искусственного интеллекта является общетеоретического характера, вызванного объективной невозможностью предсказать все возможные результаты развития новых моделей искусственного интеллекта. Однако искусственные интеллектуальные системы (системы ИИ) уже являются фактическими участниками определенных социальных отношений, что требует создания “эталонов”, то есть разрешения фундаментальных вопросов в этой области с целью законодательного закрепления и, следовательно, сокращения неопределенности в предсказании развития отношений, связанных с системами искусственного интеллекта, в будущем.

Вопрос о предполагаемой идентичности искусственного интеллекта как объекта исследования, упомянутый в заголовке статьи, конечно, не охватывает всех систем искусственного интеллекта, включая множество “электронных помощников”, которые не претендуют на статус юридических лиц. Их набор функций ограничен, и они представляют собой узкий (слабый) искусственный интеллект. Мы скорее обратимся к “умным машинам” (киберфизическим интеллектуальным системам) и генеративным моделям виртуальных интеллектуальных систем, которые все более приближаются к общему (мощному) искусственному интеллекту, сравнимому с человеческим интеллектом и в будущем, даже превышающем его.

К 2023 году вопрос создания сильного искусственного интеллекта актуально поднят интеллектуальными многомодальными нейронными сетями, такими как ChatGPT, DALL-e и др., интеллектуальные возможности которых улучшаются за счет увеличения числа параметров (модальностей восприятия, включая те, к которым нет доступа у человека), а также использования большого объема данных для обучения, которые люди не могут физически обработать. Например, многомодальные генеративные модели нейронных сетей могут создавать такие изображения, литературные и научные тексты, что иногда невозможно отличить, созданы они человеком или системой искусственного интеллекта.

ИТ-эксперты выделяют два качественных прорыва: скачок по скорости (частота появления совершенно новых моделей), которая сейчас измеряется не годами, а месяцами, и скачок по нестабильности (невозможность точно предсказать, что может произойти в области искусственного интеллекта даже к концу года). Модель ChatGPT-3 (третьего поколения алгоритма обработки естественного языка от OpenAI) была представлена в 2020 году и могла обрабатывать текст, тогда как следующая модель нового поколения, ChatGPT-4, запущенная производителем в марте 2023 года, может “работать” не только с текстами, но и с изображениями, и следующая модель нового поколения находится в процессе обучения и будет способна на еще большее.

Несколько лет назад ожидаемый момент технологической сингулярности, когда развитие машин становится фактически неконтролируемым и необратимым, радикально меняющим человеческую цивилизацию, рассматривался как происходящий как минимум через несколько десятилетий, но в настоящее время все больше исследователей считают, что это может произойти намного быстрее. Это предполагает появление так называемого сильного искусственного интеллекта, который будет проявлять способности, сопоставимые с человеческим интеллектом, и сможет решать аналогичный или даже более широкий набор задач. В отличие от слабого искусственного интеллекта, сильный ИИ будет обладать сознанием, но одним из основных условий возникновения сознания в интеллектуальных системах является способность выполнять многомодальное поведение, интегрировать данные из разных восприятий (текст, изображение, видео, звук и т. д.), “соединять” информацию разных модальностей с реальностью и создавать полноценные целостные “метафоры мира”, присущие человеку.

В марте 2023 года более тысячи исследователей, экспертов по информационным технологиям и предпринимателей в области искусственного интеллекта подписали открытое письмо, опубликованное на сайте Института будущей жизни, американского исследовательского центра, специализирующегося на изучении угроз для человечества. В письме призывается приостановить обучение новых моделей генеративных многомодальных нейронных сетей, поскольку отсутствие единой системы безопасности и юридического покрытия значительно увеличивает риски при экспоненциальном росте развития искусственного интеллекта из-за “революции ChatGPT”. Также отмечается, что модели искусственного интеллекта развивают необъяснимые возможности, не предусмотренные разработчиками, и доля таких возможностей постепенно увеличивается. Кроме того, такая технологическая революция значительно способствует созданию интеллектуальных гаджетов, которые станут повсеместно распространенными, а новые поколения, современные дети, выросшие в постоянном общении с искусственными интеллектуальными помощниками, будут сильно отличаться от предыдущих поколений.

Возможно ли препятствовать развитию искусственного интеллекта, чтобы человечество могло приспособиться к новым условиям? Теоретически, это возможно, если все государства упростят это через национальное законодательство. Сделают ли они это? Исходя из опубликованных национальных стратегий, они не будут; наоборот, каждое государство стремится победить в конкуренции (сохранить лидерство или сократить отставание).

Возможности искусственного интеллекта привлекают предпринимателей, поэтому бизнес вкладывает значительные средства в новые разработки, при успехе каждой новой модели процесс развития ускоряется. Ежегодные инвестиции растут, учитывая как частные, так и государственные инвестиции в развитие; мировой рынок решений по искусственному интеллекту оценивается в сотни миллиардов долларов. По прогнозам, в том числе содержащимся в резолюции Европейского парламента “Об искусственном интеллекте в цифровую эпоху” от 3 мая 2022 года, вклад искусственного интеллекта в мировую экономику превысит 11 трлн евро к 2030 году.

Практически ориентированный бизнес приводит к внедрению технологий искусственного интеллекта во все секторы экономики. Искусственный интеллект применяется как в добывающей, так и в перерабатывающей промышленности (металлургия, топливо-химическая промышленность, машиностроение, металлообработка и др.). Он применяется для прогнозирования эффективности разработанных продуктов, автоматизации производственных линий, снижения брака, улучшения логистики и предотвращения простоев.

Применение искусственного интеллекта в транспорте включает как автономные транспортные средства, так и оптимизацию маршрутов путем прогнозирования потоков трафика, а также обеспечение безопасности через предотвращение опасных ситуаций. Вопрос о допуске автоматических автомобилей на общественные дороги является предметом ожесточенных дебатов в парламентах по всему миру.

В банковской сфере искусственные интеллект-системы практически полностью заменили людей в оценке платежеспособности заемщиков; они все чаще применяются в разработке новых банковских продуктов и повышении безопасности банковских транзакций.

Технологии искусственного интеллекта охватывают не только бизнес, но и социальную сферу: здравоохранение, образование и занятость. Применение искусственного интеллекта в медицине позволяет проводить более точную диагностику, разработку новых препаратов и роботизированные операции; в образовании это позволяет проводить персонализированные занятия, автоматизированную оценку знаний учеников и компетентность учителей.

Сегодня занятость все больше меняется из-за экспоненциального роста платформенной занятости. Согласно Международной организации труда, доля людей, работающих через цифровые платформы занятости, увеличивается по всему миру. Платформенная занятость – это не единственный компонент лабораторной трансформации; значительное влияние оказывает также уровень роботизации производства. По данным Международной федерации робототехники, количество промышленных роботов продолжает расти во всем мире, с самым быстрым темпом роботизации, наблюдаемым в Азии, в первую очередь в Китае и Японии.

Действительно, возможности искусственного интеллекта анализировать данные, используемые для управления производством, диагностического анализа и прогнозирования, вызывают большой интерес со стороны правительств. Искусственный интеллект внедряется в государственное управление. Сегодня усилия по созданию цифровых платформ для государственных услуг и автоматизации многих процессов, связанных с принятием решений государственными органами, усиливаются.

Понятия “искусственная личность” и “искусственная социальность” стали чаще упоминаться в публичном дискурсе; это свидетельствует о том, что разработка и внедрение интеллектуальных систем сместились из чисто технической области в исследование различных средств ее интеграции в гуманитарную и социокультурную сферу.

Исходя из вышесказанного, можно сказать, что искусственный интеллект становится все более глубоко внедренным в жизнь людей. Присутствие систем искусственного интеллекта в нашей жизни станет все более очевидным в ближайшие годы; оно будет увеличиваться как в рабочей среде, так и в общественном пространстве, в сфере услуг и дома. Искусственный интеллект будет все чаще давать более эффективные результаты через интеллектуальную автоматизацию различных процессов, создавая тем самым новые возможности и представляя новые угрозы для отдельных лиц, сообществ и государств.

С ростом интеллектуального уровня системы искусственного интеллекта неизбежно станут неотъемлемой частью общества; люди будут вынуждены сосуществовать с ними. Такая симбиоза будет предполагать сотрудничество между людьми и “умными” машинами, что, по словам лауреата Нобелевской премии по экономике Дж. Стиглица, приведет к трансформации цивилизации (Стиглиц, 2017). Даже сегодня, по мнению некоторых юристов, “для повышения благосостояния человека закон не должен делать различий между деятельностью человека и деятельностью искусственного интеллекта, когда люди и искусственный интеллект выполняют одни и те же задачи” (Абботт, 2020). Надо также учитывать, что развитие андроидных роботов, все более приближающихся по физиологии к людям, приведет, среди прочего, к их выполнению ген

Государства должны адаптировать свое законодательство к изменяющимся социальным отношениям: число законов, направленных на регулирование отношений, связанных с системами искусственного интеллекта, быстро растет по всему миру. Согласно Докладу университета Стэнфорда по искусственному интеллекту за 2023 год, если только один закон был принят в 2016 году, то в 2018 году их было 12, в 2021 году – 18, а в 2022 году – 37. Это побудило Организацию Объединенных Наций определить позицию по этике использования искусственного интеллекта на глобальном уровне. В сентябре 2022 года был опубликован документ, содержащий принципы этичного использования искусственного интеллекта и основывающийся на Рекомендациях по этике искусственного интеллекта, принятых годом ранее на ЮНЕСКО Генеральной конференцией. Тем не менее, темпы развития и внедрения технологий искусственного интеллекта значительно опережают темпы соответствующих изменений в законодательстве.

Основные концепции правоспособности искусственного интеллекта

Рассматривая концепции потенциального признания правоспособности интеллектуальным системам, следует признать, что реализация любого из этих подходов потребует фундаментальной перестройки существующей общей правовой теории и внесения поправок в ряд положений определенных отраслей права. Следует подчеркнуть, что сторонники разных точек зрения часто используют термин “электронная личность”, поэтому использование этого термина не позволяет определить, какой концепции является сторонником автор работы без ее прочтения.

Самый радикальный и, очевидно, наименее популярный подход в научных кругах – это концепция индивидуальной правоспособности искусственного интеллекта. Сторонники этого подхода выдвигают идею “полной инклюзивности” (крайней инфлюзивности), что предполагает признание систем искусственного интеллекта юридическим статусом, аналогичным человеческому, а также признание их собственных интересов (Mulgan, 2019), учитывая их социальное значение или социальный контент (социальная оценка). Последнее вызвано фактом того, что “физический облик робота заставляет людей относиться к этому движущемуся объекту, как если бы он был живым. Это становится еще более очевидным, когда робот обладает антропоморфными характеристиками, поскольку сходство с человеческим телом заставляет людей начинать проецировать эмоции, чувства удовольствия, боли, заботы, а также желание установить отношения” (Авила Негри, 2021). Проекция человеческих эмоций на неживые объекты не нова и уходит корнями в историю человечества, но, когда это применяется к роботам, это влечет за собой многочисленные последствия (Балкин, 2015).

Пререквизиты для правового подтверждения этой позиции обычно упоминаются следующим образом:

– Системы искусственного интеллекта достигают уровня сравнимого с когнитивными функциями человека;

– Увеличение степени сходства между роботами и людьми;

– Гуманизация, защита интеллектуальных систем от потенциального “страдания”.

Как показывает список обязательных требований, все они имеют высокую степень теоретизации и субъективной оценки. В частности, тенденция создания антропоморфных роботов (андроидов) обусловлена повседневными психологическими и социальными потребностями людей, которые чувствуют себя комфортно в “компании” с подобными им субъектами. У некоторых современных роботов есть иные сужающие свойства из-за выполняемых ими функций; к ним относятся, например, “многоразовые” курьерские роботы, которым важна прочная конструкция и эффективное распределение веса. В этом случае вступает в игру последнее из перечисленных пререквизитов, вследствие формирования эмоциональной связи с роботами в мыслях человека, аналогичной эмоциональной связи между животным и его хозяином (Грин, 2018).

Идея “полной инклюзии” правового статуса систем искусственного интеллекта и людей отражена в работах некоторых юридических ученых. Поскольку положения Конституции и секторального законодательства не содержат правового определения личности, понятие “личность” в конституционно-правовом смысле теоретически позволяет экспансивную интерпретацию. В этом случае в категорию субъектов входили бы любые обладатели интеллекта, познавательные способности которых признаются достаточно развитыми. По мнению А.В. Нечкина, логика этого подхода заключается в том, что основное отличие между людьми и другими живыми существами заключается в их уникально высокоразвитом интеллекте (Нечкин, 2020). Признание прав систем искусственного интеллекта кажется следующим шагом в эволюции правовой системы, которая постепенно расширяет юридическое признание ранее дискриминированным людям и сегодня предоставляет доступ также и неживым существам (Хеллерс, 2021).

Если такой правовой статус будет предоставлен системам искусственного интеллекта, сторонники этого подхода считают целесообразным предоставить таким системам не прямые права граждан в их устоявшемся конституционно-правовом толковании, а их аналоги и определенные гражданские права с некоторыми отклонениями. Эта позиция основывается на объективных биологических различиях между людьми и роботами. Например, не имеет смысла признавать право на жизнь для системы искусственного интеллекта, поскольку она не живет в биологическом смысле. Права, свободы и обязанности систем искусственного интеллекта должны быть второстепенными по сравнению с правами граждан; эта позиция устанавливает производный характер искусственного интеллекта как человеческого творения в правовом смысле.

Потенциальные конституционные права и свободы искусственных интеллектуальных систем включают право на свободу, право на самосовершенствование (обучение и самообучение), право на конфиденциальность (защита программного обеспечения от произвольного вмешательства третьих лиц), свободу слова, свободу творчества, признание авторских прав и ограниченных имущественных прав интеллектуальной собственности системы искусственного интеллекта. Конкретные права искусственного интеллекта также могут быть перечислены, например, право на доступ к источнику электроэнергии.

Что касается обязанностей систем искусственного интеллекта, предлагается, чтобы три известных закона робототехники, сформулированных А. Азимовым, были закреплены в конституции: не причинять вреда человеку и предотвращать вред своим бездействием, следовать всем приказам, данным человеком, за исключением тех, которые нацелены на причинение вреда другому человеку, заботиться о собственной безопасности, за исключением двух предыдущих случаев (Наумов и Архипов, 2017). В этом случае положения гражданского и административного права отразят иные обязанности.

Концепция индивидуальной правоспособности искусственного интеллекта имеет очень мало шансов на юридическое закрепление по нескольким причинам.

Во-первых, критерий признания правоспособности на основе наличия сознания и самосознания является абстрактным и позволяет многочисленные нарушения, злоупотребления правом и провоцирует социально-политические проблемы в качестве дополнительного аргумента для стратификации общества. Эту идею подробно разработали С. Чоупра и Л. Уайт, утверждая, что сознание и самосознание не являются необходимым и/или достаточным условием для признания систем искусственного интеллекта субъектами права. В юридической реальности сознательно ограничены лица, полностью обладающие сознанием, например, дети (или рабы в римском праве). В то же время, лица с серьезными психическими расстройствами, включая объявленных недееспособными или находящихся в коме и т.д., с объективной неспособностью быть сознательными в первом случае остаются субъектами права (хотя и в ограниченной форме), а во втором случае они обладают такой же полной правоспособностью, без особых изменений в своем правовом статусе. Потенциальное закрепление упомянутого критерия сознания и самосознания позволит произвольно лишать граждан правоспособности.

Во-вторых, искусственным системам интеллекта не удастся осуществлять свои права и обязанности в установленном юридическом смысле, так как они работают на основе предварительно написанной программы, а юридически значимые решения должны основываться на субъективном, моральном выборе человека (Морхат, 2018b), их непосредственном отражении воли. Все моральные отношения, чувства и желания такого “лица” становятся производными от человеческого интеллекта (Ужов, 2017). Автономия систем искусственного интеллекта в смысле их возможности принимать решения и осуществлять их независимо, без внешнего антропогенного контроля или целенаправленного воздействия человека (Мусина, 2023), не является всесторонней. В настоящее время искусственный интеллект способен только принимать “квази-автономные решения”, которые каким-то образом основаны на идеях и моральных позициях людей. В этом отношении можно рассматривать только “действие-операцию” системы искусственного интеллекта, исключая способность давать реальную моральную оценку поведению искусственного интеллекта (Петиев, 2022).

В-третьих, признание индивидуальной правоспособности искусственного интеллекта (особенно в форме приравнивания его к статусу физического лица) приводит к деструктивным изменениям в положенном правопорядке и правовых традициях, сложившихся с времен римского права, и вызывает ряд фундаментально неразрешимых философских и юридических проблем в области прав человека. Юридическая система в качестве системы социальных норм и социального явления была создана с учетом возможностей человека и для обеспечения интересов человека. Установленная антропоцентрическая система нормативных положений, международный консенсус по понятию внутренних прав будет считаться юридически и фактически недействительными в случае установления подхода “экстремального инклюзивизма” (Дремлюга и Дремлюга, 2019). Поэтому предоставление статуса юридического лица системам искусственного интеллекта, в частности “умным” роботам, может не являться решением существующих проблем, а стать ящиком Пандоры, усиливающим социально-политические противоречия (Солайман, 2017).

Еще одна точка зрения состоит в том, что работы сторонников этой концепции обычно упоминают только роботов, то есть кибер-физические системы искусственного интеллекта, которые будут взаимодействовать с людьми в физическом мире, в то время как виртуальные системы исключены, хотя сильный искусственный интеллект, если он появится, будет воплощен также и в виртуальной форме.

Исходя из вышеизложенных аргументов, концепцию индивидуальной правоспособности системы искусственного интеллекта следует рассматривать как юридически невозможную в рамках действующего правопорядка.

Концепция коллективной личности в отношении искусственных интеллектуальных систем получила значительную поддержку среди сторонников допустимости такой правоспособности. Основным преимуществом такого подхода является исключение абстрактных понятий и ценностных суждений (сознание, самосознание, рациональность, мораль и т. д.) из правовой практики. Подход основан на применении правовой фикции к искусственному интеллекту.

Что касается юридических лиц, уже существуют “передовые регулятивные методы, которые могут быть адаптированы для решения дилеммы правового статуса искусственного интеллекта” (Харш, 2022).

Эта концепция не подразумевает, что ИИ системам фактически предоставляется юридическая способность физического лица, но является только расширением существующего института юридических лиц, что предполагает создание новой категории юридических лиц, названных кибернетическими “электронными организмами”. Этот подход делает более подходящим рассматривать юридическое лицо не в соответствии с современной узкой концепцией, в частности, обязательством, которое оно может приобретать и осуществлять гражданские права, нести гражданскую ответственность и быть истцом и ответчиком в суде от своего имени), но в широком смысле, который представляет юридическое лицо как любую структуру, отличную от физического лица, одаренную правами и обязанностями в форме, предусмотренной законом. Таким образом, сторонники этого подхода предлагают рассматривать юридическое лицо как субъектное лицо (идеальное лицо) по римскому праву.

Подобие между искусственными интеллектуальными системами и юридическими лицами проявляется в способе их наделения юридической способностью – через обязательную государственную регистрацию юридических лиц. Только после прохождения установленной процедуры регистрации юридическое лицо наделяется юридическим статусом и юридической способностью, то есть становится юридическим субъектом. Эта модель сохраняет дискуссии о юридической способности ИИ систем в юридической сфере, исключая признание юридической способности на других (внегосударственных) основаниях, без внутренних предпосылок, в то время как физическое лицо признается юридическим субъектом с рождения.

Достоинством этой концепции является расширение на искусственные интеллектуальные системы требования о внесении информации в соответствующие государственные реестры, аналогичные обязательной государственной регистрации юридических лиц, как предпосылки для наделения ими юридической способностью. Этот метод реализует важную функцию систематизации всех юридических лиц и создания единой базы данных, которая необходима как для контроля и надзора со стороны государственных органов (например, в области налогообложения), так и для потенциальных контрагентов таких субъектов.

Объем прав юридических лиц в любой юрисдикции обычно меньше, чем у физических лиц; поэтому использование этой структуры для наделения искусственного интеллекта юридической способностью не связано с предоставлением ему ряда прав, предложенных сторонниками предыдущей концепции.

Применяя технику юридической вымышленности к юридическим лицам, предполагается, что действия юридического лица сопровождаются объединением физических лиц, формирующих его “волю” и осуществляющих ее через органы управления юридического лица.

Другими словами, юридические лица являются искусственными (абстрактными) единицами, созданными для удовлетворения интересов физических лиц, выступавших в качестве их основателей или контролирующих их. Точно также искусственные интеллектуальные системы созданы для удовлетворения потребностей определенных лиц – разработчиков, операторов, владельцев. Физическое лицо, использующее или программировающее ИИ системы, руководствуется своими собственными интересами, которые эта система представляет во внешней среде.

Оценивая такую ​​регулятивную модель в теории, не следует забывать, что полная аналогия между положениями юридических лиц и ИИ систем невозможна. Как упоминалось выше, все юридически значимые действия юридических лиц сопровождаются физическими лицами, которые непосредственно принимают эти решения. Воля юридического лица всегда определяется и полностью контролируется волей физических лиц. Таким образом, юридические лица не могут функционировать без воли физических лиц. Что касается ИИ систем, существует уже объективная проблема их автономности, то есть ​​способность принимать решения без вмешательства физического лица после момента прямого создания такой системы.

Учитывая присущие ограничения рассмотренных выше концепций, значительное число исследователей предлагают свои собственные подходы к регулированию правового статуса искусственных интеллектуальных систем. Условно можно их отнести к различным вариациям концепции “градиентной правоспособности”, согласно Исследователю из Университета Левена Д. М. Мокану, который подразумевает ограниченный или частичный правовой статус и правоспособность ИИ систем с оговоркой: термин “градиентный” используется потому, что речь идет не только о включении или не включении определенных прав и обязанностей в правовой статус, но и о формировании такого набора прав и обязанностей с минимальным порогом, а также о признании такой юридической способности только для определенных целей. Затем два основных типа этой концепции могут включать подходы, обосновывающие:

1) предоставление ИИ системам особого правового статуса и включение “электронных лиц” в правопорядок в качестве совершенно новой категории юридических субъектов;

2) предоставление ИИ системам ограниченного правового статуса и правоспособности в рамках гражданско-правовых отношений через введение категории “электронных агентов”.

Позицию сторонников различных подходов внутри этой концепции можно объединить с учетом отсутствия онтологических оснований считать искусственный интеллект юридическим субъектом; однако в конкретных случаях уже существуют функциональные основания для наделения искусственных интеллектуальных систем определенными правами и обязанностями, что “доказывает лучший способ пропагандировать индивидуальные и общественные интересы, которые должны быть защищены законом” через предоставление этим системам “ограниченных и узких” форм юридического лица”.

Предоставление особого правового статуса системам искусственного интеллекта путем создания отдельного правового института “электронных лиц” имеет значительное преимущество в детальном объяснении и регулировании возникающих отношений:

– между юридическими лицами и физическими лицами и системами искусственного интеллекта;

– между системами искусственного интеллекта и их разработчиками (операторами, владельцами);

– между третьими лицами и системами искусственного интеллекта в гражданских правоотношениях.

В этой правовой рамке система искусственного интеллекта будет контролироваться и управляться отдельно от ее разработчика, владельца или оператора. Определяя концепцию “электронного лица”, П. М. Морхат фокусируется на применении вышеупомянутого метода юридической фикции и функционального направления определенной модели искусственного интеллекта: “электронное лицо” – это техническое и правовое образование (обладающее некоторыми элементами юридической фикции и юридического лица), которое отражает и реализует условно специфическую юридическую способность системы искусственного интеллекта, отличающуюся в зависимости от ее назначения, целей и возможностей.

Аналогично концепции коллективных лиц в отношении систем искусственного интеллекта, этот подход предполагает ведение особых реестров “электронных лиц”. Подробное и ясное описание прав и обязанностей “электронных лиц” является основой для последующего контроля со стороны государства и владельца таких систем искусственного интеллекта. Четко определенный набор полномочий, узкий круг юридического статуса и правоспособность “электронных лиц” гарантируют, что эта “личность” не выходит за рамки своей программы из-за потенциально независимого принятия решений и постоянного самообучения.

Этот подход предполагает, что искусственный интеллект, находящийся на этапе его создания, является интеллектуальной собственностью программных разработчиков, может быть наделен правами юридического лица после соответствующей сертификации и государственной регистрации, но юридический статус и правоспособность “электронного лица” будут сохранены.

Внедрение принципиально нового института установленного правопорядка приведет к серьезным юридическим последствиям, требующим всеобъемлющей правовой реформы, по крайней мере, в областях конституционного и гражданского права. Исследователи справедливо указывают на необходимость осторожности при принятии концепции “электронного лица”, учитывая сложности введения новых лиц в законодательство, так как расширение понятия “личность” в правовом смысле может потенциально привести к ограничениям прав и законных интересов существующих субъектов правоотношений (Брайсон и др., 2017). По-видимому, невозможно учесть эти аспекты, так как юридическая способность физических лиц, юридических лиц и юридических лиц публичного права является результатом вековой эволюции теории государства и права.

Второй подход в рамках концепции градиентной правоспособности – это правовая концепция “электронных агентов”, в первую очередь связанная с широким использованием систем искусственного интеллекта в качестве средства коммуникации между контрагентами и инструментов для онлайн-коммерции. Этот подход может быть назван компромиссом, так как он признает невозможность наделения систем искусственного интеллекта статусом полноправных юридических субъектов при установлении определенных (социально значимых) прав и обязанностей для искусственного интеллекта. Иными словами, концепция “электронных агентов” легализует квазисубъектность искусственного интеллекта. Термин “квазиправовой субъект” следует понимать как определенное правовое явление, при котором определенные элементы правоспособности признаются на официальном или доктринном уровне, но установление статуса полноправного юридического субъекта невозможно.

Приверженцы этого подхода подчеркивают функциональные особенности систем искусственного интеллекта, позволяющие им выступать как пассивный инструмент и активный участник в юридических отношениях, потенциально способным к самостоятельному генерированию юридически значимых договоров для владельца системы. Таким образом, системы искусственного интеллекта могут условно рассматриваться в контексте агентских отношений. При создании (или регистрации) системы искусственного интеллекта инициатор “электронного агента” заключает виртуальное одностороннее агентское соглашение с ней, в результате чего “электронному агенту” предоставляются определенные полномочия, с помощью которых он может осуществлять юридически значимые действия, важные для принципала.

Источники:

  • R. Маклэй, “Управление ростом искусственного интеллекта”, 2018 г.
  • Бертолини А. и Эпископо Ф., 2022 г., “Роботы и искусственный интеллект в качестве субъектов права? Разъяснение онтологической и функциональной перспективы”
  • Алексеев, А.Ю., Алексеева, Е.А., Емельянова, Н.Н. (2023 г.). “Искусственная личность в социально-политической коммуникации. Искусственные общества”
  • “Особенности лабораторной диагностики синдрома Санфилиппо А” Н.С. Трофимова, Н.В. Олхович, Н.Г. Горовенко
  • Шуткин, С.И., 2020 г., “Возможна ли правоспособность искусственного интеллекта? Работы по интеллектуальной собственности”
  • Ладенков, Н.Е., 2021 г., “Модели наделения искусственного интеллекта правоспособностью”
  • Бертолини, А., и Эпископо, Ф., 2021 г., “Доклад Экспертной группы по ответственности за искусственный интеллект и другие развивающиеся цифровые технологии: критическая оценка”
  • Морхат, П.М., 2018 г., “К вопросу о правовом определении термина искусственный интеллект”