Джульетт Пауэлл и Арт Кляйнер, авторы серии интервью Дилемма искусственного интеллекта

Джульетт Пауэлл и Арт Кляйнер, авторы Дилеммы искусственного интеллекта

Книга “The AI Dilemma” написана Джульетт Пауэлл и Артом Кляйнером.

Джульетт Пауэлл – автор, создатель телевизионных шоу с 9 000 прямыми эфирами, технолог и социолог. Она также является комментатором на Bloomberg TV / Business News Networks и выступает на конференциях, организованных Economist и Международной финансовой корпорацией. Ее TED-доклад имеет 130 тыс. просмотров на YouTube. Джульетт идентифицирует шаблоны и практики успешных бизнес-лидеров, которые делают ставку на этическую и ответственную работу с искусственным интеллектом и данными. Она является преподавателем в Нью-Йоркском университете, где ведет четыре курса, включая курс по навыкам дизайна ответственных медиа, основанный на ее книге.

Арт Кляйнер – писатель, редактор и футурист. Его книги включают “Век еретиков”, “Те, кто действительно имеет значение”, “Привилегия и успех” и “Мудрый”. Он был редактором журнала strategy+business, награжденного журналом PwC. Арт также является преподавателем в Нью-Йоркском университете, где читает курсы по ответственным технологиям и будущему медиа.

Книга “The AI Dilemma” фокусируется на опасностях технологии искусственного интеллекта в неправильных руках, признавая при этом преимущества, которые искусственный интеллект предлагает обществу.

Проблемы возникают из-за того, что базовая технология настолько сложна, что для конечного пользователя становится невозможно полностью понять внутреннее устройство закрытой системы.

Одна из наиболее значимых проблем, на которую обращается внимание, – это то, что определение ответственного искусственного интеллекта всегда меняется, поскольку общественные ценности часто не остаются постоянными со временем.

Мне очень понравилось чтение “The AI Dilemma”. Эта книга не раздувает опасности искусственного интеллекта и не углубляется в потенциальные проблемы искусственного общего интеллекта (AGI). Вместо этого читатели узнают о неожиданных способах использования наших личных данных без нашего ведома, а также о некоторых текущих ограничениях искусственного интеллекта и причинах для беспокойства.

Ниже приведены некоторые вопросы, которые предназначены для того, чтобы показать нашим читателям, чего они могут ожидать от этой новаторской книги.

Что вдохновило вас на написание книги “The AI Dilemma”?

Джульетт пошла учиться в Колумбийский университет, частично чтобы изучить ограничения и возможности регулирования искусственного интеллекта. Она услышала из первых рук от друзей, работающих над проектами искусственного интеллекта, о напряженности, присущей этим проектам. Она пришла к выводу, что существует дилемма искусственного интеллекта, гораздо большая проблема, чем саморегулирование. Она разработала модель бенчмаркинга Apex – модель, описывающую, как принятие решений в отношении искусственного интеллекта имеет тенденцию к низкой ответственности из-за взаимодействия между компаниями и группами внутри компаний. Это привело к написанию ее диссертации.

Арт работал с Джульетт над несколькими проектами по написанию. Он прочитал ее диссертацию и сказал: “У тебя здесь есть книга”. Джульетт пригласила его стать соавтором. Работая вместе, они обнаружили, что у них есть очень разные взгляды, но они разделяют сильное мнение о том, что этот сложный и высокорисковый феномен искусственного интеллекта нужно лучше понимать, чтобы люди, использующие его, могли действовать более ответственно и эффективно.

Одной из основных проблем, на которую обращается внимание в книге “The AI Dilemma”, является то, что на данный момент невозможно понять, является ли система искусственного интеллекта ответственной или она поддерживает социальное неравенство, просто изучая ее исходный код. Насколько это большая проблема?

Проблема не заключается преимущественно в исходном коде. Как отмечает Кэти О’Нил, когда речь идет о закрытой системе, это не только код. Это социотехническая система – человеческие и технологические силы, формирующие друг друга, которые нужно исследовать. Логика, которая создала и выпустила систему искусственного интеллекта, включала определение цели, определение данных, установку приоритетов, создание моделей, установку руководящих принципов и ограждений для машинного обучения, а также принятие решения о том, когда и как должен вмешиваться человек. Именно эта часть должна стать прозрачной – по крайней мере, для наблюдателей и аудиторов. Риск социального неравенства и другие риски намного больше, когда эти части процесса скрыты. Вы не можете действительно переконструировать логику проектирования по исходному коду.

Может ли сосредоточение на понятности искусственного интеллекта (XAI) решить эту проблему?

Для инженеров понятность искусственного интеллекта в настоящее время рассматривается как группа технологических ограничений и практик, направленных на то, чтобы сделать модели более прозрачными для работающих над ними людей. Для того, кто неправильно обвиняется, понятность имеет совершенно другое значение и срочность. Они нуждаются в понятности, чтобы иметь возможность отстоять себя. Всем нам нужна понятность в смысле ясности бизнес- или государственных решений, лежащих в основе моделей. По крайней мере, в Соединенных Штатах всегда будет напряжение между понятностью – правом человека знать – и правом организации конкурировать и инновировать. Аудиторы и регуляторы нуждаются в другом уровне понятности. Мы более подробно рассмотрим это в книге “The AI Dilemma”.

Можете ли вы кратко поделиться своими взглядами на важность ответственности за код, который выпускают в мир заинтересованные стороны (компании по разработке искусственного интеллекта)?

До сих пор, например, в случае аварии самоуправляемого автомобиля в Темпе, штат Аризона, в которой погиб пешеход, ответственность несли операторы. Один человек попал в тюрьму. Однако, в конечном счете, это было организационное провал.

Когда разрушается мост, за это отвечает механический инженер. Это потому, что механические инженеры проходят обучение, постоянно переобучаются и несут ответственность перед своей профессией. Компьютерные инженеры этого не делают.

Следует ли обучать и переобучать заинтересованных сторон, включая компании по разработке искусственного интеллекта, принимать лучшие решения и нести больше ответственности?

Проблема искусственного интеллекта сфокусирована на том, как компании, такие как Google и Meta, могут собирать и монетизировать наши персональные данные. Не могли бы вы привести пример значительного злоупотребления нашими данными, о котором следует знать каждому?

Из “Проблемы искусственного интеллекта”, стр. 67 и далее:

Все чаще становятся известны случаи систематического злоупотребления личными данными, многие из которых связаны с скрытым использованием системы распознавания лиц. В декабре 2022 года MIT Technology Review опубликовало материалы о долговременной практике компании iRobot. Роботы Roomba, установленные в домах добровольных бета-тестеров, записывают изображения и видео, что неизбежно включает сбор интимных личных и семейных изображений. Эти данные, без ведома тестеров, передаются третьим сторонам за пределами страны. В одном случае изображение человека, находящегося на унитазе, было опубликовано на Facebook. В то же время в Иране власти начали использовать данные из систем распознавания лиц для отслеживания и ареста женщин, не носящих хиджаб.16

Нет необходимости подробно останавливаться на этих историях. Их так много. Однако важно определить кумулятивный эффект такого образа жизни. Мы теряем ощущение контроля над своей жизнью, когда мы понимаем, что наша личная информация может быть использована против нас в любое время, без предупреждения.

Одна опасная концепция, которая была поднята, заключается в том, что наш весь мир спроектирован таким образом, чтобы быть без трения, причем трение определяется как “любая точка в пути клиента с компанией, где он сталкивается с трудностями, замедляющими его или вызывающими недовольство”. Как ожидание безтрения может привести к опасному искусственному интеллекту?

В Новой Зеландии мудрый бот для приготовления еды Pak’n’Save предложил рецепт, который создаст хлоргаз, если его использовать. Это было представлено как способ для клиентов использовать остатки и сэкономить деньги.

Отсутствие трения создает иллюзию контроля. Быстрее и легче прослушать приложение, чем искать рецепт у бабушки. Люди идут по пути наименьшего сопротивления и не осознают, куда это их ведет.

Трение, напротив, является творческим. Вы вовлечены в процесс. Это приводит к реальному контролю. Реальный контроль требует внимания и работы, а в случае искусственного интеллекта – проведения расширенного анализа затрат и выгод.

С иллюзией контроля кажется, что мы живем в мире, где системы искусственного интеллекта подталкивают людей, а не люди полностью контролируют ситуацию. Какие примеры вы можете привести, когда люди коллективно считают, что они контролируют ситуацию, когда на самом деле этого не происходит?

Сейчас в Сан-Франциско с роботакси. Идея самоуправляемых такси вызывает два противоречивых эмоциональных отклика: восторг (“такси по намного более низкой цене!”) и страх (“не сбъют ли меня?”). Поэтому многие регуляторы предлагают испытывать такие автомобили с людьми внутри, которые могут управлять системами. К сожалению, наличие людей, готовых в режиме реального времени вмешаться и переключить системы, может не быть хорошим тестом на общественную безопасность. С AI системами часто возникает эффект чрезмерной уверенности. Чем более автономная система, тем больше доверяют ей человеческие операторы и тем меньше они уделяют ей полное внимание. Наблюдать за этими технологиями нам скучно. Когда происходит фактическая авария, мы этого не ожидаем и часто не реагируем вовремя.

В эту книгу было вложено много исследований, что вас удивило?

Одно из вещей, которые нас действительно удивило, – это то, что люди по всему миру не могут согласиться, кто должен жить и кто должен умереть в симуляции столкновения самоуправляемого автомобиля “Моральной машины”. Если мы не можем договориться об этом, то трудно представить себе единую глобальную управляющую систему или универсальные стандарты для систем искусственного интеллекта.

Вы оба описываете себя как предпринимателей, как ваши узналие и отчеты повлияют на ваши будущие усилия?

Наша практика консалтинга по искусственному интеллекту ориентирована на помощь организациям расти ответственно с этой технологией. Юристы, инженеры, социальные ученые и бизнес-мыслители – все они заинтересованные стороны в будущем искусственного интеллекта. В нашей работе мы объединяем все эти точки зрения и используем творческое трение для нахождения лучших решений. Мы разработали концепции, такие как расчет преднамеренного риска, чтобы помочь нам навигировать в этих вопросах.

Спасибо за отличные ответы, читатели, желающие узнать больше, могут посетить The AI Dilemma.