Проблема общественного восприятия машинного обучения

Проблема восприятия МО в обществе

Почему осведомленность публики в области машинного обучения должна стать приоритетом для науки о данных и что мы можем сделать в этом направлении.

Фото Андрея Симона на Unsplash

Недавно я слушал подкаст с набором разумных и вдумчивых людей (имена которых я не буду называть, чтобы быть вежливым), где они говорили о том, как искусственный интеллект может использоваться в здравоохранении. У меня уже возникли сомнения, так как они использовали термин “искусственный интеллект”, который, как я часто замечаю, часто означает все и ничего одновременно. Но я продолжал слушать, и они обсуждали идеи, как можно использовать инструменты искусственного интеллекта (на самом деле просто машинное обучение) в медицинской практике. Среди этих инструментов были предложения диагнозов на основе симптомов и корректировка дозировки лекарств на основе показателей и состояния пациента, что казалось многообещающим и практичным.

Однако в следующий момент меня немного шокировало заявление одного из участников (врача), который сказал (я парафразирую): “похоже, что ИИ стал хуже в математике”. Это осталось со мной не только до конца подкаста, но и на протяжении всего уикенда.

Когда образованные и умные непрофессионалы так сильно путаются и неправильно информируются о том, что такое машинное обучение, у нас возникает проблема. (Я постараюсь избегать использования термина “ИИ”, потому что я действительно считаю, что он скорее запутывает, чем разъясняет наше представление. В данном контексте эти люди обсуждали машинное обучение и продукты, использующие его, даже если они об этом не знали.)

В случае врача, он, вероятно, обращался к моделям обработки естественного языка (Natural Language Models), когда говорил о математике. Он каким-то образом пришел к выводу, что модель, обученная сложному образу размещать слова в ответ на запрос, также должна уметь выполнять математические расчеты. В этом она не сильна (ее не обучали для этого!), и его представление обо всех областях машинного обучения было подорвано этой реальностью.

Вопреки этому заблуждению, специалисты по данным понимают, что модели обработки естественного языка представляют только малую часть всего многообразия машинного обучения. Многие другие алгоритмы и модели отлично справляются с математическими расчетами, так как это их конкретная цель. (Как сказал мне друг, когда я рассказал ему эту историю: “модели машинного обучения – это просто МАТЕМАТИКА!”) Начало этого абзаца – вот в чем проблема, однако – специалисты по данным это понимают, но общественность в целом этого действительно не знает.

…специалисты по данным понимают, что модели обработки естественного языка представляют только малую часть всего многообразия машинного обучения.

Я мог бы потратить целую статью, говоря о разнице между языковыми моделями и другими формами машинного обучения, но это не то, что меня сегодня действительно интересует. Вместо этого я хочу рассказать о том, почему нам нужно заботиться о том, чтобы непрофессионалы имели представление о машинном обучении, и какие могут быть последствия.

Почему нам следует заботиться, если непрофессионалы имеют представление о машинном обучении?

Как социолог, превратившийся в специалиста по данным, мне очень важно, как люди взаимодействуют с наукой о данных и машинным обучением. У меня есть личная философия на этот счет: если ваше машинное обучение не приносит пользы людям или окружающему нас миру, оно не имеет значения. Я считаю, что целью человеческого стремления должно быть улучшение жизни других людей, и это касается также машинного обучения.

Однако, даже если вы не разделяете эту философию, я утверждаю, что вам все равно следует заботиться о том, чтобы широкая общественность понимала основы машинного обучения. Если у людей нет этого понимания, принятие ценных и надежных инструментов может остановиться.

Мое рассуждение примерно такое:

  1. Люди естественным образом не готовы понимать и взаимодействовать с машинным обучением.
  2. Не понимая этих инструментов, некоторые люди могут избегать или не доверять им.
  3. Что хуже, некоторые люди могут неправильно использовать эти инструменты из-за неправильной информации, что может привести к негативным последствиям.
  4. После того, как они столкнутся с негативными последствиями неправильного использования, люди могут стать неохотными принимать будущие инструменты машинного обучения, которые могли бы улучшить их жизнь и сообщества.

Машинное обучение работает только в той мере, в какой люди, использующие его, могут максимизировать его функциональность. Я часто вижу и слышу примеры, подобные анекдоту, с которого началась моя история, где люди начинают с крайне неправильных представлений о том, что такое машинное обучение или что оно может представлять, и строят умственные конструкции на основе этого ошибочного фундамента. Это приводит к тому, что их весь когнитивный образ машинного обучения оказывается неверным.

Что это означает для области науки о данных, так это то, что все наша работа в области разработки более и более продвинутого машинного обучения ограничена не количеством графических процессоров, которые мы можем получить в наши руки, а нашей способностью объяснить то, что мы создаем, и образовать общественность в понимании того, что это значит и как это использовать.

…наша работа в области разработки более продвинутого машинного обучения ограничена не количеством графических процессоров, которые мы можем получить в наши руки, а нашей способностью объяснить то, что мы создаем.

Люди неинстинктивно готовы понимать машинное обучение (ML)

Недавно я прочитал статью под названием «Почему Джонни не умеет понимать» (Замфиреску-Перейра, Вонг, Хартманн и Янг, апрель 2023 года). Это заставило меня задуматься о том, как непрофессионалы в области обработки данных думают и работают с генеративным искусственным интеллектом (ИИ), а также в целом с машинным обучением.

Возможно, я позже напишу отдельно о данной статье, но для данного аргумента важно следующее: Люди склонны применять свои установленные рамки взаимодействия с другими людьми в своем взаимодействии с системами машинного обучения, что приводит к неудовлетворительным результатам и разочарованию пользователей.

Люди склонны применять свои установленные рамки взаимодействия с другими людьми в своем взаимодействии с системами машинного обучения, что приводит к неудовлетворительным результатам и разочарованию пользователей.

Я не считаю, что это неисправимо. Я даже думаю, что люди всегда должны учиться использовать новые инструменты, и мы определенно можем добиться успеха. Подумайте о том, как мы постепенно научились пользоваться компьютерами, а затем смартфонами. Не сразу стало очевидно, что делать или как сделать себя “понятным” устройствам перед нами.

Это в основном было решено с помощью сочетания времени, улучшений в дизайне устройств, чтобы сделать их более интуитивными (например, технология приходит к нам там, где мы находимся) и образования. Когда я был молодым, у пожилых или малообеспеченных людей был доступ к бесплатным или недорогим компьютерным классам в местных коммунальных колледжах, например. Целью было не научиться программированию, а просто научиться эффективно использовать компьютеры, потому что они были невероятно полезными инструментами.

Я думаю, что такой подход может работать и для машинного обучения, но есть несколько отличий. Во-первых, многое из машинного обучения абстрагировано от нас или оно обернуто в антропоморфный интерфейс (например, в случае чат-ботов LLM). Многие результаты моделей машинного обучения поступают в нашу жизнь, и мы не понимаем, что они находятся там, например, персонализация результатов поиска или оповещения в приложениях на основе предсказаний о том, что мы захотим или нам понадобится, чтобы назвать лишь некоторые. В случае генеративного ИИ, большая часть машинного обучения скрыта за поверхностью разговорного чат-бота, и мы естественным образом склонны взаимодействовать с ним, как с любым собеседником. Однако это ошибка, как описывают авторы в упомянутой выше статье. В настоящее время лучшие результаты от LLM достигаются не просто разговорами с ним “как с человеком”.

Некоторые люди не будут использовать то, что они не понимают

Это реальность создает несколько условий, о которых нам следует знать. Во-первых, многие люди не будут покупать идею о том, что машинное обучение полностью выгодно и просто. Многие люди смотрят на новую эру генеративного ИИ и вместо восторга испытывают тревогу. Это разумная реакция для многих. Во-первых, у нас есть много культурных ссылок и опытов, которые научили нас тому, что “слишком умные” компьютеры опасны, и мы должны быть настороже.

Люди также воспринимали персональные компьютеры. Некоторые были обеспокоены их возможностями и мощностью, а другие нервничали из-за своей реальной способности понять и использовать их. Те компьютерные классы в коммунальных колледжах смягчили неуверенность людей и помогли им установить комфортные отношения с идеей компьютеров. К сожалению, я не вижу, чтобы область науки о данных проявляла такую же заботу с неуверенными членами общества сегодня.

Прием новых технологий всегда вызывает сложности не потому, что люди глупы или не любознательны, а из-за реальных опасений о потенциальных рисках. Признание этих опасений и демонстрация приверженности предотвращению негативных результатов может повысить доверие общественности к машинному обучению.

Другие люди будут злоупотреблять тем, что они не понимают

С другой стороны, есть много людей, которые прыгнули во взаимодействие с машинным обучением, особенно с LLM, с обеими ногами. Люди используют его для самых разных вещей, включая работу в различных отраслях, а также развлечения. Шумиха и медийное освещение привлекли внимание к технологии LLM и ее потенциалу, и почти каждая компания с компьютером на территории пытается внедрить искусственный интеллект в свою бизнес-стратегию.

Однако есть и отрицательная сторона этого восторга. Когда люди начинают использовать машинное обучение, такое как LLM, они начинают замечать проблемы и способы, которые технология не оправдывает завышенных ожиданий. Возможно, чат-бот не понимает вашего вопроса, или прогнозы модели не всегда идеальны, но конечный пользователь ожидает, что машина не совершит никаких ошибок. Почему они ожидают этого? Потому что то, что они знают о машинном обучении, происходит из поп-культуры и шумихи. Мы, ученые-данные, не уделили время, чтобы объяснить, какие ожидания являются разумными, а какие все еще научно-фантастическим материалом.

После неправильного использования инструментов, которые они не понимают, люди будут бояться использовать новые инструменты в будущем

Итак, что происходит, когда мы обещаем слишком много и не достигаем ожиданий в отношении решений машинного обучения для обычных пользователей? Во многих случаях у нас останутся разочарованные и разочарованные люди, которые могли бы стать отличными сторонниками новых технологий. Они будут менее склонны попробовать следующую версию или использовать машинное обучение в будущем, потому что они дали ему шанс и получили разочарование.

Представьте себе такой пример: юрист, который использовал ChatGPT для получения ссылок на документ. Когда эта история вышла в свет, сообщество ученых-данных раскритиковало юриста. “Кто бы это сделал? Разве они не знали, что нельзя полагаться на ChatGPT для точности таких вещей?”

Мне действительно жаль этого юриста, даже если эти последствия являются результатом некоторой небрежности. Обещание ChatGPT кажется почти волшебством для большинства общественности, и представления СМИ о почти чудесных вещах, которые оно может сделать, подкрепляют эту идею. Многие люди впервые узнали, что ChatGPT будет “лгать” вам, прочитав об этом случае.

Эти неправильные представления возникают из антропоморфизации LLM, предполагая, что у них есть человекоподобное мышление и способности распознавать правду. На самом деле, ChatGPT – это очень сложная модель, которая ставит слова в порядок в ответ на введенную вами подсказку. Она обучена производить очень понятный язык. Но ChatGPT не имеет понятия о “правде” или “ложи”. У него нет внутренних вложений для представления того, является ли что-то точным. Поэтому, когда новости говорят о том, что ChatGPT лжет или “галлюцинирует”, это немного вводит в заблуждение.

Однако важный момент заключается в том, что теперь у нас есть группа людей, которые видели эту новость, не говоря уже о причастном юристе, которые теперь, в лучшем случае, беспокоятся о том, можно ли полагаться на что-либо, полученное от ChatGPT. Весь этот сценарий действительно не помог им понять идею LLM и, конечно, не помог широко поставленной цели применения машинного обучения там, где это может быть полезным. Кто-то пострадал из-за их недостатка образования о том, как работает модель, другие посмеялись над этим, и теперь мы создали гораздо больше скептиков, которые будут избегать использования по крайней мере некоторых форм машинного обучения в будущем.

Все это приводит к одному и тому же месту и одной и той же проблеме – когда нет должного образования об общественных технологиях, мы оставляем задачу обучения общественности ненадежным и предвзятым источникам, которые имеют другие приоритеты, чем общественное благо. Просто спросите любого специалиста по общественному здравоохранению, пытающегося повысить уровень принятия вакцинации в наши дни. Машинное обучение может легко пройти по тому же неприятному пути, если мы не вступим в образование общественности заранее.

Что мы можем сделать, чтобы решить эту проблему?

Как мы, практики в области науки о данных, можем преодолеть эту разрыв между нашей технической экспертизой и осведомленностью общественности? Как бывший педагог, мне это очень важно. Важно, чтобы общественность действительно понимала, что машинное обучение может сделать для нас, потому что у нас есть возможность сделать много хорошего с его помощью.

Одно из того, что я думаю, мы можем сделать, – это вложить больше своего времени и энергии в образование общественности. Теперь я не говорю, что каждому человеку на улице нужен учебник по обратному распространению или архитектуре энкодера. (Это как сказать, что людям нужно изучать микросхемы, чтобы быть эффективными пользователями компьютеров.) Но я думаю, что есть некоторые основные элементы, которые люди должны понимать о машинном обучении, чтобы быть информированными пользователями технологии, включая этику, риски и ограничения того, что возможно в настоящее время. Как область, наука о данных должна иметь представление о том, какую информацию человеку нужно, чтобы стать успешным и эффективным пользователем машинного обучения, и как мы можем ее передавать.

Если бы мы не наблюдали такой резкий переход к доступности LLM для широкой публики, то, возможно, мы могли бы подождать с этим. Основные результаты прогностической модели обычно посредничаются специалистом в области науки о данных, поскольку входные данные модели тщательно разрабатываются, а результаты представляются продуманным образом. Однако в случае LLM-чатботов это не так. Люди могут вводить все, что им угодно, и никто не контролирует, что возвращается. Пользователям требуется гораздо больше знаний, чтобы производить и потреблять эту информацию ответственно.

Во-вторых, я считаю, что наука о данных как отрасль должна быть гораздо более голословной и настойчивой в отношении противоречивого рекламирования и преувеличения того, что на самом деле может делать машинное обучение и на что оно способно. Большинство из этого я нахожу в статьях, нацеленных на привлечение внимания, или даже в некоторых более теоретически надежных журналах. Не поймите меня неправильно, машинное обучение действительно удивительно и способно на невероятные вещи! Однако оно не идеально, и мы не должны позволять никому притворяться, что это так, не предъявляя никаких возражений.

Игнорируя эту проблему, мы рискуем отстать в развитии машинного обучения – не в его технологическом прогрессе, несмотря на то, что неспособность конгресса понять машинное обучение может оказать на это влияние, но в прогрессе его реальных приложений в практической жизни. Я не хочу, чтобы потрясающий потенциал этой технологии стал незначительным или уменьшился из-за того, что мы не помогли обществу готовиться к этому.

Больше моих работ можно найти на www.stephaniekirmer.com.