Как мы можем предвидеть наше отношение с искусственным интеллектом?

Как мы можем предугадать наше будущее отношение с искусственным интеллектом?

Делает ли искусственный интеллект нас глупее или умнее? Как мы можем оценить нашу связь с ИИ?

Взаимодействие между человеком и искусственным интеллектом на текущем или пост-AGI этапе всегда является предметом дискуссии. Независимо от вашей позиции – негативной или положительной – я хотел бы проанализировать последствия использования ИИ для нашего интеллекта. Будут ли люди становится более умными в мире, где распространен ИИ, или менее умными?

source

Во-первых, ИИ не является новой частью жизни, мы уже привыкли к нему, слушая рекомендации от Amazon или прокручивая бесконечные ролики в TikTok и другие платформы. Они уже хорошо знают нас, наши интересы, а иногда диктуют, что делать, рекомендуя нам (современная версия рекламы – рекомендательные системы). Некоторые люди считают это “заговором”, тогда как технически подкованные люди утверждают, что это помогает нам избавиться от необходимости заниматься пустяками. Я лично видел эту дебатную позицию.

source

Действительно, технологии повышают производительность, но автоматизируют множество задач.

Раньше людей нанимали для расчетов на бумаге, потом им предоставили калькулятор, чтобы не тратить слишком много времени и энергии на ручные расчеты, а сейчас у нас есть компьютеры и Excel, которые делают математику за нас.

Раньше люди были наняты для ручного остановки лифта на нужном этаже, а теперь это автоматизировано, и требуется только ремонт, когда они позиционируются для работы. В настоящее время машины отвечают за 30% задач, а остальное – для людей.

Jobs of the Future (shrm.org)

Калькулятор не заставил бухгалтеров становиться глупее, а помог им быть более продуктивными и точными. Автоматизированный лифт позволил некоторым опытным техникам выполнять свою работу, но не каждый способен этим заниматься. Искусственный интеллект – это следующая революция. Предполагается, что это будет смесь людей и машин в размере 50-50, что является значительным изменением. Поэтому многие люди беспокоятся, что они не смогут удержаться в таком темпе и приспособиться к новым условиям, пока ИИ не перейдет на их работу, делая это даже лучше, дешевле и производительнее.

Однако данная статья не рассматривает вопрос о том, забирает ли ИИ наши рабочие места или нет. Это будет требовать затрат, затраты на труд, для тех, кто отстает. Согласно опросу IBM, более 120 миллионов работников по всему миру нуждаются в переобучении в течение следующих трех лет из-за влияния искусственного интеллекта на рабочие места.

В конце концов, здесь речь идет о нашем интеллекте: может ли ИИ расширить наш разум и сделать нас более креативными, инновационными и продуктивными?

Мы предоставляем наш интеллект для данных. Да, это в значительной степени верно – данные, на которых обучены большинство ИИ-инструментов, производятся нами, людьми. Чем больше данных мы производим, тем больше интеллекта получают ИИ. Поэтому европейские страны беспокоятся о данных своих граждан, а также сами европейцы.

source

То зачастую мы проводим грань, границу, между нашими разумами и ИИ. Мы, как создатели, они (машины) – как созданные. Мы передаём некоторые интеллектуальные задачи им. Мы превосходим их. Давайте переосмыслим эту точку зрения; напротив, мы оба, люди и ИИ, объединяемся и сливаемся, смешиваемся и соединяемся, образуя единицы.

source

Концепция “расширенного сознания” была определена двумя философами, Энди Кларком и Дэвидом Чалмерсом, которая гласит, что “познание” не происходит только в наших головах, иначе говоря, разум не является прерогативой только мозга, он может расширяться во внешний мир, в физические объекты. Например, вскоре после выпуска смартфонов Apple они стали способны выполнять задачи, которые раньше мы делали сами, такие как запоминание номеров телефонов, навигация и т.д.

source

Точно так же мы можем наблюдать “расширенное тело”, например, вживление чипов Neuralink в наши головы, или внешний костюм Железного Человека и т.д. Это примеры вышеупомянутых объединяющих технологий в целом и людей. И мы можем обобщить идею до возможностей.

source

Фактически, это было хорошо для человечества в XXI веке. Смартфоны помогают слепым или слабовидящим людям ориентироваться на последних нескольких шагах, обнаруживая двери или предоставляя живые заголовки для глухих людей и так далее. (Apple представляет инновационные средства доступности — Apple) Хотя технологии продвинулись далеко в своем пути, им всё еще нужно улучшаться, но они обладают потенциалом. (Обсудим: как технология может усилить возможности людей с ограниченными возможностями? — The Valuable 500)

source

Есть три условия, которым должно соответствовать это объединение, чтобы оно было гармоничным:

  1. Каждая часть имеет свою причинно-следственную ответственность (или ответственности), при этом они должны быть хорошо связаны и образовывать чёткую систему
  2. Все системы работают точно так, как думает разум
  3. Если внешние системы (не все, но по крайней мере одна) отсутствуют, общие поведенческие возможности должны снижаться

До сих пор мы использовали технологии для повышения нашей производительности, что работало весьма хорошо, если мы будем честны сами с собой. Согласно другому философу, Джону Данахеру, существует явное, но исчезающее отличие между “внешними” и “внутренними” формами объединения человека и технологии в целях улучшения. Он считает, что если технологии могут улучшить психическое здоровье или поведение людей в новых средах, они идут на пользу развитию человека.

Если [гипотеза о расширенном разуме] верна, то мы всегда усиливаем человеческий разум с помощью технологий.

Джон Данахер – Почему внутреннее нравственное усовершенствование может быть политически лучше, чем внешнее нравственное усовершенствование.

Таким образом, мы также можем применить ту же аналогию к искусственному интеллекту для тех инструментов ИИ (например, ChatGPT и т.д.), которыми мы, люди, можем непосредственно воспользоваться. Да, мы не можем просто применить это ко всем инструментам ИИ. Почему? Потому что некоторые из них находятся под нашим контролем, под контролем я имею в виду, что мы можем инициировать их действие, например, задавая вопросы AI-боту в чате, просим Алексу/Сири о чем-либо и так далее. С другой стороны, некоторые из них частично находятся под нашим контролем, такие как алгоритмы Instagram/TikTok, системы рекомендаций Amazon и т.д. И некоторые полностью находятся вне нашего контроля.

По этому поводу Дэвид Чалмерс провел доклад о том, можно ли считать большие языковые модели, LLM, расширением сознания или нет. Он задался вопросом, могут ли инструменты ИИ, такие как ChatGPT, рассматриваться как инструменты для расширения нашего сознания, потому что, получив правильный запрос, чат-бот отвечает нам полезной информацией. К удивлению всех, он говорит, что технология подобная ChatGPT может быть слишком самостоятельной, чтобы быть расширением сознания.

Теория расширенного сознания применима только к определенному числу инструментов ИИ, и по мере того, как они становятся более автономными, их все меньше можно рассматривать как расширение сознания.

Он объяснил и обсудил критерии того, почему и когда мы считаем новую технологию расширением сознания. В конце он приходит к вопросу: “Расширение ли это когнитивности?”. Забавный факт, который он сделал, и мы можем задать тот же вопрос GPT-4:

Интересно, что есть статья, опубликованная под названием «Do Large Language Models Know What Humans Know?» [2209.01515] Do Large Language Models know what humans know? (arxiv.org). В ней была проведена задача о вымышленных убеждениях, и люди были правильны в 82,7% случаях, в то время как LLM был правильным только в 74,5% случаев, что весьма впечатляюще. Однако большая языковая модель не полностью описывала человеческое поведение. Это говорит о том, что только языковая статистика недостаточна для порождения ложных убеждений, не полностью учитывая человеческие особенности.

С другой стороны, все больше и больше полагаясь на ИИ, чтобы рекомендовать (или даже диктовать), что делать, некоторые утверждают, что это делает наши мозги менее сообразительными и менее творческими. Это не новая тема для обсуждения, об этом говорилось в статье на Google (Is GOOGLE Making Us Stupid?) в прошлом, а также на новых прорывах в ИИ (Will Generative AI Make Us Dumber?)

Одна из самых первых историй о встрече человека и искусственного интеллекта относится к концу 90-х годов, истории о Deep Blue и чемпионе мира по шахматам, Гарри Каспарове. Он выиграл и проиграл несколько партий с машиной IBM, Deep Blue. В рамках этой статьи нет возможности все подробно рассказать об этой истории, так что мы ограничимся одним из уроков, который Каспаров упомянул в своей книге Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins.

Он считает, что все, что мы, люди, можем делать, машины могут делать лучше. В противоположность большим умам и компьютерным ученым, таким как Алан Тьюринг, который считал шахматы исключительным проверочным тестом на интеллект. Он не против ИИ, на самом деле он верит в простое уравнение: человек плюс машина способны победить гениального человека в его области экспертизы. Вы также можете посмотреть видео Deep Thinking | Garry Kasparov | Talks at Google

Фактически это стало реальностью. В 2016 году проходила серия партий по игре Го между системой искусственного интеллекта AlphaGo от DeepMind и чемпионом мира по Го, Ли Седолем. Человек, Ли Седоль, выиграл только одну из пяти партий и проиграл остальные. Та же история и с шахматами. Следует учитывать, что Го гораздо сложнее шахмат из-за его огромной свободы движения, что приводит к множеству стратегий.

Позже сотрудник DeepMind, не имеющий никаких знаний об игре, и только с рекомендациями ИИ, смог победить чемпиона мира по Го. Если вас интересует тема сочетания человека и машины, посмотрите видео от HBR или прочитайте книгу «Человек + Машина: Переосмысление работы в эпоху ИИ»

Некоторые выступления и книги могут быть полезны для понимания этой статьи

Является ли ваш телефон частью вашего разума? | Дэвид Чалмерс | TEDxSydney

Дэвид Чалмерс: Расширяют ли большие языковые модели наш разум?

Благодарность Али Моэци (Ali Moezzi) за чтение черновиков данной статьи.