«Лауреаты не принимаются на лапу в генеративном искусственном интеллекте»

«Награжденные не принимаются на лятучую лапу в генеративном искусственном интеллекте»

Лауреат премии Тьюринга Радж Редди особенно интересуется тем, как генеративное искусственное интеллекта может помочь снизить языковые и грамотностные различия. Кредит: Heidelberg Laureate Forum Foundation

Когда меньше года назад был выпущен ChatGPT, это, казалось, стало поворотным моментом для искусственного интеллекта (ИИ). Чатбот, созданный OpenAI, стал главной темой газетных заголовков благодаря своим сложным и похожим на разговоры человека текстовым диалогам, обеспеченным генеративным ИИ – алгоритмами, которые изучают закономерности данных, на основе которых обучаются, чтобы создавать выходные данные с подобными характеристиками. Технология ранее привлекала внимание своей способностью генерировать изображения с помощью систем, таких как DALL-E и Stable Diffusion, способных воспроизводить фотореалистичные изображения на основе текстовых описаний, предоставленных людьми.

Имеется много шумихи, связанной с генеративным ИИ. Некоторые эксперты даже делают предположения, что некоторые системы могут быть осознанными, как это сделал инженер, работающий над ИИ Google с именем LaMDA, в прошлом году. Другие, однако, утверждают, что их результаты менее впечатляющи, чем кажутся.

В сентябре на Форуме лауреатов Хайдельберга – сетевой конференции, где молодые исследователи в области математики и компьютерных наук целую неделю проводят взаимодействуя с лауреатами своих областей в Хайдельберге, Германия, генеративный ИИ был горячей темой. Некоторые из лауреатов, которые стали лауреатами премии Тьюринга ACM за вклад в компьютерные науки и часто называемые “Нобелевской премией в области компьютерных наук”, обсуждали потенциальные применения и перспективы для технологии.

Лауреаты на Форуме лауреатов Хайдельберга в этом году. Кредит: Heidelberg Laureate Forum Foundation

Генеративный ИИ теперь может использоваться для написания эссе и компьютерного кода, ускорения открытия лекарств, создания новых дизайнов и предоставления персонализированных рекомендаций по продуктам, среди прочего. Однако Радж Редди, лауреат премии Тьюринга и профессор компьютерных наук и робототехники в Карнеги-Меллоновском университете в Питтсбурге, особенно интересуется тем, как оно может помочь снизить различия в языке и грамотности в обществе. В Индии, например, его родной стране, есть 22 официальных языка, что означает, что люди из соседних сообществ часто не могут разговаривать между собой.

В то же время Редди описал, как экономическая активность увеличилась бы, если бы больше людей могли общаться друг с другом. Этому следует закон Меткалфа, впервые предложенный в прошлом году лауреатом премии Тьюринга ACM Бобом Меткалфом, который гласит, что стоимость сети пропорциональна квадрату числа ее пользователей. “Я думаю, что речь и язык в будущем будут являться основой прогресса человечества”, – говорит Редди.

Редди в восторге от того, как генеративный ИИ может быть использован для мгновенных систем перевода. Идея заключается в том, что ваш телефон автоматически переводит то, что вы говорите в режиме реального времени на язык человека, с которым вы хотите общаться, либо без проводная передача данных, либо непосредственно. Системы, такие как Google Translate, уже могут помочь в некоторой степени, но Редди считает, что генеративная технология ИИ значительно улучшит то, что будет возможно в ближайшие 15-20 лет. “Она все еще не совсем плавная и не работает для всех языков”, – говорит он. “Это работа, которую нам предстоит проделать”.

Генеративные системы искусственного интеллекта не всегда являются точными, что может вызывать опасения. ChatGPT и другие чатботы иногда генерируют ложную информацию, представляя ее как факты, часто описываемые как галлюцинации. Лесли Вайлиант, лауреат премии Тьюринга и профессор компьютерных наук и прикладной математики в Гарвардском университете, считает, что текущие генеративные системы искусственного интеллекта хорошо подходят для развлекательных целей или для приложений, в которых неправильное решение не приведет к серьезным последствиям. Однако он сомневается в использовании таких систем в приложениях, в которых необходимо доверять результату. “Использование ИИ, когда неправильное решение может убить кого-то, это намного сложнее”, – говорит он.

Генеративный искусственный интеллект производит вывод, изучая огромные объемы данных. Он делает это лучше, чем люди, потому что он превышает технологический предел в обработке информации. Однако есть другие аспекты интеллекта, которые он не учитывает. “Наши когнитивные способности состоят из разных компонентов: некоторой логики и некоторого обучения,” – говорит Вайлиант. “Генеративный ИИ делает только одну вещь, но делает его очень хорошо.”

Вайлиант считает, что генеративные системы искусственного интеллекта могут быть улучшены, дав им способность к рассуждению. Изученные знания имеют степень неопределенности, но текущие системы, такие как ChatGPT, не способны размышлять над тем, имеет ли смысл то, что они сгенерировали. “Традиционная логика очень отличается от машинного обучения,” – говорит Вайлиант. “Я считаю, что следующий шаг – сделать рассуждение центральным аспектом систем искусственного интеллекта и интегрировать его с обучением.”

Злоупотребление генеративными системами искусственного интеллекта вызывает также опасения. Редди озабочен неправомерным использованием дипфейков – изображений, аудио или видео, созданных с помощью ИИ, которые выглядят реальными, но на самом деле их создал ИИ. Например, это может быть представление политика, произнесшего что-то скандальное, чего он на самом деле не говорил. “Правительства пытаются разобраться, как бороться с плюсами и минусами технологии генеративного ИИ”, – говорит Редди.

В то же время, компьютерные ученые разрабатывают способы борьбы с подделками на основе ИИ. Многие из них связаны с использованием ИИ для обнаружения незначительных аномалий в синтезированных медиа, которые помогут идентифицировать их как дипфейки (например, что в ранних дипфейковых видео синтезированные изображения людей не моргали). “Теперь, помимо проверки фактов в текстовых материалах, необходимо уметь проверять факты в аудио- и видеоматериалах”, – говорит Редди. “Это возможно и будет все чаще делаться”.

Также существует опасность, что генеративный ИИ может представлять угрозу для общества, став сверхразумным и трудным в управлении для людей. Теория “экоритм” Вайлианта утверждает, что алгоритмы взаимодействуют с окружающей средой и учатся от нее, процесс, который может происходить как в вычислительных системах, так и в биологических, например, достигая до мозга. Это предполагает, что система искусственного интеллекта может начать вести себя непредсказуемо в определенных средах, что может привести к потенциально вредным действиям.

Однако, Вайлиант не беспокоится о таком сценарии, который может случиться с генеративным ИИ, так как он считает, что мы достаточно хорошо понимаем интеллект, который мы вкладываем в машины. “Если вы не вводите в них характеристики, противоречащие нашим интересам, нет причин, по которым они будут развивать характеристики, противоречащие нашим интересам”, – говорит он. “Так что я не вижу, что [генеративный ИИ выйдет из-под контроля] – это большая проблема в обозримом будущем”.

Сандрин Серстемон – фрилансер писатель по научным темам из Лондона, Великобритания.