Исследователи МИТ представляют новую процедуру декодирования языковой модели на основе игровой теории без необходимости обучения.

Исследователи МИТ предлагают новую процедуру декодирования языковых моделей на основе игровой теории без обязательного обучения.

Несколько задач, требующих создания или проверки фактических утверждений, таких как ответы на вопросы, проверка фактов и даже генерация безусловного текста, относительно успешно решаются современными моделями языка (LM). Однако появляющиеся доказательства свидетельствуют о том, что с увеличением размера модели LMs становятся более склонными к производству ошибочных, но часто повторяющихся комментариев. Они далеко не являются полностью надежными. Тот факт, что у LMs есть несколько возможностей для решения задачи генерации фактов, дополнительно осложняет вопросы. 

Их можно использовать как генеративно (путем задания наиболее вероятного ответа на вопрос), так и дискриминативно (представлением (пары вопрос-ответ и вопросом о том, является ли ответ приемлемым), но эти два метода иногда дают разные результаты. Генеративные методы могут потерпеть неудачу, когда вероятностная масса распределена по нескольким противоречивым ответам, тогда как дискриминативные методы могут потерпеть неудачу из-за некорректной калибровки или тонкой зависимости от вопроса. Каким образом они могут извлекать наилучшую оценку модели LM относительно истины из этих хаотичных и часто противоречивых сигналов? КОНСЕНСУС-ИГРА, сигнальная игра, используется в данном исследовании учеными из MIT для предложения метода смешения генеративных и дискриминативных процессов декодирования LMs. 

ДИСКРИМИНАТОР должен передать абстрактное значение “верно” или “неверно” ГЕНЕРАТОРУ на более высоком уровне. Однако он может сделать это только с помощью ограниченного числа потенциальных фраз на естественном языке. Вероятно, сочетанная стратегия, когда ГЕНЕРАТОР и ДИСКРИМИНАТОР согласны в отношении присвоения значения правильности фразам, будет успешным подходом для этой игры. Они могут изучить такой подход, чтобы найти кандидатов, с которыми все согласны. Для этого нужно решить многошаговую игру с сложным пространством действий (со значением-строкой). Алгоритмы обучения без сожалений недавно стали популярным методом для расчета выигрышных тактик в играх, таких как покер, стратего и дипломатия. 

Здесь они демонстрируют, что их также можно использовать для задач, связанных с созданием свободного текста. Этот игровой метод декодирования модели языка известен как ЭКВИЛИБРИУМ-РАНЖИРОВАНИЕ. Когда он был применен в 6 бенчмарках для оценки качества ответов на вопросы (MMLU, ARC, RACE, HHH, TruthfulQA и GSM8K), ЭКВИЛИБРИУМ-РАНЖИРОВАНИЕ значительно превзошло генеративные, дискриминативные и смешанные методы декодирования, используемые в настоящее время. Общее значение их результатов заключается в том, что игровой метод может быть использован для формализации и повышения связности в моделях языка. Точность фактических задач также улучшается благодаря увеличению связности.