Основы понимания Графы знаний как подпорка для интерпретируемого цепочечного мыслительного рассуждения с использованием LLMs

Графы знаний основы для интерпретируемого цепочечного мыслительного рассуждения с применением LLMs

Большие языковые модели (LLM), обученные на огромных объемах текстовых данных, вызвали революцию в области искусственного интеллекта. Их способность генерировать чрезвычайно красноречивую, последовательную речь просто по короткому текстовому запросу открыла новые горизонты в таких областях, как творческое письмо и разговорные помощники.

Однако владение только лингвистическими выражениями еще не означает настоящий интеллект. LLM по-прежнему не обладает семантическим пониманием концепций и логическими способностями, необходимыми для ситуационного понимания и сложного решения проблем. Их знания ограничиваются поверхностными шаблонами, выявленными в процессе обучения по корпусам текстов, а не погруженными фактами о реальном мире.

По мере того как мы задаем моделям все более многогранные и многогранные вопросы, их ограничения становятся все более заметными. Они не могут логически синтезировать детали из разных документов или делать выводы, охватывающие несколько шагов, чтобы получить ответы.

Как только запросы начинают отходить от распределения обучающих данных, начинают появляться галлюцинации или противоречивые ответы.

Для преодоления этих проблем, сообщество искусственного интеллекта сместило свое внимание на фреймворки, основанные на выводе с добавлением информации (RAG). Эти системы ставят своей целью совместное использование языковой мощи языковых моделей и быстрого, целевого доступа к внешним источникам знаний, которые могут заземлить их в фактическом контексте, а не в галлюцинациях.

Большинство существующих архитектур извлекают дополнительную информацию, используя семантическую сходство по векторным представлениям отрывков из текстовых корпусов. Однако здесь возникают проблемы с нечеткой связью между извлеченными отрывками и фактическим контекстом запроса. Ключевые детали теряются, когда сводят отрывки к единичным непрозрачным векторам, лишенным контекстуальной связи. Вывод коэрентных повествований, связывающих различные факты логическим рассуждением, остается трудоемким.

Это подчеркивает необходимость включения структурированных источников знаний, в которых заключены объекты реального мира и взаимоотношения между ними. Графы знаний удовлетворяют этим требованиям — они кодируют факты как взаимосвязанные узлы и ребра, по которым можно пройти, следуя понятным путям. Однако эффективное заземление свободного рассуждения языковых моделей на структурированных графах представляет собой проблему взаимодействия. Творческое объединение нейро-подходов с символьными представлениями остается открытой задачей.