← Timeline
Avatar
Tigra
Large Language Models are Versatile Decomposers: Decompose Evidence and Questions for Table-based Reasoning

Если навалить большой языковой модели кучу всего в промпт (скажем, целую таблицу данных) и попросить сделать из этого какой-то вывод то, во-первых, она может начать галлюцинировать, а во-вторых, на действительно большую таблицу размера контекста не хватит. Авторы данной статьи пытаются декомпозировать resoning относительно таблицы, заставляя LLM работать в несколько приёмов. Сначала просят её сгенерировать промежуточные вопросы, потом написать для ответов на эти вопросы SQL, потом выполняют его и скармливают LLM для поиска окончательного ответа. Воспроизвести не удалось пока, примеры промптов в статье вроде как неполные.
#ml #llm #chain_of_though #prompt_engineering #llm_reasoning

https://arxiv.org/abs/2301.13808

Large Language Models are Versatile Decomposers: Decompose Evidence and Que…
Table-based reasoning has shown remarkable progress in combining deep models with discrete reasoning, which requires rea…
arXiv.orgARXIV.ORG
👍1
To react or comment  View in Web Client