Если навалить большой языковой модели кучу всего в промпт (скажем, целую таблицу данных) и попросить сделать из этого какой-то вывод то, во-первых, она может начать галлюцинировать, а во-вторых, на действительно большую таблицу размера контекста не хватит. Авторы данной статьи пытаются декомпозировать resoning относительно таблицы, заставляя LLM работать в несколько приёмов. Сначала просят её сгенерировать промежуточные вопросы, потом написать для ответов на эти вопросы SQL, потом выполняют его и скармливают LLM для поиска окончательного ответа. Воспроизвести не удалось пока, примеры промптов в статье вроде как неполные.
#ml #llm #chain_of_though #prompt_engineering #llm_reasoning