论文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 作者:Wei 等(Google Brain) 链接:https://arxiv.org/abs/2201.11903
论文要点
Chain-of-Thought (CoT) 提示是一种通过显式生成中间推理步骤来提高LLM推理能力的技术。
核心理念
“一种简单的方法,可以在大型语言模型中实现复杂推理——链式思维提示。”
传统方法:“罗杰有5个网球,他又买了2罐。每罐3个。一共有多少个?” → “11” CoT:同样的问题 → “罗杰有5个。他又买了2罐 × 3个 = 6个。5 + 6 = 11。答案:11”
结果
PaLM 540B + CoT:
- GSM8K(数学):17.9% → 56.9%(提高3倍)
- SVAMP:79.0% → 86.7%
- 在常识推理中也有一致的改进
零次CoT
仅仅添加一句“Let's think step by step”也有效果。
实务启示
CoT是当前LLM应用中最基本且强大的技术。在复杂的任务指令、分析请求、决策辅助等场合中,仅仅添加“分步骤分析”就能大大提高结果质量。