論文: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 著者: Wei et al. (Google Brain) リンク: https://arxiv.org/abs/2201.11903
論文の要点
Chain-of-Thought(CoT) プロンプティングは、LLMが中間推論ステップを明示的に生成するように誘導し、推論能力を向上させる技法です。
核心的なアイデア
"大規模言語モデルで複雑な推論を可能にする簡単な方法 — チェーン・オブ・ソート・プロンプティング。"
従来: "ロジャーはテニスボールを5個持っていて、さらに2缶を買った。1缶につき3個。全部で何個?" → "11" CoT: 同じ質問 → "ロジャーは5個持っている。2缶 × 3個 = 6個をさらに買った。5 + 6 = 11。答え: 11"
結果
PaLM 540B + CoT:
- GSM8K (数学): 17.9% → 56.9% (3倍向上)
- SVAMP: 79.0% → 86.7%
- 常識推論でも一貫した改善
Zero-shot CoT
"Let's think step by step"という一文を追加するだけで効果があります。
実務への示唆
CoTは現在のLLM活用の最も基本的で強力な技法です。複雑な業務指示、分析要求、意思決定支援などで「段階的に分析して」を追加するだけで、結果の品質が大幅に向上します。