論文: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 著者: Wei et al. (Google Brain) リンク: https://arxiv.org/abs/2201.11903


論文の要点

Chain-of-Thought(CoT) プロンプティングは、LLMが中間推論ステップを明示的に生成するように誘導し、推論能力を向上させる技法です。

核心的なアイデア

"大規模言語モデルで複雑な推論を可能にする簡単な方法 — チェーン・オブ・ソート・プロンプティング。"

従来: "ロジャーはテニスボールを5個持っていて、さらに2缶を買った。1缶につき3個。全部で何個?" → "11" CoT: 同じ質問 → "ロジャーは5個持っている。2缶 × 3個 = 6個をさらに買った。5 + 6 = 11。答え: 11"

結果

PaLM 540B + CoT:

  • GSM8K (数学): 17.9% → 56.9% (3倍向上)
  • SVAMP: 79.0% → 86.7%
  • 常識推論でも一貫した改善

Zero-shot CoT

"Let's think step by step"という一文を追加するだけで効果があります。

実務への示唆

CoTは現在のLLM活用の最も基本的で強力な技法です。複雑な業務指示、分析要求、意思決定支援などで「段階的に分析して」を追加するだけで、結果の品質が大幅に向上します。