논문: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 저자: Wei et al. (Google Brain) 링크: https://arxiv.org/abs/2201.11903
논문 핵심
Chain-of-Thought(CoT) Prompting은 LLM이 중간 추론 단계를 명시적으로 생성하도록 유도하여 추론 능력을 향상시키는 기법입니다.
핵심 아이디어
"A simple method that enables complex reasoning in large language models — chain of thought prompting."
기존: "로저는 테니스공 5개를 가지고 있고, 2캔을 더 샀다. 캔당 3개다. 총 몇 개?" → "11" CoT: 같은 질문 → "로저는 5개를 가지고 있다. 2캔 × 3개 = 6개를 더 샀다. 5 + 6 = 11. 답: 11"
결과
PaLM 540B + CoT:
- GSM8K (수학): 17.9% → 56.9% (3배 향상)
- SVAMP: 79.0% → 86.7%
- 상식 추론에서도 일관된 개선
Zero-shot CoT
"Let's think step by step"이라는 한 문장만 추가해도 효과가 있습니다.
실무 시사점
CoT는 현재 LLM 활용의 가장 기본적이면서 강력한 기법입니다. 복잡한 업무 지시, 분석 요청, 의사결정 보조 등에서 "단계별로 분석해줘"를 추가하는 것만으로도 결과 품질이 크게 향상됩니다.