논문: Finetuned Language Models Are Zero-Shot Learners 저자: Wei et al. (Google Research) 링크: https://arxiv.org/abs/2109.01652
논문 핵심
FLAN(Finetuned LAnguage Net)은 60개 이상의 NLP 태스크를 자연어 지시문 형태로 변환하여 fine-tuning합니다. 이를 통해 학습 시 보지 못한 새로운 태스크에서도 뛰어난 zero-shot 성능을 보입니다.
Instruction Tuning
"We show that instruction tuning substantially improves zero-shot performance on unseen tasks."
기존 방식: 각 태스크별 별도 fine-tuning FLAN 방식: 모든 태스크를 자연어 지시문으로 통합
예시:
- "다음 문장이 긍정인지 부정인지 분류해줘: ..."
- "다음 문장을 한국어로 번역해줘: ..."
- "다음 글을 3줄로 요약해줘: ..."
결과
137B 파라미터 모델 기준:
- 25개 미학습 태스크 중 20개에서 GPT-3 175B zero-shot을 능가
- 일부 태스크에서 GPT-3 few-shot과도 비등
실무 시사점
Instruction Tuning은 이후 ChatGPT, Claude 등 대화형 AI의 핵심 학습 기법이 됩니다. "AI가 사용자의 자연어 지시를 따르도록 만드는" 기본 원리가 이 논문에서 시작되었습니다.