논문: Qwen2.5 Technical Report 저자: Qwen Team (Alibaba) 링크: https://arxiv.org/abs/2412.15115
논문 핵심
Qwen 2.5는 0.5B부터 72B까지 다양한 크기의 모델을 제공하며, 특히 한국어를 포함한 아시아 언어에서 강한 성능을 보입니다.
주요 특징
"Qwen2.5 is a comprehensive family of large language models covering dense and MoE models."
- 학습 데이터: 18T 토큰 (다국어, 코드, 수학 강화)
- 모델 크기: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B
- 특화 모델: Qwen2.5-Coder, Qwen2.5-Math
벤치마크 (72B)
| 벤치마크 | Qwen 2.5 72B | Llama 3.1 70B |
|---|---|---|
| MMLU | 86.1 | 79.3 |
| GSM8K | 91.6 | 83.7 |
| HumanEval | 86.6 | 80.5 |
한국어 성능
Qwen 시리즈는 학습 데이터에 한국어가 포함되어 있어, 별도의 fine-tuning 없이도 한국어 태스크에서 양호한 성능을 보입니다.
실무 시사점
Qwen 2.5는 한국어 AI 서비스를 구축하려는 기업에 비용 효율적인 선택지입니다. Apache 2.0 라이선스로 상업적 사용이 자유롭고, 다양한 크기 옵션으로 용도에 맞는 모델을 선택할 수 있습니다.