논문: Qwen2.5 Technical Report 저자: Qwen Team (Alibaba) 링크: https://arxiv.org/abs/2412.15115


논문 핵심

Qwen 2.5는 0.5B부터 72B까지 다양한 크기의 모델을 제공하며, 특히 한국어를 포함한 아시아 언어에서 강한 성능을 보입니다.

주요 특징

"Qwen2.5는 밀집 및 MoE 모델을 아우르는 종합적인 대형 언어 모델 군입니다."

  • 학습 데이터: 18T 토큰 (다국어, 코드, 수학 강화)
  • 모델 크기: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B
  • 특화 모델: Qwen2.5-Coder, Qwen2.5-Math

벤치마크 (72B)

벤치마크 Qwen 2.5 72B Llama 3.1 70B
MMLU 86.1 79.3
GSM8K 91.6 83.7
HumanEval 86.6 80.5

한국어 성능

Qwen 시리즈는 학습 데이터에 한국어가 포함되어 있어, 별도의 fine-tuning 없이도 한국어 태스크에서 양호한 성능을 보입니다.

실무 시사점

Qwen 2.5는 한국어 AI 서비스를 구축하려는 기업에 비용 효율적인 선택지입니다. Apache 2.0 라이선스로 상업적 사용이 자유롭고, 다양한 크기 옵션으로 용도에 맞는 모델을 선택할 수 있습니다.