Blog
Insights on AI adoption and utilization
DeiT는 대규모 데이터셋 없이도 Vision Transformer를 효과적으로 학습시킬 수 있는 방법을 제시했습니다.
OpenAI가 GPT-3를 공개했습니다. 역대 최대 규모의 언어 모델이 보여준 놀라운 능력을 분석합니다.
AI 학습과 추론을 위한 하드웨어 경쟁이 치열해지고 있습니다.
1,750억 파라미터의 GPT-3가 Few-shot Learning으로 다양한 NLP 태스크를 수행하는 능력을 보여준 기념비적 논문입니다.
ELECTRA는 BERT보다 적은 연산으로 더 나은 성능을 달성하는 사전학습 방법을 제안했습니다.
BERT, XLNet, T5 등 Transformer 기반 NLP 모델들의 발전 흐름을 정리합니다.
OpenAI의 GPT 시리즈가 어떻게 진화해왔는지, GPT-3의 등장이 왜 중요한지를 분석합니다.
NeRF는 소수의 2D 이미지만으로 포토리얼리스틱한 3D 장면을 생성하는 혁신적 기술입니다.
팬데믹 시대에 AI가 진단, 신약 개발, 확산 예측 등에서 어떻게 활용되고 있는지 살펴봅니다.
BERT 파인튜닝이 왜 불안정한지, 어떻게 안정적으로 학습할 수 있는지를 분석한 논문입니다.
2020년 AI 산업의 핵심 트렌드와 Transformer 모델의 부상을 분석합니다.
OpenAI가 발표한 Scaling Law 논문은 모델 크기, 데이터, 연산량과 성능의 관계를 명확히 규명했습니다.