#FlashAttention
FlashAttention 태그가 붙은 모든 글
FlashAttention은 GPU 메모리 계층을 최적화하여 Attention 연산을 2-4배 가속하고 메모리 사용을 줄입니다.