논문: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 저자: Mildenhall et al. (UC Berkeley, Google) 링크: https://arxiv.org/abs/2003.08934
논문 핵심
NeRF(Neural Radiance Fields)는 여러 각도에서 촬영한 2D 사진을 입력으로 받아, 임의의 시점에서 본 장면을 포토리얼리스틱하게 렌더링하는 기술입니다.
작동 원리
"We represent a scene as a continuous 5D function that maps a 3D location and 2D viewing direction to a color and density."
신경망이 학습하는 것:
- 입력: 3D 좌표 (x, y, z) + 시선 방향 (θ, φ)
- 출력: 해당 지점의 색상 (RGB) + 밀도 (σ)
이를 Volume Rendering 기법으로 합성하면 어떤 각도에서든 장면을 렌더링할 수 있습니다.
혁신적인 점
- 기존 3D 재구성 방법(MVS, SfM) 대비 월등한 시각 품질
- 별도의 3D 메시나 포인트 클라우드 불필요
- Positional Encoding으로 고주파 디테일까지 표현
실무 활용
부동산 가상 투어, e-commerce 제품 3D 뷰, VR/AR 콘텐츠 제작 등에서 NeRF 기반 기술이 빠르게 상용화되고 있습니다.