논문: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 저자: Mildenhall et al. (UC Berkeley, Google) 링크: https://arxiv.org/abs/2003.08934


논문 핵심

NeRF(Neural Radiance Fields)는 여러 각도에서 촬영한 2D 사진을 입력으로 받아, 임의의 시점에서 본 장면을 포토리얼리스틱하게 렌더링하는 기술입니다.

작동 원리

"We represent a scene as a continuous 5D function that maps a 3D location and 2D viewing direction to a color and density."

신경망이 학습하는 것:

  • 입력: 3D 좌표 (x, y, z) + 시선 방향 (θ, φ)
  • 출력: 해당 지점의 색상 (RGB) + 밀도 (σ)

이를 Volume Rendering 기법으로 합성하면 어떤 각도에서든 장면을 렌더링할 수 있습니다.

혁신적인 점

  • 기존 3D 재구성 방법(MVS, SfM) 대비 월등한 시각 품질
  • 별도의 3D 메시나 포인트 클라우드 불필요
  • Positional Encoding으로 고주파 디테일까지 표현

실무 활용

부동산 가상 투어, e-commerce 제품 3D 뷰, VR/AR 콘텐츠 제작 등에서 NeRF 기반 기술이 빠르게 상용화되고 있습니다.