"스마트폰 한 장면이 곧 가상현실이 된다"... KAIST, 사진 몇 장으로 구현한 초정밀 3D 세계 ‘SHARE’
복잡한 3D 스캔 장비 없이, 스마트폰 사진 몇 장만으로 현실 공간을 그대로 재현하는 기술이 나왔다. KAIST 연구진이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3D 공간을 복원하는 혁신적 인공지능 기술 ‘SHARE(Shape-Ray Estimation)’ 를 개발했다. 이 연구는 국제 이미지 처리 학회 ICIP 2025에서 전 세계 643편 중 단 한 편에게만 주어지는 ‘최고 학생논문상(Best Student Paper Award)’을 수상하며 세계적 주목을 받았다.
“현실을 찍으면 곧바로 3D 공간이 된다”... 단 2~3장의 사진으로 완성
기존 3D 시뮬레이션은 라이다(LiDAR)나 고가의 3D 스캐너, 수천 장의 사진과 정밀한 카메라 위치 정보가 필수였다. 하지만 KAIST 전산학부 윤성의 교수팀은 단 2~3장의 일반 사진만으로 3차원 공간 구조와 카메라 방향을 동시에 추정해 완전한 3D 모델을 생성하는 데 성공했다.
이 기술은 별도의 학습이나 복잡한 보정 없이도 실제 환경을 즉시 복원할 수 있어, 건설·게임·미디어·로봇 시뮬레이션 등 전 산업 분야에 즉시 적용 가능한 범용 3D 솔루션으로 평가받는다.
“카메라 위치 없이도 완벽한 3D 복원”... 핵심은 ‘Shape-Ray 동시 추정’
SHARE의 핵심은 영상 속 사물의 형태(Shape)와 카메라의 시선(Ray)을 동시에 계산하는 독창적 구조다. 기존 기술은 카메라 위치를 알고 있어야만 공간을 복원할 수 있었지만, SHARE는 영상 자체에서 공간 정보를 학습해 카메라 방향과 구조를 함께 추론한다. 그 결과, 서로 다른 각도에서 찍힌 여러 장의 사진도 자동으로 정렬돼 형상 왜곡 없이 자연스럽고 생생한 3D 복원이 가능해졌다.
윤성의 교수는 “SHARE는 3D 복원의 진입 장벽을 혁신적으로 낮춘 기술로, 스마트폰 하나만으로도 메타버스·게임·건축 시각화 콘텐츠를 제작할 수 있다”며 “로봇이나 자율주행 분야에서도 저비용 시뮬레이션 구축 기술로 활용될 수 있다”고 설명했다.
이번 연구는 나영주 박사과정, 김태연 석사과정이 공동 제1저자로 참여했으며, 국제학회 ICIP 2025(IEEE International Conference on Image Processing)에서 발표됐다.
ICIP는 매년 전 세계 수백 편의 논문이 제출되는 이미지 처리 분야 최고 권위 학회 중 하나다. 올해 채택된 643편 중 단 1편(수상률 0.16%) 만이 ‘최고 학생논문상’을 수상했으며, KAIST의 연구가 한국 AI 비전 분야의 경쟁력을 세계에 각인시켰다.
논문명은 Pose-free 3D Gaussian Splatting via Shape-Ray Estimation이다.
이 기사 좋아요 1
<저작권자 ⓒ 특허뉴스 무단전재 및 재배포 금지>
![]()
댓글
KAIST,3D복원,SHARE,가상현실,AI비전,ICIP수상 관련기사목록
|
많이 본 기사
|