대규모 코히어런트 4D 이미지 센서

연구진이 60만 개 이상의 광학 소자를 단일 칩에 집적하여 기존보다 5배 확장된 352 × 176 픽셀 규모의 FMCW LiDAR 초점면 배열(FPA) 센서를 개발했습니다. 이 4D 센서는 4~65m 범위 내 물체의 거리와 속도를 3~15fps의 프레임 속도로 정밀하게 측정하며, 소형·저비용의 고성능 3D 매핑 기술 상용화 가능성을 입증했습니다.

AI 요약

현대 로봇 공학 및 자율 주행 분야에서 동적인 환경을 정밀하게 3D 매핑하는 기술은 필수적이지만, 기존 CMOS 이미지 센서와 같은 확장성과 성능을 동시에 갖춘 솔루션은 드물었습니다. 본 연구는 실리콘 포토닉스 기술을 활용하여 60만 개 이상의 광학 부품과 관련 전자 회로를 칩 상에 통합한 대규모 FMCW(주파수 변조 연속파) LiDAR FPA 센서를 선보였습니다. 이 센서는 352 × 176 픽셀 구성을 통해 기존 최고 수준의 데모 모델보다 픽셀 수를 5배 늘렸으며, 4차원 데이터인 '가시선 속도'를 직접 측정할 수 있는 것이 특징입니다. 실험 결과, 4m에서 최대 65m 거리에 있는 물체들의 점구름(Point Cloud) 데이터를 3~15fps의 속도로 획득하는 데 성공했습니다. 이는 FMCW LiDAR 기술이 소형화된 저비용 4D 카메라로 발전하여 자율주행 및 가상현실(VR) 등 다양한 분야에 보급될 수 있는 획기적인 전환점을 마련한 것으로 평가됩니다.

핵심 인사이트

  • 대규모 집적화: 352 × 176 픽셀(약 62,000개 픽셀) 규모의 2D FMCW LiDAR FPA를 구현했으며, 단일 칩 내에 60만 개 이상의 광학 소자를 통합했습니다.
  • 성능 확장: 이전까지 발표된 기술적 시연(Previous demonstrations) 대비 픽셀 수를 5배 증가시키며 상용화에 근접한 확장성을 보여주었습니다.
  • 4D 데이터 측정: 3차원 공간 정보뿐만 아니라 물체의 **방향성 속도(Radial Velocity)**를 4번째 차원으로 직접 측정하여 동적 환경 분석 능력을 강화했습니다.
  • 광범위한 측정 거리: 최소 4m에서 최대 65m 거리 내의 객체들을 정밀한 점구름 데이터로 시각화하는 데 성공했습니다.

주요 디테일

  • 픽셀 아키텍처: 송신(Outbound) 및 수신(Inbound) 광 경로를 단일 픽셀 내에 결합한 모노스태틱(Monostatic) 구성을 채택하여 구조를 단순화했습니다.
  • 광 스위칭 기술: 평면 내 **열광학 스위치(Thermo-optic switches)**와 통합 전자 회로를 사용하여 픽셀 그룹별로 주파수 변조 광원을 순차적으로 유도합니다.
  • 디지털 인터페이스: 통합된 **직렬 디지털 인터페이스(Serial digital interface)**가 광학 스위칭과 데이터 읽기(Readout) 과정을 동기화하여 제어합니다.
  • 프레임 속도: 픽셀당 통합 시간을 조정하여 초당 **3~15프레임(fps)**의 속도로 실시간 데이터 수집이 가능합니다.
  • 기술 방식: 기존의 ToF(Time-of-Flight) 방식보다 정밀도와 속도 측정 면에서 유리한 FMCW(주파수 변조 연속파) 방식을 기반으로 합니다.

향후 전망

  • 소형/저비용 카메라 보급: 칩 규모의 통합 기술을 통해 부피가 크고 비싼 기존 LiDAR를 대체하는 초소형·저비용 고성능 4D 카메라 제작이 가능해질 전망입니다.
  • 산업적 응용: 자율주행차의 시각 센서뿐만 아니라 건설 현장의 3D 스캐닝, 안면 인식, 증강 현실(AR) 기기 등 소비자 가전 분야로의 확산이 예상됩니다.
Share

댓글

이 소식에 대한 의견을 자유롭게 남겨주세요.

댓글 (0)

불러오는 중...

대규모 코히어런트 4D 이미지 센서 | paper!