코스피

2,416.86

  • 2.00
  • 0.08%
코스닥

685.42

  • 3.86
  • 0.57%
1/3

DGIST 임성훈 교수팀, 주변 환경 3D로 인식하는 자율주행 기술 개발

페이스북 노출 0

핀(구독)!


글자 크기 설정

번역-

G언어 선택

  • 한국어
  • 영어
  • 일본어
  • 중국어(간체)
  • 중국어(번체)
  • 베트남어


DGIST(총장 이건우) 전기전자컴퓨터공학과 임성훈 교수팀이 단안 카메라를 이용하여 3D 객체의 위치를 높은 정확도로 추정할 수 있는 딥러닝 기술을 개발했다고 19일 발표했다.

3D 객체 추정은 자율주행에 필요한 핵심기술로서, 기존의 자율주행 기술의 원가를 줄이고 차량을 경량화하는 등의 응용이 가능할 것으로 기대된다.

3D 객체 추정은 자율주행차가 주변 환경을 인식하고, 그에 따라 안전하게 움직일 수 있게 하는 중요한 기술이다. 이 기술을 통해 자율주행차는 주변의 사람, 도로 표지판, 다른 차량 등의 위치와 거리 및 크기를 정확하게 파악하여 안전한 주행이 가능하게 된다.

기존에 많이 사용되고 있는 단안 카메라를 이용한 객체 추정 방법은, 비용이 절감된다는 큰 장점이 있다. 그러나, 한 장의 이미지만으로 3D 정보를 얻어내는 것이 어렵다는 문제점을 가지고 있다. 특히, 객체와 카메라 간의 거리를 정확히 추정하는데 어려움이 있어 다소 성능이 떨어진다는 문제가 있었다.

임성훈 교수팀은 이러한 문제점을 해결하기 위해, 신경망이 객체의 깊이를 잘 구분할 수 있도록 돕는 새로운 메트릭 학습 기법을 제안했다. 이 기법은 각각의 객체의 깊이 정보를 이용하여 신경망이 형성하는 특징 공간을 정렬하게 함으로써, 깊이를 쉽게 구분하도록 도와준다.

제안된 메트릭 학습 기법은 거의 모든 기존의 단안 카메라 추정 신경망에 적용이 가능하다. 또한, 이미지 내에서 객체의 위치를 특정하는 과정에서 발생하는 오류를 보정할 수 있는 새로운 방법을 제안해 깊이 추정과 전체적인 3D객체 추정의 성능을 효과적으로 개선할 수 있었다.

DGIST 전기전자컴퓨터공학과 임성훈 교수는 “이번 연구를 통해 개발한 학습기법은 자율주행 시각인지 모델의 연산 시간을 유지하면서 성능을 크게 향상시키는 기술”이라며 “앞으로 이 기술을 더욱 발전시킨다면 자율주행 기술의 발전에 매우 긍정적인 영향을 미칠 것으로 기대된다”고 말했다.
오경묵 기자


- 염색되는 샴푸, 대나무수 화장품 뜬다

실시간 관련뉴스