-100% 사물 인식 성공은 필수 조건
-스트라드비젼의 도전
흔히 자율주행의 과정은 사람과 마찬가지로 '인식-판단-제어'로 구분된다. 여기서 가장 중요한 것으로 여겨지는 것이 바로 '인식'이다. 장애물의 형태와 움직임을 정확히 인식해야 알고리즘에 따른 판단과 자동차의 움직임으로 표현되는 '제어' 또한 오류가 없는 탓이다. 실제 테슬라 오토파일럿 사고의 대부분이 인식 착오에서 비롯됐다는 점은 자율주행에서 '인식'의 중요성을 새삼 깨닫게 하는 대목이다.
기본적으로 인식은 사람의 시각에 해당되는 만큼 카메라에 의존한다. 하지만 안개가 짙게 끼거나 폭우 등으로 시야 확보가 어려울 때는 라이다(Lidar) 및 레이더(Radar) 등의 전파를 활용해 보이지 않는 곳의 장애물을 파악하기 마련이다. 하지만 비싼 라이다 가격이 원가 절감의 걸림돌로 지적되면서 카메라로 모든 것을 인식하려는 노력이 끊임없이 시도되는 중이다.
카메라로 인식을 정확히 했다면 순간적으로 어떻게 움직일지 알고리즘에 따라 판단을 해야 한다. 이때 판단 로직은 사람이 프로그램으로 만들지만 인식된 사물의 움직임과 형태 등을 파악해 판단의 정확성을 높이는 것은 컴퓨터 스스로 해결하는 방식이 활용된다. 이른바 '딥 러닝'이다. 그리고 판단이 결정되면 소프트웨어 명령에 따라 정지, 가속, 조향, 차선 변경 등의 자율주행이 이루어진다.
그런데 사물을 인식하고 움직임을 판단하는 계산 과정을 수행할 때는 반드시 에너지가 필요하기 마련이다. 사람의 뇌가 전기에너지를 필요로 하듯 자율주행 소프트웨어 또한 에너지는 전기가 뒷받침된다. 이 말은 자율주행 소프트웨어도 에너지 사용이 최대한 억제돼야 한다는 의미여서 흔히 '효율(efficiency)'이라고 부른다. 마치 휘발유로 자동차가 움직일 때 1ℓ로 주행 가능한 거리를 최대한 늘리려는 것과 마찬가지다. 인식과 판단은 최대한 정확하되 사용 에너지는 최소로 한다는 뜻이다.
국내 자율주행 소프트웨어 스타트업 '스트라드비젼'도 예외는 아니다. 자율주행용 AI 기반 카메라 인식 소프트웨어를 개발하는 곳인데, 사물 인식은 카메라에 최대한 의존하되 사용 에너지는 줄이려는 기업이다. 최근 LG전자 운전자지원시스템(ADAS)의 전방 카메라에 자신들이 개발한 소프트웨어 'SVNet'을 탑재한 것도 같은 맥락이다. 카메라가 사물을 인식함과 동시에 ADAS 기능이 최적화되도록 프로그램을 설계했다. '객체 검출(Object Detection)'로 불리는 '사물 인식'과 '주행 가능 공간 인식(Free Space Detection)'이 대표적이다. 쉽게 보면 장애물을 인식했을 때 충돌 또는 추돌 회피에 필요한 공간을 확인하고 그쪽으로 주행을 유도한다. 물론 주차할 때도 충분히 활용 가능한 프로그램이다.
스트라드비젼이 AI 기반 객체 인식 소프트웨어 'SVNet'을 내세우며 진짜 말하고 싶은 것은 '자율주행 소프트웨어' 능력이다. 최소한의 연산과 전력 소비, 그리고 딥 러닝 기반 객체 인식 기능이라는 점을 내세운다. 게다가 다양한 플랫폼에 탑재 가능한 높은 호환성과 유연성도 주목해 달라고 말한다. 카메라 외에 라이다(Lidar) 및 레이더(Rarar)와 원활하게 작동해 강력한 서라운드 시각 구현도 가능하다고 강조한다.
현재 국내에서 자율주행 소프트웨어에 사업에 뛰어드는 곳은 적지 않다. 굳이 자율주행이 아니라도 오랜 시간 운전을 지원하는 기능(ADAS)이 진화해 왔다는 점에서 소프트웨어의 중요성도 날로 높아지고 있다. 실제 '인식-판단-제어' 과정에서 '인식'의 정확성이 점차 높아지고 있어서다. 그래서 이제는 '판단'의 정확성을 높이는데 집중하고 있다. '인식-판단'의 오류가 100% 없다고 확신하면 곧바로 자율주행 시대로 넘어갈 수 있기 때문이다. 바퀴 역사 5,000년 동안 단 한번도 사라지지 않았던 운전자는 과연 사라질 수 있을까? 스트라드비젼이 도전하는 것도 바로 그 대목이다.
박재용(자동차 칼럼니스트, 공학박사)