엔진과 방향 제어를 통한 힘과 방향 등 벡터적 요소의 정교한 컨트롤, 구조 설계를 통해 공간을 손실 없이 통과하는 설계, 속도와 안전을 담보하는 새로운 소재의 개발과 적용… 원래 자동차라는 전통적 공학 분야의 모든 것을 아우르는 예술이었습니다. 여기에 기존의 운전자가 하던 역할을 대신하는 개념인 ‘자율주행’이 접목되면서, 자동차는 IT와 AI를 비롯해 모든 것을 품은 ‘현대 기술의 결정체’로 진화하게 되었습니다.
기계와 제어, 소재와 역학 분야는 이제 안정화되어 단단한 틀이 잡혀 있습니다. 그러나 역사가 비교적 짧은 자율 주행 관련 분야는 변화에 따라 계속 발전하고 있습니다. 특히 라이다, 카메라 등 자동차의 오감(五感)이 되어주는 센서와 사물 인식 등 부분은 그 변화만큼 경쟁도 치열합니다.
자율주행을 받드는 세 가지 센서
여러 종류의 기술이 개발되어 있지만 레이더, 라이다, 카메라 이 세 가지 센서가 업체와 기술자에게 가장 많은 이목을 끌고 있는데요. 이 세 가지 센서의 특징은 무엇일까요? 가장 먼저 알아볼 것은 레이더(RADAR, Radio Detection And Ranging)입니다.
레이더는 세 가지 중 자동차에 가장 오래 사용된 센서입니다. 레이더는 물체의 거리와 속도를 측정합니다. 작동 거리에 따라 0.2m~30m는 단거리(SRR), 30m~80m는 중거리(MRR), 80m~200m 이상을 장거리(LRR)로 분류합니다. 다른 센서보다 가볍고 단가도 저렴한 데다 외부 환경 영향 없이 물체의 거리와 속도를 정확히 측정해 내지만 표지판이나 신호등 등 교통 제어 신호를 감지하는 데는 사용할 수 없어 주로 자동차의 지능형 정속주행 기능인 ACC와 비상자동제동장치 AEBS 등에 활용하고 있습니다.
카메라는 우리가 보통 알고 있는 바로 그, 카메라입니다. 카메라로 수집한 영상 정보를 분석해 주변 상황을 파악하는 건데요. 이전에는 화질이 정교한 카메라를 활용할 경우, 용량과 처리 속도는 물론 비싼 단가라는 문제가 있었지만, 최근에는 해상도가 가격 대비 크게 향상되고, 이를 처리하는 프로세서 비용도 저렴해져서 다양한 작업을 수행할 수 있게 되었습니다. 앞서 언급한 세 가지 센서 중 질감과 색상, 대비 등 정보를 얻어낼 수 있는 유일한 센서로, 현재 자율주행 업계 선두 주자인 테슬라는 카메라만 활용한 ‘퓨어비전’으로 자율주행 기술을 구현하겠다는 포부를 펼치고 있습니다. 하지만 카메라는 비나 눈, 먼지와 같은 기상 요소와 태양광 유무 등 외부 환경에 취약점이 있으니 이를 어떻게 극복하느냐가 주안점으로 남아있어요.
라이다(LiDAR, Light Detection And Ranging)는 빛의 파장이 물체에 부딪쳐 돌아오는 시간을 계산해 물체까지 거리를 측정하는 센서인데요. 그 정확도가 다른 센서에 비해 높아 라이다는 앞으로 자율주행을 리드할 차세대 센서로 주목받고 있습니다. 라이다는 레이저의 직진성을 활용해 먼 거리의 물체를 정확하고 빠르게 감지해 내는 것이 가장 큰 특징입니다.
라이다는 크게 고정형과 회전형으로 나뉘는데요. 고정형은 구성이 단순하지만 시야각에 제한이 있어 물체를 탐지하는데 한계가 있습니다. 따라서 자율주행에는 회전형이 유리해요. 회전형 라이다는 모터를 활용해 360도 회전이 가능한 센서인데요. 레이저 빔의 수에 따라 4채널부터 128채널까지 있는데요. 채널 수가 높을수록 해상도가 올라가지만 그 가격 역시 덩달어 비싸지는 문제가 있습니다.
측정의 라이다와 추론의 카메라
자율주행 업계를 선도하고 있는 테슬라는 카메라를 중심으로 한 ‘퓨어비전’ 기술을 사용하며, 레이더와 라이다 방식을 배제하고 있습니다. 그러나 업계에서는 라이다 방식에 주목하고 있습니다. 그 이유는 라이다 방식과 카메라 방식을 가장 크게 구분 짓는 키워드가 ‘측정’과 ‘추론’이기 때문입니다.
라이다 방식은 레이저를 공간에 방출해 반사되는 빛을 센서로 받아내어 주변 환경을 인식합니다. 레이저 스캐너가 빠르게 레이저를 넓은 영역에 방출해 내면 그 빛은 수십억 개의 개별 지점에서 반사되어 센서로 돌아오고, 그것을 측정한 라이다 시스템은 각각의 빛을 3차원 좌표로 환산해 내는데요. 이걸 ‘포인트 클라우드’라 합니다.
수십억 개의 포인트 클라우드는 인공지능 모델 PointNet과 이를 개선한 PointNet++, Dynamic Graph CNN 등을 통해 중복 데이터를 제거합니다. 그렇게 노이즈를 걸러내고 정제한 데이터를 다운 샘플링해 크기를 줄여 업계 표준 3차원 데이터인 LAS로 변환합니다.
2022년 7월 ‘Robotics and Automation’에 발표된 데이빗 에드워드 기구문 ‘자율주행의 빅 데이터 문제 해결을 위한 길’에 따르면, 자율주행 자동차가 한 시간 운행하는데 거의 테라바이트급의 데이터를 생성하고 처리한다 합니다.
이 데이터를 처리하면 주변 지형지물의 3D 지도로 변환되는데요. 라이다 방식은 측정값을 바탕으로 한 3D 지도를 통해 자율주행차에게 ‘3m 높이의 트럭이 20m 후방에서 60km/h로 달려오고 있다’는 방식의 신뢰도 높은 데이터를 제공할 수 있게 됩니다.
카메라 방식은 자율 주행 시스템이 수백만 건의 이미지 데이터를 인공신경망으로 학습하도록 합니다. 이는 사람이 운전을 배우는 방식과 비슷하죠. 마치 운전을 못 하던 사람이 학원에서 처음 교육을 받고 면허를 따고, 운전에 익숙해지는 것과 같은 원리입니다. 또한 기존의 GPS 지도를 그대로 사용할 수 있습니다.
라이다가 카메라에 비해 대중적일 수밖에 없는 이유?
자율주행 차량 1대를 생산하는 비용만 생각하면 라이다 센서보다 가성비가 좋은 카메라를 사용하는 것이 논리적입니다. 경우에 따라 수천만 원 이상 하는 라이다 센서와 달리, 백만 원 정도면 장착할 수 있는 카메라는 비용적으로 훨씬 유리합니다. 또 라이다 방식은 전 세계 도로의 HD 지도가 필요하지만, 카메라 방식은 그렇지 않습니다. 그러나 카메라 방식에는 큰 문제가 있습니다. 추론을 통한 학습은 돈을 많이 투자한다고 해결될 영역이 아니라는 점입니다.
테슬라의 오토파일럿 설계자인 안드레이 카파시에 따르면, 테슬라는 60억 개가 넘는 주행 데이터를 학습시켰습니다. 지금도 전 세계에 있는 100만 대 이상의 테슬라 차량이 정보를 수집하고 있으며, 이 데이터를 5,700개 이상의 GPU로 구성된 슈퍼컴퓨터로 학습시켜 자율주행 시스템을 계속 업데이트하고 있습니다. 이렇게 방대한 데이터를 처리하는 것은 테슬라 같은 특수한 상황의 기업만 가능하기 때문에, 대부분의 기업은 라이다 방식에 투자하는 것이 더 유리합니다.
이제 테슬라는 학습 데이터에 혼란만 가중하는 레이더 센서도 떼어버리고, ‘Pseudo LiDAR’라는 기술을 통해 라이다 센서까지 대체해 카메라 센서만으로 자율주행을 발전시키겠다고 공언하고 있습니다. 하지만 다른 업체는 ADAS(Advanced Driver Assistance System)과 함께 카메라와 레이더, 라이다 기술을 모두 포함하는 통합 센서 시스템을 발전시켜 나가는 방향으로 자율 주행 기술을 발전시켜 나가리라 예상됩니다.
패스트캠퍼스 역시 이러한 트렌드를 대비하기 위해 국내에서 최초이자 유일한 ‘자율주행 초격차’ 패키지를 준비했는데요. 이를 통해 수강생은 자율주행에 필요한 6가지 기술을 공부하고 두 가지 파이널 프로젝트를 통해 ADAS & DMS 시스템을 마스터할 수 있도록 준비했습니다. 자율주행의 기본을 다지고자 하는 수강생들은 패스트캠퍼스의 자율주행 초격차 패키지에 많은 관심 가져주세요!