테크

자율주행 코 앞인데 때아닌 시야 논쟁

ㅎㅎㅅㄹ 2024. 10. 25. 08:57

사람은 눈으로만 운전가능한데 자율주행차라고 못 하나?


최근 테슬라가 자율 주행이 가능한 '사이버 캡'을 26년부터 운행하겠다 발표하면서 글로벌 경쟁사 간에 자율주행 차량에 대한 경쟁 열기가 더욱 달아오르는 듯합니다. 그 덕분에 자율주행차량은 일반 대중들에게도 관심사가 되고 있습니다. 그런데 자율 주행 차량에 대한 관심이 쏟아지면 쏟아질수록 테슬라의 자율주행에 방식에 관련하여 우려의 목소리가 커지고 있습니다

테슬라는 다른 자율주행차량 업체들과 달리 비전카메라와 슈퍼 컴퓨터에 의존하는 방식으로 자율 주행을 구현하고 있습니다. 레이다를 사용하기도 했지만 이 지난 2022년 이후로는 비전과 자체 개발한 알고리즘만으로도 충분히 자율주행이 가능하다고 주장하고 있습니다. 인간이 눈으로만 모든 정보를 인식하면서 운전이 가능한 것과 마찬가지로 테슬라 역시도 카메라를 통해 운전 중에 발생되는 모든 정보를 파악하고 분석할 수 있다고 말합니다.
 

 

현재 일론 머스크가 말한 것과 같이 테슬라는 비전과 슈퍼 컴퓨터 칩만으로 자율주행이 가능하다는 것을 보여주고 있습니다. 하지만 구현이 가능하다고 해서 완벽하다는 의미는 아닙니다. 테슬라 전기차들이 판매되면 판매될수록, FSD 사용자가 늘어나면 늘어날수록 비전만으로 구현된 테슬라 자율 주행의 취약점은 점점 드러나는 형국입니다. 

사람도 눈 만으로는 부족

 

2023년 미국에서 테슬라 모델 Y 한대가 대로변에 세워진 차량옆 보행자를 미처 파악하지 못하고 충돌해 사망하는 사고가 있었습니다. 또한 올해는 도로에 쓰러져있는 차량을 인식하지 못해 충돌하는 사고도 발생했습니다. 원인 분석 결과 테슬라의 자율 주행 데이터상에 넘어진 형태의 차량에 대한 데이터가 없었기 때문이라고 합니다. 물론 이 부분은 추가적인 데이터 업데이트 후에는 재발되지 않을 것이라고도 합니다. 하지만 문제는 모든 경우의 수를 담을 수 없다는 데 있습니다. 아무리 자율주행차가 인간의 운전 경험치의 100배 시간을 갈아 넣었다 하더라도 완벽할 수 없다는 의미입니다.
 

현대 아이오닉5를 사용한 웨이모 로보택시는 다양한 센서를 사용한다.


또한 사람이 육안으로 상황을 인식하고 운전을 하더라도 불안한 부분은 여전합니다. 운전자의 운전습관에 따라 운전 시 위험도는 차이가 있겠지만, 어찌 되었던 가장 뛰어난 두뇌와 시야를 가진 인간도 두 가지만으로는 운전 시 취약점이 있습니다. 따라서 인간의 시야보다 성능이 떨어지는 비전시스템만으로 자율주행을 구현하는 것은 더 취약하다고 하겠습니다. 
 

짙은 안개속에서는 인간의 오감만으로는 안전한 운전이 불가능하다.


요즘과 같은 짙은 안개의 속이라던가, 혹은 폭우 속에서 시야가 확보가 제대로 안 되면 그만큼 받아들일 수 있는 정보의 양도 줄어들기 마련입니다. 지금 여러 경쟁사가 적용하고 있듯이 레이더(Rador)와 라이다(Lidor) 센서, 초음파(Ultrasonic) 센서 등 다양한 센서들을 통해 더 풍부한 정보입력이 가능하다면 그만큼 보이지 않는 부분의 위험까지도 파악할 수 있게 됩니다.


원가 절감도 좋지만 안전을 우선적으로 생각하길.


아시다시피 현재 테슬라는 그 흔한 초음파 센서도 사용하고 있지 않습니다. 단순히 눈으로만 보고 운전을 한다는 건 어찌 보면 테슬라의 과욕이라고 생각합니다.  솔루션이 없다면 모를까, 버젓이 있는데도 스스로의 기술을 과신하고 있는 것은 아닌지 새겨볼 일입니다. 물론 사업적인 성공을 위해서, 전기차의 대중화를 위해서 부수적인 센서들은 자동차 단가 상승의 원인이니 절감해야 했을지 모릅니다. 하지만 운전자의 안전을 담보로 한 원가절감은 결국 독으로 돌아올 수 있습니다. 소비자를 대상으로 베타테스트를 진행하는 모습 같아 보여서 개인적으로는 테슬라의 모든 전기차에 라이다센서라도 하나 달아 열악한 날씨환경 속에서도 안심하고 운전할 수 있도록 해주었으면 합니다. 

반응형