전기차

테슬라 FSD이 완전자율주행이라구?

ㅎㅎㅅㄹ 2021. 9. 30. 08:05
728x90

테슬라 FSD는 자율주행 2.5단계에 불과

 

테슬라의 오토파일럿(Autopilot) 기능을 사용하다 발생하는 교통사고율이 증가하자 테슬라의 FSD(Full Self Driving)의 표기에 대해서 수정이 필요하다는 의견이 나오고 있습니다. 

 

테슬라의 FSD, 말 그대로 해석하면 완전 자율주행이라는 의미인데 실제 오토파일럿의 기능을 자율주행 6단계에 비교해 보면 불과 2.5단계에 이르는 수준입니다. 

특정 주행모드에서 자동차 시스템이 전체 차량 제어를 수행하지만 위험 발생 시에는 운전자의 개입이 꼭 필요한 상태라는 것입니다. 

 

그런데 최근 테슬라 FSD에 대해서 맹신하는 무모한 사용자들이 날로 늘어나는 듯합니다. 

오토파일럿을 사용하다 사고가 난 테슬라 모델 Y

테슬라 FSD는 주행 시 운전자석에 사람이 없을 경우 또는 스티어링 휠을 잡지 않을 경우 경고음이 발생되도록 설계되어 있습니다. 그러나 사용자들은 운전석에 더미를 올려 안전벨트를 채운다던가 스티어링 휠은 고정하는 장치를 설치하여 시스템의 허점을 이용하고 있습니다. 실제 해당 제품들을 최근까지 인터넷 쇼핑몰 등을 통해 어렵지 않게 구할 수 있었으나 현재는 판매가 금지된 상태이기도 하죠. 

 

자율주행차량에 대한 법안수립 필요성 시급 

테슬라를 비롯해 우버·구글·GM·아우디 등 글로벌 자동차 제조 기업들은 캘리포니아주에서 시범운행을 지속적으로 실시하고 있습니다. 일반도로, 고속도로를 가리지 않고 자사 자율주행차를 테스트 하는데, 자동차국(DMV)이 2014년 주행을 허가한 이후 발생한 38건의 주행 사고 중 단 1건만이 자율주행차 과실로 결론이 나기도 했죠. 나머지는 상대 일반 차량이나 보행자, 자전거 라이더 등의 과실로 판명났습니다. 

구글은 자사 웨이모가 충돌 상황에서 사람 운전자보다 대처 능력이 우수하다는 보고서를 발표해 이목을 끌기도 했습니다. 보고서에 따르면 웨이모는 지금까지 600만 마일(약 960만 킬로미터)을 주행하면서 사람이 일으키는 사고보다 경미한 추돌사고만 냈다는 것입니다. 

 

 

아마도 테슬라 FSD 사용자들은 이런 발표와 현재 수준과의 괴리를 인정하지 못하는 듯합니다. 결국 테스트 수준과 현재 테슬라 FSD 수준을 혼동하고 있는 것이지요. 아니면 테슬라에 대한 맹목적인 팬덤일까요?

 

자율주행 시스템을 두고 처리방법에 대한 논의가 극명한 가운데 국가별 그 책임을 물을 방법이 불분명한 것이 현실입니다. 이는 국내도 마찬가지입니다. 한국교통연구원이 2018년 일반시민 1000명을 대상으로 설문을 실시한 결과 ‘자율주행차 운전 시 우려사항’ 1위는 ‘시스템 고장으로 인한 교통사고(47.6%)’였으며, 2위는 ‘사고 발생 시 책임 소재 모호(1.2%)’가 뽑히기도 했죠. 

인공지능에 의해 피해를 입었음에도 그를 법적으로 책임지게 할 법과 제도 마련은 아직도 멀게 느껴진다는 목소리가 커지고 있습니다. 

아직까지 자율주행기능은 운전의 보조수단 정도로만 인식해야 합니다. 기술을 맹신하거나 과신하는 행동에는 생각보다 더 큰 책임이 돌아올 것임을 명심해야 하겠습니다.  

 

728x90