테슬라, 오토파일럿 사고 책임 회피 위해 데이터 은폐 및 경찰 혼란 유도
(electrek.co)- 테슬라는 오토파일럿 관련 사고에서 중요 데이터 은폐 및 허위 진술로 사고 책임을 회피하려 시도함
- 사고 직후, 차량에서 서버로 업로드된 '충돌 스냅샷' 데이터를 숨기고, 경찰과 원고에게 존재하지 않는다고 주장함
- 법적 및 수사 과정 전반에서 데이터 요청에 고의적으로 부정확한 정보 제공 및 중요 증거 왜곡이 이어짐
- 외부 포렌식 전문가의 분석과 법원의 강제 조치로 은닉된 데이터가 결국 공개, 테슬라의 내부 분석에서도 오토파일럿 작동이 확인됨
- 배심원 평결은 사고 책임의 33%를 테슬라에 부과, 오토파일럿의 지오펜싱, 운전자 모니터링 미비가 사고 예방 실패 원인 중 하나임이 밝혀짐
서론
지난 2019년 테슬라 오토파일럿 관련 치명적 차량 사고에서 회사가 데이터를 은폐하고 여러 해 동안 경찰과 법원, 원고에게 거짓말과 혼란을 유도했던 사건의 상세 기록이 재판 기록을 통해 공개됨. 본 요약은 사고 이후 테슬라의 조직적인 증거 은폐 및 조작 과정과 그 결과를 순차적으로 정리함.
사고 및 데이터 은폐 경위
1 | 2019년 4월 25일 – 사고 발생과 즉각적 데이터 업로드
- 사고 발생 3분 이내, 차량의 센서 비디오, CAN버스, EDR 등 데이터가 "snapshot_collision_airbag-deployment.tar" 파일로 서버에 전송됨
- 차량은 로컬 복사본 삭제, 실제로 해당 데이터는 테슬라만 접근 가능
- 포렌식 공학자가 차량 내장 컴퓨터 분석을 통해 이 데이터 존재 사실을 확인
- 테슬라는 법적 자료 요청에 데이터가 존재하지 않는다는 허위 답변 제출
2 | 2019년 5월 23일 – 테슬라 변호사, 경찰 공식 요청서 직접 작성 유도
- 플로리다 고속도로 순경(Riso)이 테슬라에 충돌 데이터 요청
- 테슬라 변호사가 공식 문서 내용을 직접 지시함으로써 실제 충돌 데이터 배제(오락기록 등 부차적 데이터만 제공)
- 테슬라는 이미 데이터 보유 중임에도 불구, 경찰, 원고에게 해당 사실을 숨김
3 | 2019년 6월 – 협조 의심 받는 데이터 추출 과정
- 경찰이 해당 차량의 Autopilot ECU, MCU 직접 회수
- 테슬라 서비스센터에서 데이터 추출 시도 그러나 내부 기술자는 절차에 익숙하지 않다고 진술하며 “데이터 손상” 주장
- 향후 포렌식 엔지니어가 해당 컴퓨터에서 데이터 접근 성공, 데이터가 실제로 존재했음이 증명됨
4 | 2019–2024 – 반복되는 데이터 은폐 및 부정
- 테슬라는 수년간 해당 데이터를 이미 확보하고 있었음에도 불구, 경찰 및 법원 요청에 일관되게 관련 데이터 부존재·손상 주장
- 데이터 자동 삭제 기능이 존재한다는 구실을 내세움
- 포렌식 증거나 법원 강제력에 의해 존재가 확인된 후에야 부분적 시인
5 | 2024년 하반기 – 법원 강제 데이터 추출
- 법원 명령으로 원고 측 전문가가 Autopilot ECU의 NAND 플래시 전체 이미징 진행
- 테슬라가 불가능하다고 주장한 작업을 외부 전문가가 성공적으로 수행, 데이터 완전 확보
6 | 2025년 2~3월 – 포렌식 분석 통한 결정적 증거 확보
- “snapshot_collision_airbag-deployment.tar” 파일명, 체크섬, 서버 경로 등 주요 메타데이터 확보
- 테슬라가 기존 제공한 데이터와 달리, 실제 충돌 전후 오토파일럿 작동, 경고 신호, 지도/비전 데이터 등 다수 결정적 로그 포함
- 지도 플래그에 해당 지역이 "restriced Autosteer zone"으로 표시되어 있었음에도 오토파일럿이 해제/경고 없이 작동 지속
7 | 2025년 5월 – 서버 로그 및 증거 제출로 코너 몰린 테슬라
- 원고 측, AWS 로그 소환 통해 파일의 2019년 4월 25일 18:16(PDT)부터 서버 저장 사실 확인
- 테슬라 내부 분석에서 해당 파일 사용과 오토파일럿 작동, 운전자 손 떼고 있었음을 명백히 확인
- 경찰이나 피해자 가족에겐 데이터 제공하지 않음
8 | 2025년 7월 – 배심원 평결 검토
- 배심원단은 사고 데이터 공개 및 테슬라의 조직적 은폐 시도 확인
- 실제 데이터 내용: 오토파일럿/오토스티어 완전히 작동, 운전자는 수동 개입 없음
- 경고 없음, 시스템은 제한구역 진입 시 대응 미흡(고속도로 전용 설계 영역에서 벗어난 도로에서 오토파일럿이 켜짐)
- NTSB가 과거 테슬라에 시스템 오남용 방지를 위한 지오펜싱, 운전자 감시 강화 조치 권고한 바 있음
- 운전자의 부주의가 직접 원인이었으나, 테슬라의 시스템적 허점, 최소한의 책임(33%) 배분됨
Electrek 논평
- 비판자들은 이번 사례를 피해자 측의 부당한 배상 요구로 폄하하나, 가족 관점에서 진상 규명 및 재발 방지 의지의 정상성을 강조
- 직접적 책임은 운전자에게 있으나, 테슬라 역시 오토파일럿의 사용 제한 미비, 위험 경고 부족, 책임 회피 시도가 중대한 문제임
- 모든 증거를 확인한 후 배심원 12인은 33% 책임을 테슬라에 귀속, 이는 공정한 판단으로 볼 수 있음
- 이번 판례는 오토파일럿 시스템 신뢰, 데이터 투명성, 책임 소재 명확화의 중요성을 확인함
Hacker News 의견
-
테슬라가 사고 데이터를 보존하고 자체적으로 분석하는데, 조사기관에는 제공하지 않는다는 건 이해할 수 없는 일임. 개인정보 보호를 위해 데이터를 저장하지 않는 건 이해하겠지만, 만약 데이터를 보유하고 있고 합법적인 소환장이 있다면 반드시 넘겨야 함. 참고로 이번 사고는 운전자가 과속을 했고, 2019년 오토파일럿(완전자율주행 아님)을 도시 도로에서 사용했으며(원래 설계된 환경이 아님), 바닥에 떨어진 폰을 줍다가 가속 페달을 밟아서 자동 브레이크까지 무시하는 상황이었음. 즉, 이번 사고 자체는 테슬라 과실은 아니며, 왜 데이터를 숨겼는지 의아함. 고의라기보다는 단순한 무능력의 결과일 가능성이 높음
- 사고 스냅샷에 따르면 운전자는 핸들을 잡지 않았고(손을 떼고 있었음), 지오펜싱 경고에도 불구하고 오토스티어가 핸들을 제어하고 있었으며, 고속으로 T자 교차로에 접근하고 있었지만 경고 메시지가 나오지 않았음. 이런 상황에서 오토파일럿을 사용할 수 있게 한 것은 테슬라의 부주의라고 생각함. 테슬라의 마케팅을 고려할 때, 이번 판결의 33% 과실은 충분히 정당하다고 봄. 그리고 이 데이터를 숨겼다는 점만으로도 테슬라의 안전에 대한 접근방식을 알 수 있음. 머스크가 자율주행 시스템 관련해서 대중적으로 거짓된 발언을 하는 것을 떠올리면 전혀 새로울 것 없음
- 한론의 면도날(“고의가 아닌 무능력”이라는 밈)은 이제 그만 사라질 필요가 있음. 권력을 가진 위치에서의 무능력은 곧 악의 그 자체임
- 테슬라를 실제로 소유하고 있는 입장에서 가장 큰 소프트웨어 문제를 느끼는 지점은 대부분의 일반 소비자들이 “Autopilot”과 “FSD”의 차이를 실제로 잘 모른다는 것임. FSD는 신호등/교차로에서 멈추지만, Autopilot은 사실상 고속도로 전용 크루즈 컨트롤임. 두 모드는 같은 방식으로 활성화되고, FSD 구독/업그레이드 여부에 따라 동작이 달라지는데, 일반 소비자 입장에서는 차이를 이해하기 어려움. 지인이 테슬라 렌트했을 때 Autopilot만 켜져 있는지 모르고 교차로에서 멈출 줄 알았다가 당황한 적도 있음. 테슬라가 2019 AP를 완전히 없애고 모든 사용자에게 제한적인 FSD라도 제공하거나, 혹은 AP의 사용을 고속도로로만 제한했으면 좋겠음
- https://electrek.co/2025/08/…
테슬라 측은 이번 판결이 잘못되었다고 주장하고, 오히려 자동차 안전을 퇴보시킬 뿐 아니라 생명을 살릴 기술의 개발에 장애가 된다고 항소 입장을 밝힘. 판결에서 운전자가 압도적으로 책임을 진 것으로 보았으나, 증거상 운전자가 과속, 오토파일럿 무시, 주의 산만 등 사고의 전적인 책임이 있으며 2019년 당시에도, 지금도 이런 사고를 막을 차는 없음. 원고 측이 사실을 왜곡했다고 주장함.
이해가 안 가는 점은, DJI도 2025년쯤 지오펜스를 없앴는데, 이는 장비 운용자가 직접 책임진다는 전제로 FAA도 지지하는 방향이었음. 이런 제조사 책임론 판결들이 나와서 우리가 제대로 된 기술을 못 갖게 됨. 그래서 각종 무선장치, 부트로더도 소스코드 공개 없이 락 걸려 사용하기 어렵게 됨. 테슬라가 이런 싸움을 계속하는 게 필요하다고 느끼며, 결국 이런 식이면 핸드폰 제조사도 도로 옆을 걸을 때 자동으로 핸드폰을 비활성화해야 하는 상황이 올 수 있음 - 이 사건의 본질적인 문제는, 테슬라의 시스템이 운전자가 기대하지 못할 방식으로 신뢰를 유도했다는 점임. 배심원들은 테슬라가 과대광고를 했고, 증거를 숨기려 했다는 점을 비판함
-
테슬라가 충돌 데이터를 “로컬에서 삭제”했다는 판결 이유에 대해, 왜 이런 기능을 넣었을지 납득가는 설명이 있는지 궁금함. “충돌 3분 내에 센서정보, 비디오, CAN-bus, EDR 등 데이터를 tar로 묶고 서버로 업로드, 이후 로컬 복사본 삭제”라는 구조인데, 이게 비행기의 블랙박스가 FAA 서버에 업로드 뒤 데이터 삭제하는 셈이라 오히려 신뢰성 감소하는 복잡성을 굳이 넣을 이유를 모르겠음
-
이런 행위에 대한 형사 책임이 없는 한, 상황은 바뀌지 않을 것임. 2019년 이후로 테슬라의 기업가치는 급상승했고, 이번 3억 2900만 달러 벌금은 회사 전체에 비해 미미한 수준의 숫자에 불과함
- 중요한 포인트는, 회사 전체 가치와 비교할 게 아니라, ‘문제 예방에 필요한 비용’과 비교해야 한다는 점임. 이번 3억 2천 9백만 달러는 경고 시스템 추가, 지오펜싱 적용에 들어갈 비용에 비해 훨씬 큼. 또, 한 번의 사고 비용일 뿐이고, 이후 756건이 추가로 발생함. 비슷하게 배상하라고 하면 현재 시총의 80%가 날아감. 평균적으로 사고당 5천6백만 달러 비용(합의, 소송, 매출 손실 등)이든다면, 회사순이익이 모두 증발함. 이런 큰 위험부담을 그냥 둘 이유는 없음
- 3억 2천 9백만 달러가 어느 회사에도 무시할 수 있는 소액일 수 없음. 테슬라에게도 거액임
-
테슬라가 이런 식으로 데이터 숨기는 것은 정말 멍청한 행동임. 사고 책임의 결론과 무관해도, 증거 인멸 시도가 문제임. 오토파일럿은 ‘크루즈 컨트롤’임을 이해한다면, 테슬라 과실이 있다고 주장하는 건 기존 운전자 보조기술 기준과도 다름. 테슬라가 해당 기능을 막을 수 있다고 해서 무조건 막아야 한다는 의미는 아님.
중요한 건, 마케팅 용어 해석에 달림. 만약 “오토파일럿”이라는 말이 오해 소지가 있다고 생각한다면 배심원 판단에 동의할 거고, 아니면 그 반대. 내 경우, 상세 규정을 모두 아는 변호사도 아니고, 실제로 테슬라 경고를 무시하고 전혀 책임지지 않은 미흡한 운전자가 문제임에도 불구하고 판결이 불공정하게 느껴짐. 다른 브랜드의 차에 비해 경고가 매우 명확하고 자세했음. 솔직히 정치적 분위기의 영향도 있다고 생각함. 반박 의견도 듣고 싶음. 참고로 나도 테슬라 운전함- 비타민워터 사례가 떠오름. Center for Science in the Public Interest가 비타민워터가 ‘건강음료’라며 기만적 마케팅을 했다고 집단소송을 제기했고, 코카콜라는 ‘이걸 진짜 건강음료로 믿는 소비자는 없다’고 대응함.
- 테슬라가 경고 메시지 설계에 더 공들였는지 아니면 마케팅에 더 신경 썼는지 생각해봐야 함. 한 회사에서 “이 차는 알아서 달립니다” 광고를 듣고, 또 운전할 때 “항상 도로를 주시하세요”라는 팝업 알람이 나오면, 소비자는 당연히 전자의 마케팅 메시지를 더 신뢰할 수밖에 없음. 다른 회사들도 경고를 무시하는 사람은 있지만, 테슬라만큼 성공적이고 공격적인 마케팅으로 사람들에게 경고를 무시하게 만드는 사례는 없음. 이게 핵심 차이임
- 오토파일럿이 크루즈 컨트롤이라는 주장에 반론을 제기함. 테슬라는 오토파일럿을 그보다 훨씬 더 크게 마케팅함. 오토파일럿의 사전적 정의는 “운전자의 개입 없이 항공기/차량의 경로를 유지하는 장치”이며, 크루즈 컨트롤은 “가속 페달 없이 속도를 일정하게 유지하는 전자장치”임
- “수많은 경고를 무시해야만 운전자가 책임을 면할 수 있다”는 주장에 대해, 기사에서는 사고 전 어떤 경고도 나오지 않았다고 언급함. 그렇다면 운전자가 어떤 경고를 놓쳤다는 건지 궁금함
- 오토파일럿이 크루즈 컨트롤이라는 해석은 현실과 다름. 테슬라는 자신들이 판촉하는 시스템의 한계와 이름을 항상 제대로 이해하지 못하는 층을 적극 타겟으로 하는 마케팅을 수년간 추진함. 시스템의 한계를 잘 아는 사람들은 오히려 솔직하게 광고하는 브랜드 차량을 더욱 선호함. 현재는 극단적인 특정 고객층 위주로 바뀌는 중이지만, 여전히 테슬라가 소비자 혼란을 의도적으로 유발하고 있으므로 책임을 져야 한다고 생각함
-
테슬라가 거의 모든 사고 데이터를 모으면서, 자기에게 불리하면 비공개, 운전자 과실이면 적극적으로 미디어에 PR을 한다는 게 내가 테슬라를 사지 않는 거의 유일한 이유임. 데이터를 안 모으거나, 혹은 데이터로 운전자를 곤경에 몰지 않는 회사에서 자동차를 사고 싶음
-
이런 이슈가 사회적으로 알려지는 게 굉장히 좋은 일임. 테슬라는 예전부터 이런 행보를 보여왔는데, 최근 들어서야 압박을 느끼고 일부 소송에서 합의하는 단계임. 전형적인 범죄적 행위라 봄.
또, 이런 글이 HN 메인에 안 보인다는 사실도 흥미로움. AI, 로보틱스, 기술 분야의 대표주자가 이런 짓을 대놓고 하고 있다는 게 업계에 알려지면, 실제 하는 행동들이 껍데기뿐임을 깨닫게 되고, 더 많은 석연치 않은 문제가 드러날 것임. 이 ‘카드 쌓기’식 거품의 붕괴가 정말 기대됨 -
온보드 스냅샷 자동 삭제 구현 결정이 어떻게 정당화되었는지 확인해보고 싶음
- https://en.wikipedia.org/wiki/Tampering_with_evidence
- 삭제된 것은, 서버에 전달하기 위해 패키징한 파일이며, 원본 데이터 전체가 삭제된 것은 아님. 악의적인 행동이라기보단, 쓰레기 파일을 남기지 않는 단순한 코드 동작임
- 기사만 보고 전체 구조를 알 순 없지만, 임베디드 시스템에서 진단 목적으로 임시 파일을 생성/업로드한다면, 스토리지 부족 방지를 위해 삭제하는 게 자연스러운 설계임. 만약 원본 데이터 자체를 삭제했다면 문제가 크지만, 현재 케이스는 그렇지 않으므로 심각하게 볼 필요는 없다고 생각함
-
기사 용어가 혼란스럽게 섞여있어 헷갈리는데, 사고 당시 차량을 제어한 것이 FSD인지 autosteer인지 알아내기 힘듦. 내 경험상 autosteer는 신호등, 정지선을 무시하고 주행함. 그리고 원론적으로, 이런 자동차 사고에서 텔레메트리를 활용할 수 있다는 점은 놀라운 일임. 일반 차량 사고는 데이터가 거의 전무함. 테슬라가 이런 부분에선 특별함
- Autopilot 기능임. 용어 구분이 중요함
- 2019년 당시에는 FSD 자체가 없었음
-
“조사관이 테슬라가 조사 협조적이라고 생각했다”는 기사 내용에서 조사기관 자체도 실패한 것임
- 그렇지 않음. 조사관들은 기본적으로 선의로 데이터 협조를 우선 시도하며, 상대방이 신의를 저버린다고 판단될 때에야 강제적으로 개입함
-
자율주행차 산업의 후발주자들이 기술 완성도가 아닌, 규제당국을 시간으로 지치게 해서 관성적으로 안전 기준이 낮아지는 걸 노리는 듯함. 즉, 정치적 진영의 규제 포획에 희망을 걸고 차의 안전성을 선언하려는 ‘도박’임
- 미국에는 실질적인 성능 규제가 거의 존재하지 않음. 대부분의 주, 캘리포니아 정도만 형식상 몇 가지 인증을 거치지만, 실제 시스템 성능과 무관하게 일단 허가가 남. 규제기관은 헤드라인이 터질 때 그것에 반응해서 조치할 뿐, 실제 기술 성능에는 무관심임. 캘리포니아 규제조차 테슬라 세미트럭도 통과할 만큼 느슨함