Hacker News 의견
  • 테슬라가 사고 데이터를 보존하고 자체적으로 분석하는데, 조사기관에는 제공하지 않는다는 건 이해할 수 없는 일임. 개인정보 보호를 위해 데이터를 저장하지 않는 건 이해하겠지만, 만약 데이터를 보유하고 있고 합법적인 소환장이 있다면 반드시 넘겨야 함. 참고로 이번 사고는 운전자가 과속을 했고, 2019년 오토파일럿(완전자율주행 아님)을 도시 도로에서 사용했으며(원래 설계된 환경이 아님), 바닥에 떨어진 폰을 줍다가 가속 페달을 밟아서 자동 브레이크까지 무시하는 상황이었음. 즉, 이번 사고 자체는 테슬라 과실은 아니며, 왜 데이터를 숨겼는지 의아함. 고의라기보다는 단순한 무능력의 결과일 가능성이 높음

    • 사고 스냅샷에 따르면 운전자는 핸들을 잡지 않았고(손을 떼고 있었음), 지오펜싱 경고에도 불구하고 오토스티어가 핸들을 제어하고 있었으며, 고속으로 T자 교차로에 접근하고 있었지만 경고 메시지가 나오지 않았음. 이런 상황에서 오토파일럿을 사용할 수 있게 한 것은 테슬라의 부주의라고 생각함. 테슬라의 마케팅을 고려할 때, 이번 판결의 33% 과실은 충분히 정당하다고 봄. 그리고 이 데이터를 숨겼다는 점만으로도 테슬라의 안전에 대한 접근방식을 알 수 있음. 머스크가 자율주행 시스템 관련해서 대중적으로 거짓된 발언을 하는 것을 떠올리면 전혀 새로울 것 없음
    • 한론의 면도날(“고의가 아닌 무능력”이라는 밈)은 이제 그만 사라질 필요가 있음. 권력을 가진 위치에서의 무능력은 곧 악의 그 자체임
    • 테슬라를 실제로 소유하고 있는 입장에서 가장 큰 소프트웨어 문제를 느끼는 지점은 대부분의 일반 소비자들이 “Autopilot”과 “FSD”의 차이를 실제로 잘 모른다는 것임. FSD는 신호등/교차로에서 멈추지만, Autopilot은 사실상 고속도로 전용 크루즈 컨트롤임. 두 모드는 같은 방식으로 활성화되고, FSD 구독/업그레이드 여부에 따라 동작이 달라지는데, 일반 소비자 입장에서는 차이를 이해하기 어려움. 지인이 테슬라 렌트했을 때 Autopilot만 켜져 있는지 모르고 교차로에서 멈출 줄 알았다가 당황한 적도 있음. 테슬라가 2019 AP를 완전히 없애고 모든 사용자에게 제한적인 FSD라도 제공하거나, 혹은 AP의 사용을 고속도로로만 제한했으면 좋겠음
    • https://electrek.co/2025/08/…
      테슬라 측은 이번 판결이 잘못되었다고 주장하고, 오히려 자동차 안전을 퇴보시킬 뿐 아니라 생명을 살릴 기술의 개발에 장애가 된다고 항소 입장을 밝힘. 판결에서 운전자가 압도적으로 책임을 진 것으로 보았으나, 증거상 운전자가 과속, 오토파일럿 무시, 주의 산만 등 사고의 전적인 책임이 있으며 2019년 당시에도, 지금도 이런 사고를 막을 차는 없음. 원고 측이 사실을 왜곡했다고 주장함.
      이해가 안 가는 점은, DJI도 2025년쯤 지오펜스를 없앴는데, 이는 장비 운용자가 직접 책임진다는 전제로 FAA도 지지하는 방향이었음. 이런 제조사 책임론 판결들이 나와서 우리가 제대로 된 기술을 못 갖게 됨. 그래서 각종 무선장치, 부트로더도 소스코드 공개 없이 락 걸려 사용하기 어렵게 됨. 테슬라가 이런 싸움을 계속하는 게 필요하다고 느끼며, 결국 이런 식이면 핸드폰 제조사도 도로 옆을 걸을 때 자동으로 핸드폰을 비활성화해야 하는 상황이 올 수 있음
    • 이 사건의 본질적인 문제는, 테슬라의 시스템이 운전자가 기대하지 못할 방식으로 신뢰를 유도했다는 점임. 배심원들은 테슬라가 과대광고를 했고, 증거를 숨기려 했다는 점을 비판함
  • 테슬라가 충돌 데이터를 “로컬에서 삭제”했다는 판결 이유에 대해, 왜 이런 기능을 넣었을지 납득가는 설명이 있는지 궁금함. “충돌 3분 내에 센서정보, 비디오, CAN-bus, EDR 등 데이터를 tar로 묶고 서버로 업로드, 이후 로컬 복사본 삭제”라는 구조인데, 이게 비행기의 블랙박스가 FAA 서버에 업로드 뒤 데이터 삭제하는 셈이라 오히려 신뢰성 감소하는 복잡성을 굳이 넣을 이유를 모르겠음

  • 이런 행위에 대한 형사 책임이 없는 한, 상황은 바뀌지 않을 것임. 2019년 이후로 테슬라의 기업가치는 급상승했고, 이번 3억 2900만 달러 벌금은 회사 전체에 비해 미미한 수준의 숫자에 불과함

    • 중요한 포인트는, 회사 전체 가치와 비교할 게 아니라, ‘문제 예방에 필요한 비용’과 비교해야 한다는 점임. 이번 3억 2천 9백만 달러는 경고 시스템 추가, 지오펜싱 적용에 들어갈 비용에 비해 훨씬 큼. 또, 한 번의 사고 비용일 뿐이고, 이후 756건이 추가로 발생함. 비슷하게 배상하라고 하면 현재 시총의 80%가 날아감. 평균적으로 사고당 5천6백만 달러 비용(합의, 소송, 매출 손실 등)이든다면, 회사순이익이 모두 증발함. 이런 큰 위험부담을 그냥 둘 이유는 없음
    • 3억 2천 9백만 달러가 어느 회사에도 무시할 수 있는 소액일 수 없음. 테슬라에게도 거액임
  • 테슬라가 이런 식으로 데이터 숨기는 것은 정말 멍청한 행동임. 사고 책임의 결론과 무관해도, 증거 인멸 시도가 문제임. 오토파일럿은 ‘크루즈 컨트롤’임을 이해한다면, 테슬라 과실이 있다고 주장하는 건 기존 운전자 보조기술 기준과도 다름. 테슬라가 해당 기능을 막을 수 있다고 해서 무조건 막아야 한다는 의미는 아님.
    중요한 건, 마케팅 용어 해석에 달림. 만약 “오토파일럿”이라는 말이 오해 소지가 있다고 생각한다면 배심원 판단에 동의할 거고, 아니면 그 반대. 내 경우, 상세 규정을 모두 아는 변호사도 아니고, 실제로 테슬라 경고를 무시하고 전혀 책임지지 않은 미흡한 운전자가 문제임에도 불구하고 판결이 불공정하게 느껴짐. 다른 브랜드의 차에 비해 경고가 매우 명확하고 자세했음. 솔직히 정치적 분위기의 영향도 있다고 생각함. 반박 의견도 듣고 싶음. 참고로 나도 테슬라 운전함

    • 비타민워터 사례가 떠오름. Center for Science in the Public Interest가 비타민워터가 ‘건강음료’라며 기만적 마케팅을 했다고 집단소송을 제기했고, 코카콜라는 ‘이걸 진짜 건강음료로 믿는 소비자는 없다’고 대응함.
    • 테슬라가 경고 메시지 설계에 더 공들였는지 아니면 마케팅에 더 신경 썼는지 생각해봐야 함. 한 회사에서 “이 차는 알아서 달립니다” 광고를 듣고, 또 운전할 때 “항상 도로를 주시하세요”라는 팝업 알람이 나오면, 소비자는 당연히 전자의 마케팅 메시지를 더 신뢰할 수밖에 없음. 다른 회사들도 경고를 무시하는 사람은 있지만, 테슬라만큼 성공적이고 공격적인 마케팅으로 사람들에게 경고를 무시하게 만드는 사례는 없음. 이게 핵심 차이임
    • 오토파일럿이 크루즈 컨트롤이라는 주장에 반론을 제기함. 테슬라는 오토파일럿을 그보다 훨씬 더 크게 마케팅함. 오토파일럿의 사전적 정의는 “운전자의 개입 없이 항공기/차량의 경로를 유지하는 장치”이며, 크루즈 컨트롤은 “가속 페달 없이 속도를 일정하게 유지하는 전자장치”임
    • “수많은 경고를 무시해야만 운전자가 책임을 면할 수 있다”는 주장에 대해, 기사에서는 사고 전 어떤 경고도 나오지 않았다고 언급함. 그렇다면 운전자가 어떤 경고를 놓쳤다는 건지 궁금함
    • 오토파일럿이 크루즈 컨트롤이라는 해석은 현실과 다름. 테슬라는 자신들이 판촉하는 시스템의 한계와 이름을 항상 제대로 이해하지 못하는 층을 적극 타겟으로 하는 마케팅을 수년간 추진함. 시스템의 한계를 잘 아는 사람들은 오히려 솔직하게 광고하는 브랜드 차량을 더욱 선호함. 현재는 극단적인 특정 고객층 위주로 바뀌는 중이지만, 여전히 테슬라가 소비자 혼란을 의도적으로 유발하고 있으므로 책임을 져야 한다고 생각함
  • 테슬라가 거의 모든 사고 데이터를 모으면서, 자기에게 불리하면 비공개, 운전자 과실이면 적극적으로 미디어에 PR을 한다는 게 내가 테슬라를 사지 않는 거의 유일한 이유임. 데이터를 안 모으거나, 혹은 데이터로 운전자를 곤경에 몰지 않는 회사에서 자동차를 사고 싶음

  • 이런 이슈가 사회적으로 알려지는 게 굉장히 좋은 일임. 테슬라는 예전부터 이런 행보를 보여왔는데, 최근 들어서야 압박을 느끼고 일부 소송에서 합의하는 단계임. 전형적인 범죄적 행위라 봄.
    또, 이런 글이 HN 메인에 안 보인다는 사실도 흥미로움. AI, 로보틱스, 기술 분야의 대표주자가 이런 짓을 대놓고 하고 있다는 게 업계에 알려지면, 실제 하는 행동들이 껍데기뿐임을 깨닫게 되고, 더 많은 석연치 않은 문제가 드러날 것임. 이 ‘카드 쌓기’식 거품의 붕괴가 정말 기대됨

  • 온보드 스냅샷 자동 삭제 구현 결정이 어떻게 정당화되었는지 확인해보고 싶음

    • https://en.wikipedia.org/wiki/Tampering_with_evidence
    • 삭제된 것은, 서버에 전달하기 위해 패키징한 파일이며, 원본 데이터 전체가 삭제된 것은 아님. 악의적인 행동이라기보단, 쓰레기 파일을 남기지 않는 단순한 코드 동작임
    • 기사만 보고 전체 구조를 알 순 없지만, 임베디드 시스템에서 진단 목적으로 임시 파일을 생성/업로드한다면, 스토리지 부족 방지를 위해 삭제하는 게 자연스러운 설계임. 만약 원본 데이터 자체를 삭제했다면 문제가 크지만, 현재 케이스는 그렇지 않으므로 심각하게 볼 필요는 없다고 생각함
  • 기사 용어가 혼란스럽게 섞여있어 헷갈리는데, 사고 당시 차량을 제어한 것이 FSD인지 autosteer인지 알아내기 힘듦. 내 경험상 autosteer는 신호등, 정지선을 무시하고 주행함. 그리고 원론적으로, 이런 자동차 사고에서 텔레메트리를 활용할 수 있다는 점은 놀라운 일임. 일반 차량 사고는 데이터가 거의 전무함. 테슬라가 이런 부분에선 특별함

    • Autopilot 기능임. 용어 구분이 중요함
    • 2019년 당시에는 FSD 자체가 없었음
  • “조사관이 테슬라가 조사 협조적이라고 생각했다”는 기사 내용에서 조사기관 자체도 실패한 것임

    • 그렇지 않음. 조사관들은 기본적으로 선의로 데이터 협조를 우선 시도하며, 상대방이 신의를 저버린다고 판단될 때에야 강제적으로 개입함
  • 자율주행차 산업의 후발주자들이 기술 완성도가 아닌, 규제당국을 시간으로 지치게 해서 관성적으로 안전 기준이 낮아지는 걸 노리는 듯함. 즉, 정치적 진영의 규제 포획에 희망을 걸고 차의 안전성을 선언하려는 ‘도박’임

    • 미국에는 실질적인 성능 규제가 거의 존재하지 않음. 대부분의 주, 캘리포니아 정도만 형식상 몇 가지 인증을 거치지만, 실제 시스템 성능과 무관하게 일단 허가가 남. 규제기관은 헤드라인이 터질 때 그것에 반응해서 조치할 뿐, 실제 기술 성능에는 무관심임. 캘리포니아 규제조차 테슬라 세미트럭도 통과할 만큼 느슨함