Hacker News 의견
  • 우리는 이제 막 가짜 이미지와 영상의 시대를 시작하고 있음
    예전에도 Donbas 지역의 조작된 폭탄 사건처럼, AI 없이도 사람들은 시체를 이용해 가짜 장면을 만들었음
    앞으로는 소수자나 정치인들이 하지도 않은 일을 하는 영상, 법정 증거로 제출되는 완전한 허구의 자료들이 나올 것임. 정말 끔찍한 세상이 될 것 같음

    • 굳이 가짜 영상이 필요하지도 않음. 그냥 소수자 사진에 거짓 자막을 붙이기만 해도 수많은 사람들이 분노하며 몰려듦
    • 세대별로 반응이 다름. 디지털 편집이 막 대중화되던 시기를 겪은 세대는 담담하지만, 그 사이 세대(20~40세)는 가장 짜증스러워함. 현실 감각이 무너지는 사이버펑크적 혼란의 중심에 서 있는 느낌임
    • 10~20년 전에도 기본적인 도구로 충분히 정교한 조작물을 만들 수 있었음. 지금의 “AI가 모든 걸 망친다”는 서사는 오히려 오픈소스 AI 규제를 노린 정치적 움직임처럼 보임
    • 인도 연구에서 ‘Cheap Fakes’라는 용어를 처음 들었음. 생성형 AI가 피싱 공격을 효율화해, 예전엔 타깃이 아니던 취약층까지 노리게 되었음. 정보 생태계가 오염되고, 정부의 통제 욕구와 표현의 자유가 충돌하는 어두운 숲이 만들어지고 있음
    • 실제로 조작된 사진도 많지만, 진짜 사건을 왜곡하거나 무시하는 경우도 많음. 현실과 허구가 뒤섞이는 지점이 문제임
  • 이번 사건은 경고를 만드는 비용과 검증 비용의 격차를 보여줌
    생성형 도구는 조작을 거의 무료로 만들고, 그 양을 폭발적으로 늘림
    철도 운영사는 잘못이 없음. 지진 직후 그럴듯한 이미지가 돌면, 당연히 실사 확인을 해야 함
    앞으로는 한 사람이 저비용으로 고비용 대응을 유발할 수 있는 세상이 될 것임. 시스템은 SNS를 무시하기보다, 신호와 잡음을 구분하는 속도와 회복력을 키워야 함

    • 단순히 “다리 무너졌어요”라고 전화했어도 지연은 발생했을 것임. 전화의 거짓말도 오래된 문제임
    • 영국처럼 CCTV가 많은 곳이라면 다리 상태를 직접 확인할 수 있었을 텐데 의외였음. 자동 감지 기술이 더 발전해야 함
    • Brandolini의 법칙처럼, 거짓을 반박하는 데는 훨씬 더 많은 에너지가 듦
    • 2030년쯤엔 훨씬 더 정교한 위조 이미지가 순식간에 만들어질 것임. 이는 사이버보안의 공격자-방어자 딜레마와 비슷함
    • 이런 사건이 실시간 인프라 모니터링 투자를 촉진할 수도 있음
  • 1950~2005년에는 방송 진입 장벽이 높아 정보원이 적었음. 2005~2021년엔 영상 신뢰도가 높았지만, 이제 가짜 영상의 비용이 0에 가까워짐
    다시 소수의 신뢰 가능한 출처 중심으로 회귀할 것 같음

    • 하지만 그 소수의 출처도 왜곡을 했었음. AI로 신뢰가 더 떨어지면 진짜 저널리즘의 가치가 줄어들 수 있음
    • 요즘은 AI 동물이 말하는 광고가 넘쳐서 지겨움
    • 일부는 정확한 뉴스를 원해 돈을 내지만, 다수는 자신의 편견을 확인하려고만 함. SNS 알고리즘은 진실보다 참여율과 광고 수익을 우선시함
  • Network Rail이 “허위 이미지를 만들거나 공유하기 전에 심각한 영향을 생각하라”고 했지만,
    정작 소셜미디어에 의존하지 않는 검증 시스템이 필요함. 전화로 직접 확인하는 게 낫지 않았을까?

    • 그래도 다리가 무너졌을 가능성이 있다면 기차를 멈추는 게 옳은 선택
    • 한밤중이라 확인 인력을 찾는 데 시간이 걸렸을 것임. 무사함을 보장할 수는 없지만, 위험을 줄이는 게 우선임
    • 모든 구간에 24시간 상주 인력을 두는 건 불가능함. Network Rail은 안전 우선 대응을 잘한 것임
  • 사실 이런 일엔 AI가 필요 없음
    그냥 전화로 “다리 부서졌어요”라고 해도 같은 결과였을 것임. 장난전화와 허위 위협은 예전부터 있었음

    • 하지만 SNS의 바이럴성이 다름. 이미지가 퍼지면 여러 권력자가 동시에 반응함. 전화는 퍼지지 않지만, 이미지는 스스로 확산됨. 그래서 이번 사건이 가능했음
    • “예전에도 나쁜 일이 있었으니 걱정할 필요 없다”는 논리는 위험함. 문제를 X단계에서 X²단계로 키우지 말아야 함
    • 전화 장난은 법적 처벌이 따르지만, 가짜 사진은 그 기준을 넘지 않음
    • 화약이 발명되기 전에도 투사체로 사람을 죽일 수 있었지만, 화약은 세상을 바꿨음. AI도 마찬가지임
    • 허위 행위를 막으려면 강력한 처벌이 필요함. 문제는 범죄자보다 사회가 비용을 떠안는 구조임
  • 흥미롭게도, 실제로 이 사진이 SNS에서 돌았다는 증거가 없음
    BBC 기사 외엔 아무 흔적도 찾을 수 없었음. 아마 직접 Network Rail에 이메일로 보낸 게 아닐까?

    • 그런 수준의 정교한 장난이라면 오히려 감탄할 만함
  • 이 사건이 『Fall; or, Dodge in Hell』Moab 플롯을 떠올리게 함

    • 책의 초반부는 정말 흥미로웠음. 익명성과 온라인 존재감을 다룬 부분이 특히 인상적이었음
  • BBC 기자가 이미지를 AI 챗봇으로 분석해 조작 흔적을 찾았다고 함
    하지만 이런 방식은 검증 방법으로는 부적절해 보임

    • 실제로 기자가 현장에 가서 다리가 멀쩡함을 확인했음. AI 분석은 보조 수단이었을 것임
    • 어떤 교사는 학생 과제를 ChatGPT로 검사했는데, 이런 AI 판별 신뢰도는 낮음. 학생이 모델을 역이용하면 쉽게 속일 수 있음
    • “픽셀을 보면 알 수 있다”는 식의 ChatGPT 반응은 농담처럼 들림
    • 빠른 방법일 수는 있지만, 보도에 인용할 수준의 신뢰성은 아님
  • Network Rail의 경고는 오히려 자신들의 취약점을 드러낸 셈임
    이런 방식으로 언제든 공공 인프라를 마비시키는 공격이 가능함

    • 사실 이런 취약성은 이미 오래전부터 알려져 있었음
  • “다리 점검으로 며칠간 업무에 영향이 있었다”는 말이 더 걱정됨
    단순한 시각 확인조차 그렇게 큰 사회적 비용을 초래한다는 게 놀라움

    • 하지만 긴급 출동 인력은 대체 휴무(TOIL) 를 받기 때문에 일정에 영향이 생김.
      24시간 상시 대기 인력을 두는 건 더 비쌈. 결국 비용과 안전의 균형 문제임