Ars Technica, AI가 생성한 허위 인용문 논란 후 기자 해고
(futurism.com)- AI 도구로 생성된 허위 인용문이 포함된 기사 논란 이후 기자 Benj Edwards를 해고함
- 문제의 기사는 AI가 인간 엔지니어 Scott Shambaugh에 대한 비판 글을 게시한 사건을 다루었으며, 이후 허위 인용문이 포함된 사실이 밝혀져 철회됨
- Edwards는 Claude Code 기반 AI 도구를 사용하다 오류가 발생해 ChatGPT로 문제를 파악하려다 잘못된 인용문을 포함했다고 설명
- Ars Technica는 사건을 “심각한 기준 위반”으로 규정하고 내부 검토를 완료했으며, 향후 AI 활용 가이드라인을 공개할 예정
- 이번 사건은 언론의 AI 활용과 윤리 기준이 충돌하는 현 시점에서, AI 전문가조차 인간적 실수와 기술적 한계에 노출될 수 있음을 보여줌
Ars Technica 기자 해고 사건 개요
- Ars Technica는 AI가 생성한 허위 인용문이 포함된 기사 논란 이후 기자 Benj Edwards의 고용을 종료함
- 해당 매체는 Condé Nast 소유
- 문제의 기사는 2월 13일 게시된 AI 관련 사건 보도로, AI 에이전트가 인간 엔지니어 Scott Shambaugh를 비판하는 글을 게시한 사건
- Shambaugh가 자신이 말하지 않은 인용문이 기사에 포함되었다고 지적하자, 편집장 Ken Fisher가 사과문을 게재하고 기사를 철회함
편집장 사과 및 내부 조치
- Fisher는 사과문에서 해당 기사에 “AI 도구가 생성한 허위 인용문이 포함되었다”고 인정하고, 이를 “심각한 기준 위반”이라 표현
- 그는 이 사건이 “고립된 사례”로 보인다고 덧붙였으며, 이후 Ars Technica는 내부 검토를 완료했다고 발표
- 크리에이티브 디렉터 Aurich Lawson은 독자 댓글 스레드를 닫으며 “적절한 내부 조치가 완료되었다”고 밝힘
- 또한 향후 AI 사용 및 비사용 방식에 대한 독자용 가이드를 공개할 예정이라고 언급
Benj Edwards의 해명
- Edwards는 Bluesky 게시글에서 “AI 도구 사용 중 실수로 허위 인용문을 포함했다”며 전적인 책임을 인정함
- 그는 당시 병가 중이었으며, Claude Code 기반 실험적 AI 도구를 사용해 인용문을 정리하려다 오류가 발생했다고 설명
- 이후 ChatGPT를 사용해 문제 원인을 파악하는 과정에서 실제 발언이 아닌 의역된 문장을 기사에 포함하게 되었다고
- 그는 “기사는 인간이 작성했으며, AI가 생성한 기사는 없다”고 강조하고, 공동 저자 Kyle Orland는 오류와 무관하다고 명시함
독자 반응과 후속 변화
- Ars Technica 독자들은 기사 댓글 스레드에서 강한 실망과 분노를 표출함
- 2월 28일 기준 Edwards의 Ars Technica 프로필은 과거형으로 수정되어, 그가 더 이상 소속 기자가 아님이 확인됨
- Futurism이 Ars Technica, Condé Nast, Edwards에게 고용 상태를 문의했으나, 매체와 소유사는 답변하지 않았고 Edwards는 “논평할 수 없다”고 전함
언론계의 AI 활용 논란과 맥락
- 이번 사건은 CNET, Sports Illustrated 등에서 발생한 AI 관련 논란에 이어 또 하나의 사례로 언급됨
- 기사에서는 현재 언론사들이 AI 활용을 장려하면서도 명확한 윤리 기준이 부족한 상황임을 지적
- AI 도입을 둘러싼 환경에는 저작권 분쟁, AI 생성 콘텐츠 확산, Google의 AI Overviews로 인한 트래픽 감소 등이 복합적으로 작용하고 있음
- 이러한 맥락 속에서, Ars Technica 사건은 AI 기술과 인간 오류의 교차점을 드러내는 사례
- Edwards는 “AI 환각에 걸려든 AI 담당 기자라는 아이러니를 느낀다”며, “정확성을 중시하지만 이번은 고통스러운 실패”라고 언급
Hacker News 의견들
-
기자와 블로거들은 종종 다른 사람의 실수와 사과문을 분석하며 진정성 여부를 논함
- 이번 사건에서 Ars Technica의 Aurich Lawson은 LLM이 만들어낸 허위 인용이 포함된 기사를 삭제하고 모호한 비사과문을 올렸음
- 결국 기자가 해고되었지만 Ars는 이에 대한 기사조차 내지 않았음
- 솔직함이 약함으로 비춰지는 시대에, Ars가 투명성과 책임감의 본보기가 되길 바랐는데 실망스러움
- Ars가 실수를 인정하고 기자를 해고한 것은 책임을 진 것임
- 기자 본인도 Bluesky에서 자세히 해명했음
- 불만은 단지 그 해명이 충분히 만족스럽지 않았다는 점뿐임
- 기자가 AI 관련 분야를 다뤘다면 LLM이 생성한 인용문을 반드시 검증했어야 함
- 편집진도 이를 확인하지 않았다면 이는 Ars의 편집 기준을 드러내는 일임
- 다른 기사들도 비슷하게 사라졌는지 확인할 필요가 있음
- 언론사가 누군가를 해고했다고 공개하는 것이 일반적인지 의문임
- Ars는 당시 인용문 출처 문제를 며칠 내에 보도했음
- Ars의 편집진은 예전부터 낮은 기준을 가지고 있었음
- 절반의 제목이 오해를 유도하며 클릭을 노리는 클릭베이트임
- 신뢰할 수 없는 헤드라인이 너무 많음
- Aurich Lawson이 기사를 삭제했다는 건 ‘전달자를 탓하는’ 식의 표현임
- 그는 커뮤니티의 얼굴일 뿐, 그런 권한은 없었을 가능성이 큼
-
Benji 기자와의 개인적인 경험을 공유함
- 처음엔 좋은 인터뷰를 했지만, 이후 프로젝트가 주목받자 다시 연락했을 때는 보도 불가 지침을 이유로 거절당했음
- 기자와의 관계가 투명하지 않고 언론의 불투명성을 느꼈음
- 기자와 소통할 땐 반드시 서면으로 기록을 남기는 게 좋음
- 독일에서는 기자를 개인 프로젝트 홍보용으로 이용하려는 태도는 매우 부정적으로 여겨짐
- Benji의 대응은 오히려 정상적이고 윤리적인 판단으로 보임
- 기자로서 이미 다른 매체에서 다룬 주제의 제안을 받으면 대부분 거절함
- 독점 보도를 원하기 때문이며, PR 피치는 거의 모두 거절함
- 기자들이 단순히 바쁘거나 거절을 표현하기 어려워서 답을 안 하는 경우도 있음
- 기자들은 같은 주제를 두 번 다루는 걸 꺼려함
- Ars는 외부 기사들을 요약·재작성하거나, 독점 기사만 자체 취재하는 경향이 있음
-
우리 조직은 AI가 생성한 법률 인용문을 검증하기 위해 자동화된 차단기를 사용함
- 인용이 공식 데이터베이스와 일치하지 않으면 환각(hallucination) 으로 표시하고 사람이 재검증함
- AI는 초안 도우미일 뿐, 최종 판단은 인간 검증을 통과해야 함
- Anders Hejlsberg의 접근처럼, AI에게 일을 시키기보다 도구를 만들게 하는 방식이 더 안전함
- 이렇게 하면 검증 범위가 작아지고, 도구의 정확성만 확인하면 됨
-
기자 개인의 해고보다 더 큰 문제는 편집 구조의 붕괴임
- 지난 10년간 언론사는 검증 인력을 줄였고, 그 결과 사실 확인 체계가 사라졌음
- 여기에 AI 도구를 도입하면서 검증 없이 생산량만 늘려 시스템적 실패가 발생함
- 이는 산업 재해의 ‘스위스 치즈 모델’과 유사한 구조적 문제임
- 앞으로 언론사가 AI 사용 여부를 투명하게 공개해야 한다는 논의가 필요함
-
Ars Technica를 존중하고 후원하지만, 이번 사건은 편집진의 책임임
- 브랜드 아래에서 발행된 기사라면 반드시 사실 검증 절차가 있었어야 함
- 그래도 Ars에는 뛰어난 기자들이 많아, 한 번의 실수로 전체를 평가하긴 이름
- Eric Berger는 Musk에 편향적이며, Dan Goodin은 기술 이해가 부족함
- 반면 Ashley Belanger는 직접 취재와 깊이 있는 글쓰기로 가장 신뢰할 만함
- Beth Mole도 전문성과 유머 감각을 겸비함
- 예전의 Maggie Koerth와 Jon Stokes가 그리움
- 대형 미디어의 내부 검증 프로세스를 과신하지 말아야 함
-
이전 논의 맥락을 정리하며 관련된 AI 기사 논란의 타임라인을 공유함
-
주요 언론사들이 이미 LLM 사용을 의무화하고 있음
- AI 출력이 티 나지 않게 다듬는 법, 인용 검증 절차 등이 내부 지침으로 존재함
- 성과 압박으로 인해 AI를 쓰지 않는 기자는 해고되기도 함
- Ars만의 문제가 아니라, 클릭 중심 구조가 만든 전반적 현상임
- 이에 대해 근거가 있는지 묻는 반론도 있었음
- 구체적 증거 없이 ‘오픈 시크릿’이라 주장하는 건 관리 책임 회피로 보일 수 있음
- 실제로 그런 지침이 존재하는지, AI 출력 위장 방법에 대해 더 듣고 싶다는 의견도 나옴
-
기사 제목에 기자 해고가 언급되었지만, 실제로는 확인된 사실이 부족함
- 기자 소개 문구가 ‘is’에서 ‘was’로 바뀐 점과, 관련자들이 부인하지 않은 점이 근거로 제시됨
- Benj의 Bluesky 글을 보면 자진 사퇴로 보이진 않음
-
Ars에 대한 비판 여론이 거세지만, 기자는 이미 대가를 치렀음
- Ars가 앞으로 더 신중해질 것이라 믿음
-
Google AI Overview의 정확도 향상이 놀라울 정도임
- 이제는 링크를 확인하지 않을 때도 있음
- 그러나 이는 검색 결과를 요약하는 수준일 뿐, 출처 사이트의 콘텐츠를 잠식하는 구조임
- 실제로는 틀린 정보를 자주 내놓기도 함
- 링크 내용이 요약과 불일치하는 경우가 많음
- 어떤 사용자는 AI가 존재하지 않는 연구 프로젝트를 만들어냈다고 함
- 링크를 자주 확인해야 하며, AI의 신뢰성 한계를 인식할 필요가 있음