# Ars Technica, AI가 생성한 허위 인용문 논란 후 기자 해고

> Clean Markdown view of GeekNews topic #27182. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27182](https://news.hada.io/topic?id=27182)
- GeekNews Markdown: [https://news.hada.io/topic/27182.md](https://news.hada.io/topic/27182.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-03-04T09:41:41+09:00
- Updated: 2026-03-04T09:41:41+09:00
- Original source: [futurism.com](https://futurism.com/artificial-intelligence/ars-technica-fires-reporter-ai-quotes)
- Points: 2
- Comments: 1

## Topic Body

- AI 도구로 생성된 **허위 인용문**이 포함된 기사 논란 이후 기자 **Benj Edwards**를 해고함  
- 문제의 기사는 AI가 인간 엔지니어 **Scott Shambaugh**에 대한 비판 글을 게시한 사건을 다루었으며, 이후 **허위 인용문**이 포함된 사실이 밝혀져 철회됨  
- Edwards는 **Claude Code 기반 AI 도구**를 사용하다 오류가 발생해 **ChatGPT**로 문제를 파악하려다 잘못된 인용문을 포함했다고 설명  
- Ars Technica는 사건을 “**심각한 기준 위반**”으로 규정하고 내부 검토를 완료했으며, 향후 **AI 활용 가이드라인**을 공개할 예정  
- 이번 사건은 **언론의 AI 활용과 윤리 기준**이 충돌하는 현 시점에서, AI 전문가조차 **인간적 실수와 기술적 한계**에 노출될 수 있음을 보여줌  
  
---  
  
### Ars Technica 기자 해고 사건 개요  
- Ars Technica는 AI가 생성한 **허위 인용문**이 포함된 기사 논란 이후 기자 **Benj Edwards**의 고용을 종료함  
  - 해당 매체는 Condé Nast 소유  
- 문제의 기사는 2월 13일 게시된 AI 관련 사건 보도로, **AI 에이전트가 인간 엔지니어 Scott Shambaugh를 비판하는 글을 게시한 사건**  
- Shambaugh가 자신이 말하지 않은 인용문이 기사에 포함되었다고 지적하자, 편집장 **Ken Fisher**가 사과문을 게재하고 기사를 철회함  
  
### 편집장 사과 및 내부 조치  
- Fisher는 사과문에서 해당 기사에 “**AI 도구가 생성한 허위 인용문**이 포함되었다”고 인정하고, 이를 “**심각한 기준 위반**”이라 표현  
- 그는 이 사건이 “**고립된 사례**”로 보인다고 덧붙였으며, 이후 Ars Technica는 내부 검토를 완료했다고 발표  
- 크리에이티브 디렉터 **Aurich Lawson**은 독자 댓글 스레드를 닫으며 “**적절한 내부 조치가 완료되었다**”고 밝힘  
  - 또한 향후 **AI 사용 및 비사용 방식에 대한 독자용 가이드**를 공개할 예정이라고 언급  
  
### Benj Edwards의 해명  
- Edwards는 Bluesky 게시글에서 “**AI 도구 사용 중 실수로 허위 인용문을 포함했다**”며 전적인 책임을 인정함  
  - 그는 당시 병가 중이었으며, **Claude Code 기반 실험적 AI 도구**를 사용해 인용문을 정리하려다 오류가 발생했다고 설명   
  - 이후 **ChatGPT**를 사용해 문제 원인을 파악하는 과정에서 실제 발언이 아닌 **의역된 문장**을 기사에 포함하게 되었다고  
- 그는 “기사는 인간이 작성했으며, AI가 생성한 기사는 없다”고 강조하고, 공동 저자 **Kyle Orland**는 오류와 무관하다고 명시함  
  
### 독자 반응과 후속 변화  
- Ars Technica 독자들은 기사 댓글 스레드에서 **강한 실망과 분노**를 표출함  
- 2월 28일 기준 Edwards의 Ars Technica 프로필은 과거형으로 수정되어, 그가 더 이상 소속 기자가 아님이 확인됨  
- Futurism이 Ars Technica, Condé Nast, Edwards에게 고용 상태를 문의했으나, 매체와 소유사는 답변하지 않았고 Edwards는 “논평할 수 없다”고 전함  
  
### 언론계의 AI 활용 논란과 맥락  
- 이번 사건은 **CNET, Sports Illustrated 등**에서 발생한 AI 관련 논란에 이어 또 하나의 사례로 언급됨  
- 기사에서는 현재 언론사들이 **AI 활용을 장려하면서도 명확한 윤리 기준이 부족한 상황**임을 지적  
- AI 도입을 둘러싼 환경에는 **저작권 분쟁**, **AI 생성 콘텐츠 확산**, **Google의 AI Overviews로 인한 트래픽 감소** 등이 복합적으로 작용하고 있음  
- 이러한 맥락 속에서, Ars Technica 사건은 **AI 기술과 인간 오류의 교차점**을 드러내는 사례  
- Edwards는 “AI 환각에 걸려든 AI 담당 기자라는 아이러니를 느낀다”며, “정확성을 중시하지만 이번은 고통스러운 실패”라고 언급

## Comments



### Comment 52344

- Author: neo
- Created: 2026-03-04T10:38:48+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47226608)   
- 기자와 블로거들은 종종 다른 사람의 **실수와 사과문**을 분석하며 진정성 여부를 논함  
  - 이번 사건에서 Ars Technica의 Aurich Lawson은 LLM이 만들어낸 허위 인용이 포함된 기사를 삭제하고 모호한 비사과문을 올렸음  
  - 결국 기자가 해고되었지만 Ars는 이에 대한 기사조차 내지 않았음  
  - 솔직함이 약함으로 비춰지는 시대에, Ars가 **투명성과 책임감**의 본보기가 되길 바랐는데 실망스러움  
  - Ars가 실수를 인정하고 기자를 해고한 것은 책임을 진 것임  
    - 기자 본인도 Bluesky에서 자세히 해명했음  
    - 불만은 단지 그 해명이 충분히 만족스럽지 않았다는 점뿐임  
  - 기자가 AI 관련 분야를 다뤘다면 LLM이 생성한 인용문을 반드시 검증했어야 함  
    - 편집진도 이를 확인하지 않았다면 이는 Ars의 **편집 기준**을 드러내는 일임  
    - 다른 기사들도 비슷하게 사라졌는지 확인할 필요가 있음  
  - 언론사가 누군가를 해고했다고 공개하는 것이 일반적인지 의문임  
    - Ars는 당시 인용문 출처 문제를 며칠 내에 보도했음  
  - Ars의 편집진은 예전부터 **낮은 기준**을 가지고 있었음  
    - 절반의 제목이 오해를 유도하며 클릭을 노리는 **클릭베이트**임  
    - 신뢰할 수 없는 헤드라인이 너무 많음  
  - Aurich Lawson이 기사를 삭제했다는 건 ‘전달자를 탓하는’ 식의 표현임  
    - 그는 커뮤니티의 얼굴일 뿐, 그런 권한은 없었을 가능성이 큼  
  
- Benji 기자와의 개인적인 경험을 공유함  
  - 처음엔 좋은 인터뷰를 했지만, 이후 프로젝트가 주목받자 다시 연락했을 때는 **보도 불가 지침**을 이유로 거절당했음  
  - 기자와의 관계가 투명하지 않고 **언론의 불투명성**을 느꼈음  
  - 기자와 소통할 땐 반드시 **서면으로 기록**을 남기는 게 좋음  
  - 독일에서는 기자를 개인 프로젝트 홍보용으로 이용하려는 태도는 매우 부정적으로 여겨짐  
    - Benji의 대응은 오히려 **정상적이고 윤리적인 판단**으로 보임  
  - 기자로서 이미 다른 매체에서 다룬 주제의 제안을 받으면 대부분 거절함  
    - 독점 보도를 원하기 때문이며, **PR 피치**는 거의 모두 거절함  
  - 기자들이 단순히 바쁘거나 거절을 표현하기 어려워서 답을 안 하는 경우도 있음  
  - 기자들은 같은 주제를 두 번 다루는 걸 꺼려함  
  - Ars는 외부 기사들을 **요약·재작성**하거나, 독점 기사만 자체 취재하는 경향이 있음  
  
- 우리 조직은 AI가 생성한 **법률 인용문**을 검증하기 위해 자동화된 차단기를 사용함  
  - 인용이 공식 데이터베이스와 일치하지 않으면 **환각(hallucination)** 으로 표시하고 사람이 재검증함  
  - AI는 초안 도우미일 뿐, **최종 판단은 인간 검증**을 통과해야 함  
  - Anders Hejlsberg의 접근처럼, AI에게 일을 시키기보다 **도구를 만들게 하는 방식**이 더 안전함  
    - 이렇게 하면 검증 범위가 작아지고, 도구의 정확성만 확인하면 됨  
  
- 기자 개인의 해고보다 더 큰 문제는 **편집 구조의 붕괴**임  
  - 지난 10년간 언론사는 검증 인력을 줄였고, 그 결과 **사실 확인 체계**가 사라졌음  
  - 여기에 AI 도구를 도입하면서 검증 없이 생산량만 늘려 **시스템적 실패**가 발생함  
  - 이는 산업 재해의 ‘**스위스 치즈 모델**’과 유사한 구조적 문제임  
  - 앞으로 언론사가 AI 사용 여부를 **투명하게 공개**해야 한다는 논의가 필요함  
  
- Ars Technica를 존중하고 후원하지만, 이번 사건은 **편집진의 책임**임  
  - 브랜드 아래에서 발행된 기사라면 반드시 **사실 검증 절차**가 있었어야 함  
  - 그래도 Ars에는 뛰어난 기자들이 많아, 한 번의 실수로 전체를 평가하긴 이름  
  - Eric Berger는 Musk에 편향적이며, Dan Goodin은 기술 이해가 부족함  
    - 반면 Ashley Belanger는 **직접 취재와 깊이 있는 글쓰기**로 가장 신뢰할 만함  
    - Beth Mole도 전문성과 유머 감각을 겸비함  
  - 예전의 Maggie Koerth와 Jon Stokes가 그리움  
  - 대형 미디어의 **내부 검증 프로세스**를 과신하지 말아야 함  
  
- 이전 논의 맥락을 정리하며 관련된 **AI 기사 논란의 타임라인**을 공유함  
  
- 주요 언론사들이 이미 **LLM 사용을 의무화**하고 있음  
  - AI 출력이 티 나지 않게 다듬는 법, 인용 검증 절차 등이 내부 지침으로 존재함  
  - 성과 압박으로 인해 AI를 쓰지 않는 기자는 해고되기도 함  
  - Ars만의 문제가 아니라, **클릭 중심 구조**가 만든 전반적 현상임  
  - 이에 대해 근거가 있는지 묻는 반론도 있었음  
    - 구체적 증거 없이 ‘오픈 시크릿’이라 주장하는 건 **관리 책임 회피**로 보일 수 있음  
  - 실제로 그런 지침이 존재하는지, **AI 출력 위장 방법**에 대해 더 듣고 싶다는 의견도 나옴  
  
- 기사 제목에 기자 해고가 언급되었지만, 실제로는 **확인된 사실이 부족**함  
  - 기자 소개 문구가 ‘is’에서 ‘was’로 바뀐 점과, 관련자들이 부인하지 않은 점이 근거로 제시됨  
  - Benj의 Bluesky 글을 보면 자진 사퇴로 보이진 않음  
  
- Ars에 대한 비판 여론이 거세지만, 기자는 이미 **대가를 치렀음**  
  - Ars가 앞으로 더 신중해질 것이라 믿음  
  
- Google AI Overview의 **정확도 향상**이 놀라울 정도임  
  - 이제는 링크를 확인하지 않을 때도 있음  
  - 그러나 이는 검색 결과를 요약하는 수준일 뿐, **출처 사이트의 콘텐츠를 잠식**하는 구조임  
  - 실제로는 틀린 정보를 자주 내놓기도 함  
  - 링크 내용이 요약과 **불일치**하는 경우가 많음  
  - 어떤 사용자는 AI가 존재하지 않는 연구 프로젝트를 만들어냈다고 함  
  - 링크를 자주 확인해야 하며, AI의 **신뢰성 한계**를 인식할 필요가 있음
