Ars Technica가 "AI 도구가 생성한 허위 인용문"이 포함된 기사를 게재한 후 이를 철회
(arstechnica.com)- 문제의 인용문은 실제 발언자가 하지 않은 말을 AI가 생성했음에도 출처로 잘못 표기된 것으로 확인
- 매체는 이번 사건을 편집 기준의 심각한 실패로 규정하고, 모든 직접 인용은 실제 발언을 반영해야 한다고 명시
- 내부 검토 결과 추가적인 유사 사례는 발견되지 않았으며, 이번 사건은 단일 사례로 파악됨
- Ars Technica는 AI 생성 콘텐츠는 명확히 표시된 시연 목적 외에는 허용되지 않는다는 방침을 재확인하고, 독자와 잘못 인용된 인물에게 사과함
기사 철회 및 사건 개요
- Ars Technica는 금요일 오후, AI 도구가 생성한 허위 인용문이 포함된 기사를 게재했음을 밝히고 해당 기사를 철회함
- 인용문은 실제 인물이 하지 않은 발언을 AI가 생성했음에도 불구하고 출처로 잘못 표기된 형태였음
- 매체는 이를 “심각한 기준 위반”으로 규정함
- 편집진은 “직접 인용은 반드시 출처가 실제로 한 말을 반영해야 한다”고 명시함
내부 검토 및 정책
- Ars Technica는 AI 도구에 대한 과도한 의존의 위험성을 오랫동안 다뤄왔으며, 내부 정책에도 그 우려가 반영되어 있음
- 이번 사건의 인용문 게재는 해당 정책과 일치하지 않는 방식으로 이루어졌다고 설명
- 최근 작업물을 검토한 결과, 추가적인 문제는 발견되지 않았으며, 현재로서는 단일 사건으로 보인다고 밝힘
AI 생성물 관련 규정
- Ars Technica는 AI가 생성한 자료의 게시를 원칙적으로 금지함
- 단, 명확히 표시되고 시연 목적일 경우에만 예외적으로 허용
- 이번 사건에서는 이 규정이 지켜지지 않았음
사과 및 후속 조치
- 매체는 이번 실패에 대해 독자들에게 사과하고, 허위 인용 피해자 Scott Shambaugh에게도 직접 사과함
- 편집진은 이번 일을 계기로 편집 기준을 강화하고 재발 방지를 약속함
결론
- Ars Technica는 이번 사건을 통해 AI 생성 콘텐츠의 검증과 투명성 확보의 중요성을 재확인함
- 편집 신뢰성 회복과 윤리적 보도 기준 유지를 위해 내부 절차를 강화 중임
Hacker News 의견들
-
전직 기술 저널리스트로서, 검증되지 않은 도구로 보도 실험을 할 때는 반드시 통제된 환경에서 결과를 세밀히 검토해야 함
시니어 에디터가 반드시 관여해야 하며, 논란이 적은 기사부터 시작하는 게 좋음
또, 기자가 아파서 글을 쓸 수 없는데도 회사 문화나 병가 정책 때문에 무리했다면, Ars는 내부적으로 성찰이 필요함- 처음엔 그런 암시가 기사에 없다고 생각했지만, 나중에 저자의 소셜 미디어를 보고 이해했음. 동의함
- 내가 아는 몇몇 쇠퇴 중인 매체에서는 에디터들이 가장 먼저 해고되었음. 그 후 품질이 급격히 떨어졌고, 악순환이 가속화되었음. 지금은 시니어 에디터조차 없는 경우도 많음
- 예전에는 주니어 기자가 인용, 날짜, 이름 등을 팩트체크하는 역할을 맡았던 것으로 기억함
- 고열로 아픈 상태에서 재택으로 일하다 보면 이런 실수가 충분히 일어날 수 있음. 오히려 조직이 아픈 사람의 원고를 그대로 받아들인 게 문제라고 봄
- 근본적으로는 사람들이 저널리즘을 공짜로 기대하는 문화가 문제라고 생각함. 구독료나 광고를 싫어하고, 아카이브 링크로 우회하는 태도가 기자들에게 과도한 부담을 줌. Ars의 문화도 문제지만, 더 큰 사회적 배경이 있음
-
Benj Edwards가 Bluesky에 올린 사과문을 통해 책임을 인정했음
일부 사정은 설명했지만, 전적으로 본인 책임이라고 함. 이번이 일회성인지는 두고 봐야 함- 문제의 핵심은 그가 열이 나는 상태에서 침대에 누워 일했다는 점임. Ars Technica의 근무 문화가 궁금해짐
- 사과문이 공감 유도부터 시작해 실수를 완화하려는 인상이었음. 진정성 있는 사과로 보긴 어려움
- 나는 Ars에 비판적이지만, 기자가 AI 도구를 실험하는 건 나쁘지 않다고 생각함. 다만 훨씬 신중했어야 함.
관련 코멘트에서도 말했듯, AI 회의적인 매체라도 도구의 한계를 직접 경험하는 건 필요함 - 호기심 많은 독자들이 과거 기사들을 뒤져보며 비슷한 사례가 있었는지 찾아볼 것 같음
- 이 사건은 특정 기자의 문제가 아니라, AI 도구 사용이 불러오는 반복적 오류에 대한 사회적 논쟁의 일부임
-
최근 관련된 HN 스레드 모음임
-
일부 구독자들이 Ars가 오류를 잡고 정직하게 철회했다고 과도하게 칭찬하는 게 이상했음.
사실 이건 기본적인 언론 윤리인데, 이번엔 당사자가 직접 댓글로 지적해서 밝혀진 것임- 그래도 수정하고 재발 방지를 약속한 건 긍정적으로 봄. 많은 조직이 그조차 안 함
- “다시는 이런 일 없을 것”이라고 명확히 밝힌 건 다른 매체보다 낫다고 생각함. 어떤 곳은 AI가 전체 기사를 생성하기도 함
-
Ars와 기자가 책임을 인정한 건 좋지만, 철회문의 표현이 아쉬웠음
“기준에 부합하지 않았다”보다는 “AI가 생성한 허위 인용문을 게재했다”고 명시했어야 함.
그래야 이전에 기사를 읽은 사람들이 잘못된 정보를 바로잡을 수 있음 -
어떤 부분이 조작되었는지 확인해봤음. 초반의 GitHub 인용문은 진짜였지만, 마지막 섹션의 인용문은 전부 가짜였음
원문은 Shambaugh의 블로그에서 가져온 것처럼 보였지만, 실제로는 존재하지 않는 문장들이었음
원본은 아카이브 링크에서 확인 가능함 -
철회된 기사 링크가 없다는 게 이상했음
관련 토론은 Ars 포럼에서 진행 중임
기사 원본은 웹 아카이브에서 볼 수 있음- 링크가 없는 게 의도적 세탁(whitewash) 같다고 느낌
- 하지만 철회된 기사에 링크를 다시 거는 건 철회의 의미를 무색하게 할 수도 있음
- 기사 저자는 Benj Edwards와 Kyle Orland로 명시되어 있음
-
앞으로 어떤 재발 방지 조치를 취할지가 궁금함.
왜 LLM 사용 사실을 공개하지 않았는지, 다른 기사에도 비슷한 사례가 있는지 의문임
이번 건은 인용이 가짜였기 때문에 들켰지만, 그렇지 않았다면 몰랐을 수도 있음- 결국 “실수였고, 앞으로 조심하겠다” 수준의 대응으로 보임
- 공식 입장은 “기사가 AI로 작성된 건 아니고, 인용 요약만 AI에 맡겼다”는 것임. 하지만 그 판단이 매우 경솔했음
-
Ars가 오랫동안 AI 의존의 위험성을 경고해왔다는 점에서 이번 사건은 특히 충격적임
인용 조작이 내부 정책에 어긋났고, 신뢰 회복은 쉽지 않을 것임
다행히 인용 대상자가 LLM 접근을 차단해둔 덕분에 AI의 환각(hallucination) 이 드러났음