2P by GN⁺ 1일전 | ★ favorite | 댓글 1개
  • 위키에듀케이션은 2025년 동안 생성형 AI(ChatGPT 등) 가 위키백과 편집에 미치는 영향을 체계적으로 조사함
  • AI 탐지 도구 Pangram을 활용해 2022년 이후 작성된 3,078개 문서를 분석한 결과, 178개 문서가 AI 작성으로 의심되었으며 그중 3분의 2 이상이 검증 실패로 판명됨
  • 이에 따라 프로그램 참가자 교육을 강화하고, AI 사용 지침과 실시간 탐지 시스템을 도입해 AI 생성 텍스트의 직접 복사·붙여넣기를 차단함
  • AI는 문서 초안 작성에는 부적합하지만, 자료 탐색·출처 찾기·내용 공백 파악 등 연구 단계에서는 유용하게 활용 가능함
  • 위키에듀케이션은 AI 탐지 자동화와 편집자 교육 확대가 위키백과의 신뢰성을 유지하는 핵심이라고 강조함

생성형 AI와 위키백과의 관계

  • 위키에듀케이션은 영어 위키백과 신규 활성 편집자의 약 19%를 담당하며, 생성형 AI의 영향과 위험을 분석함
    • ChatGPT, Gemini, Claude 등 챗봇이 일상화되면서 위키백과 편집에도 활용 시도가 증가
    • 조직은 참가자들의 AI 사용 행태를 평가하고 그 결과를 공개함
  • 결론적으로, AI 출력물을 그대로 복사해 위키백과에 붙여넣어서는 안 됨이라는 원칙을 제시

AI 탐지와 검증 결과

  • 2022년 ChatGPT 출시 이후 작성된 문서 중 178개가 Pangram에 의해 AI 작성으로 탐지
    • 2022년 이전에는 AI 사용 흔적이 없었으며, 이후 점진적으로 증가
  • 7%만이 가짜 출처를 사용, 나머지는 실제 출처를 인용했으나 2/3 이상이 검증 실패
    • 인용된 출처에 해당 정보가 존재하지 않아 사실 여부 확인 불가
  • 위키에듀케이션은 검증 실패 문서 정리 작업에 상당한 인력 투입
    • 일부 문서는 ‘stub’ 처리, 일부는 삭제 제안(PROD), 일부는 복구 불가로 판단

프로그램 개선과 AI 탐지 시스템

  • Pangram의 지원으로 참가자 편집을 실시간 분석하는 체계를 구축
    • 자체 Dashboard 플랫폼을 통해 편집 추적 및 자동 알림 기능 운영
  • 새 교육 모듈 “Using generative AI tools with Wikipedia” 를 도입
    • AI 사용 가능 영역과 금지 영역을 명확히 구분
    • “AI 텍스트를 복사·붙여넣지 말 것”을 핵심 메시지로 강조
  • 2025년 하반기 1,406건의 AI 편집 경고 중 22%만이 실제 문서 공간에서 발생
    • 대부분은 연습용 샌드박스 단계에서 탐지됨
  • Pangram은 서식·목록 등 비문장형 텍스트에서 일부 오탐(false positive) 을 보였으나, 본문 문장 분석에서는 높은 정확도 유지

AI 사용 행태와 교육 효과

  • 2025년 가을 학기 6,357명 중 5%만이 실제 문서에서 AI 탐지, 대부분 수동 또는 자동으로 되돌림
    • 참가자, 강사, 위키 전문가가 협력해 AI 생성 텍스트를 제거
  • 강사들은 ‘검증 가능성(verifiability)’ 을 중심으로 학생 작업을 평가
    • AI가 생성한 문장은 사실 검증이 불가능해 위키백과에 부적합함을 확인
  • Pangram 기반 조기 개입으로 AI 사용률을 예상치 25%에서 5%로 감소시킴

AI의 긍정적 활용 가능성

  • AI는 문서 공백 식별, 출처 탐색, 자료 접근 경로 제시 등 연구 단계에서 유용
    • 7개 수업에서 102건의 사용 보고 중 87%가 유용하다고 응답
    • 가장 많이 사용된 도구는 ChatGPT, 그 다음은 Grammarly
  • 학생들은 AI를 문장 교정, 카테고리 제안, 초안 평가 등에 활용
    • 단, AI로 본문을 작성한 사례는 없음
  • AI 결과를 비판적으로 검토할 때만 도움이 되며, 인간의 판단이 필수적임을 강조

위키에듀케이션의 결론과 향후 계획

  • 현재 수준의 생성형 AI는 검증 불가능한 텍스트를 생성하므로 위키백과 본문 작성에 부적합
    • AI가 생성한 문장을 검증하는 데 드는 시간이 직접 작성보다 많음
  • 그러나 자료 탐색·아이디어 발굴 등에서는 보조 도구로 활용 가능
  • Pangram 탐지 시스템을 2026년에도 유지·개선 예정
  • 참가자들의 AI 리터러시 부족을 확인하고, 대형 언어모델(LLM) 교육 모듈을 추가 제공
  • 프린스턴대 등과 협력해 AI 도입 전후 학생 편집 변화 연구 진행 중
    • Pangram이 2015~2022년 편집을 100% 인간 작성으로 정확히 식별함을 확인

위키백과 전체에 대한 시사점

  • 전 세계 성인 중 10%가 ChatGPT를 사용, 그중 상당수가 텍스트 작성에 활용
    • 초보 편집자들이 AI 생성 내용을 검증 없이 추가할 위험 존재
  • Pangram 같은 자동 탐지 도구가 위키백과 품질 유지에 필수
    • 현재는 수동 배너 표시만 가능하나, 자동화된 검출 시스템 필요
  • 신규 편집자 대상 AI 사용 경고 및 출처 중심 편집 교육 강화 제안
    • 위키미디어재단의 편집 지원 소프트웨어도 인간 중심 요약 방식을 우선해야 함
  • 위키백과가 기술 변화에 적응하며 신뢰성 유지를 위해, AI 시대에 맞는 정책과 도구 개발이 중요함
Hacker News 의견들
  • 위키피디아에는 예전부터 출처 검증 실패 문제가 만연해 있었음
    최근 들어 그 빈도가 늘었다는 증거는 찾기 어려움
    대부분의 작성자는 자신이 아는 내용을 쓰고, 나중에 그럴듯한 인용을 최소한으로 붙이는 식으로 작성하는 듯함
    페이지의 전문성 수준이나 주제의 니치함에 따라 신뢰도가 달라지는 느낌임

    • 최근 Changelog 팟캐스트 에피소드에서 실시간으로 이런 사례가 있었음
      진행자들이 자신들이 “GitHub 출신”으로 잘못 표기된 걸 발견했고, 게스트가 녹음 중에 위키피디아 인용을 수정함
    • 내가 겪은 문제는 두 가지임. 하나는 가짜 인용이고, 다른 하나는 인용은 진짜지만 출처가 신뢰할 수 없는 사람에게서 나온 경우임
      이런 문제를 지적하면 일부 편집자들은 “위키피디아는 신뢰할 만하다”고 주장함
      이런 인식이 바뀌지 않으면 개선은 어려울 것 같음
    • LLM은 인간보다 훨씬 높은 빈도로 근거 없는 결론을 추가할 수 있음
    • 사실 이런 인용 검증은 AI가 자동으로 탐지하고 인간이 검토하도록 플래그를 다는 데 활용될 수도 있을 것 같음
    • 많은 문서들이 인용이 거의 없거나, 잘못된 인용으로 결론이 왜곡되는 경우가 많음
      예를 들어 물 분자의 행동을 잘못 해석한 사례처럼 말임
  • 기사에서 세 번이나 “생성형 AI의 출력은 복붙하지 말라”고 강조함
    나도 비슷한 경험을 했음. 처음엔 놀라울 정도로 그럴듯하지만, 곧 허상과 잡음이 많다는 걸 깨닫게 됨
    그래도 아이디어 발상이나 브레인스토밍에는 꽤 유용함

  • 내가 제목을 선택한 이유는 기사 핵심을 강조하기 위함임
    “플래그된 문서의 3분의 2 이상이 검증에 실패했다”는 문장이 특히 인상적이었음

    • 정치 관련 문서에서는 예전부터 이런 문제가 흔했음
      직접 인용을 검증해보면 엉터리 출처가 많음
      AI가 문제를 악화시킬 수는 있지만, 인간의 악의적 편집도 여전함
    • 원래 제출된 제목은 “플래그된 문서 대부분이 검증에 실패했다”였음
      그 표현이 핵심을 잘 담고 있다고 생각함
    • 사람도 근거 없는 내용을 쓰지만, LLM은 속도와 규모 면에서 훨씬 빠름
      AI 이전의 인용 오류율이 어느 정도였는지 비교 데이터가 궁금함
  • 이 기사는 위키피디아 전체가 아니라 Wiki Edu 프로그램을 통한 편집만 다룸
    즉, 대학생들이 수업 과제로 작성한 문서에 대한 이야기임

    • 학생들에게 위키피디아 편집을 강제로 시키면, 열정 없이 작성된 품질 낮은 결과물이 나오는 건 당연함
      결국 문제는 위키피디아보다 대학 내 AI 사용 습관에 더 가까움
    • 이건 학생들이 논문 쓸 때 그럴듯한 인용만 찾아 붙이는 습관과도 비슷함
      심지어 박사 과정 학생들조차 이런 식으로 글을 쓰는 걸 보면 안타까움
    • Wiki Edu 편집 문서 중에는 창의적 글쓰기 과제처럼 보이는 것도 있었음
      출처를 읽어보면 어색하게 의미를 오해하거나 잘못 요약한 경우가 많았음
      LLM은 이런 학생들의 “점수용 글쓰기”에 딱 맞는 도구임
  • 위키피디아 문제를 넘어, 전 세계 수백만 명이 LLM으로 텍스트를 만들고 그중 일부가 사실처럼 소비되는 현상이 더 큰 문제임
    LLM은 진실에 대한 의무가 없고, 오직 문법적 일관성에만 충실함

    • 사실 LLM은 문법적 일관성조차 아니라, 대중적으로 통용되는 문체에 맞추려는 경향이 있음
      그게 우연히 맞을 때도 있지만, 항상 불안정함
  • 일부 문서만 봐도 봇 작성 비율이 실제보다 적게 탐지된 것일 수도 있음
    즉, 검증에 실패한 문서만 탐지되었을 가능성이 있음

    • Pangram이라는 분류 모델은 인간이 쓴 텍스트와 여러 LLM이 쓴 텍스트를 비교해 학습한 텍스트 분류 신경망
      자세한 내용은 논문 PDF에서 볼 수 있음
  • LLM 제공자 입장에서는 공유 자원 오염 같은 비극임
    위키피디아가 학습 데이터의 큰 비중을 차지하는데, 왜 스스로 오염시키는지 의문임
    위키피디아에서 AI 사용을 금지하는 정책이 생기면 흥미로울 듯함

    • 문제의 주체는 AI 제공자가 아니라 사용자들
      GitHub에서도 같은 일이 벌어지고 있음
    • 하지만 이런 인용 오류는 LLM 이전부터 존재했음
      위키피디아뿐 아니라 다른 곳에서도 출처가 주장과 맞지 않는 인용은 흔함
    • 결국 이런 문제를 일으키는 건 개인 사용자들
  • 진짜 유용한 기능은 편집 가이드라인을 묻는 챗봇일 것 같음
    현재는 경험 많은 편집자들조차 토론 페이지에서 규칙을 제멋대로 해석
    “일단 되돌리고 나중에 이유를 붙이는” 문화가 초보자에게 큰 장벽이 됨
    이런 부분은 봇이 즉시 반박해줄 수 있을 것 같음

  • 또 다른 문제는 Grokipedia 같은 AI 기반 위키임
    겉보기엔 위키피디아보다 세련되고 모바일 친화적이지만, 의도적으로 왜곡된 정보를 담고 있음
    일부 거대 기업이나 정치 세력이 민주주의적 정보원을 약화시키려는 목적이 있을지도 모름
    위키피디아가 이런 공격의 표적이 되지 않도록 주의해야 함

  • AI 스팸이 품질을 떨어뜨리는 건 맞지만, 근본적으로는 위키피디아의 품질 관리 문제
    검토 과정이 느리고, 새 정보가 맞는지 보장도 없음
    AI 스팸이 사라져도 품질 관리가 개선되지 않으면 의미가 없음
    위키피디아는 평균적인 독자 수준에 맞춰 명확히 설명하는 방향으로 품질 관리 체계를 다시 세워야 함