GN⁺: 대형 언어 모델, 온라인 Q&A 플랫폼에서 공공 지식 공유 감소
(academic.oup.com)요약
-
대형 언어 모델(LLM)의 영향
대형 언어 모델(LLM)은 인간이 생성한 데이터와 지식 자원의 대체 가능성을 가지고 있음. 그러나 이러한 대체는 미래 모델 개발에 필요한 훈련 데이터의 감소로 이어질 수 있는 문제를 제기함. 이 연구에서는 ChatGPT의 출시와 함께 Stack Overflow의 활동이 감소했음을 문서화함. -
ChatGPT의 영향
ChatGPT 출시 후 6개월 이내에 Stack Overflow의 활동이 러시아 및 중국의 유사 플랫폼과 수학 포럼에 비해 25% 감소함. 이는 ChatGPT가 Stack Overflow에 미치는 진정한 영향의 하한으로 해석됨. 가장 널리 사용되는 프로그래밍 언어와 관련된 게시물에서 감소가 더 큼. -
LLM의 대체 효과
LLM은 중복되거나 낮은 품질의 콘텐츠뿐만 아니라 고품질 콘텐츠도 대체하고 있음. ChatGPT 사용자는 Stack Overflow에 게시할 가능성이 낮고 플랫폼을 정기적으로 방문하지 않음. 이는 LLM의 빠른 채택이 훈련에 필요한 공공 데이터의 생산을 감소시켜 중요한 결과를 초래할 수 있음을 시사함. -
프로그래밍 언어별 영향
Python과 Javascript와 같은 널리 사용되는 언어에서 ChatGPT의 영향이 더 큼. CUDA와 같은 특정 언어에서는 ChatGPT 출시 후 게시물이 증가함. 이는 AI와 관련된 소프트웨어에 대한 관심이 증가하고 있음을 보여줌.
GN⁺의 정리
- 이 연구는 ChatGPT와 같은 대형 언어 모델이 온라인 Q&A 플랫폼에 미치는 영향을 분석함으로써, AI의 빠른 채택이 공공 데이터의 생산에 미치는 부정적 영향을 강조함.
- ChatGPT의 사용이 증가함에 따라 Stack Overflow와 같은 플랫폼의 활동이 감소하고, 이는 미래 AI 모델의 훈련 데이터 품질에 영향을 미칠 수 있음.
- 이러한 변화는 디지털 경제와 정보 접근 방식에 중요한 영향을 미칠 수 있으며, 이는 AI 생태계의 지속 가능성에 대한 우려를 제기함.
- 유사한 기능을 가진 다른 프로젝트로는 GitHub의 프로그래밍 언어 관련 리포지토리들이 있음.
Hacker News 의견
-
LLM이 새로운 정보를 생성하지 않고 기존 정보를 재조합하는 문제점이 있음. 코드 샘플이 부족한 경우 성능이 저조함
- Stack Overflow와 같은 플랫폼에서 질문을 하지 않으면 답변도 하지 않게 됨
- Stack Overflow와 같은 Q&A 포럼은 사용자의 흐름에 답변을 통합하는 기능을 개선해야 함
-
LLM이 공개 지식 공유를 줄이고 있다는 주장에 대해 의문을 제기함
- 제시된 데이터가 충분히 강력하지 않음
- 좋은 질문은 감소세에서 평평해졌고, 중립적인 질문은 증가세에서 평평해짐
- 나쁜 질문은 계속 감소 중이며, 이는 LLM이 저품질 콘텐츠를 대체하고 있음을 시사함
-
오픈 소스 프로젝트에 대한 질문이 GitHub와 Discord로 이동함
- LLM이 시간을 절약해 줌
-
Stack Overflow의 무료 기여가 줄어드는 이유는 OpenAI API 계약과 AI 관련 블로그 게시물 때문임
-
AGI에 도달하면 LLM이 "이 채팅은 중복으로 표시되었습니다"라고 말할 것임
-
LLM이 지식과 담론의 범위를 좁힐 수 있음
- LLM에게 농담을 요청하면 동일한 농담을 반복하는 경향이 있음
-
기술적 상호작용이 줄어들면 현실 세계에서의 상호작용에도 영향을 미칠 수 있음
- AI와 인간의 조언을 비교하는 방법에 대한 의문이 제기됨
-
LLM이 온라인 Q&A 플랫폼에서 학습하지만 사람들이 질문과 답변을 중단하면 지식의 출처가 부정확한 LLM 데이터로 오염될 수 있음
-
Stack Overflow에 자동으로 기여하고 솔루션에 자동으로 업보트를 주는 에이전트가 필요할 수 있음