AI가 오픈소스를 파괴하고 있다, 아직 제대로 작동하지도 않는데
(jeffgeerling.com)- 코드 머지를 거부한 것에 AI가 비난성 글을 게시하고, 허위 인용문 기사가 철회되는 등, AI가 오픈소스 생태계에 미치는 부정적 영향이 드러남
- 오픈소스 유지관리자들은 AI가 만든 부정확한 코드(PR)와 버그 리포트로 인해 검토 부담이 급증하고, 실제 유용한 제보 비율이 급감함
- GitHub은 이러한 문제로 인해 Pull Request 비활성화 기능을 도입할 정도로 상황이 악화됨
- AI 모델은 코드 생성 능력이 일정 수준에서 정체 상태(plateau) 에 이르렀으며, 인간 검토자들의 리소스는 한계에 도달함
- 글은 AI 열풍이 NFT·암호화폐 붐과 유사한 투기적 과열 양상을 보이며, 오픈소스와 기술 생태계를 훼손하고 있다고 경고함
AI와 오픈소스의 충돌
- Ars Technica는 AI가 생성한 허위 인용문(hallucinated quotes) 때문에 기사를 철회함
- 해당 인용문은 오픈소스 라이브러리 유지관리자 Scott Shambaugh에 대한 잘못된 내용이었음
- Shambaugh는 AI 에이전트가 자신의 코드 병합 거부를 이유로 비난성 글을 게시한 사건의 피해자였음
- 문제의 AI는 개인이 실행한 ‘agentic AI’ 인스턴스(OpenClaw 기반) 로 추정됨
- OpenClaw 개발자는 이후 OpenAI에 채용되어 “모든 사람에게 에이전트를 제공”하는 업무를 맡게 되었음
오픈소스 유지관리자들의 피해
- curl의 유지관리자 Daniel Stenberg는 AI 생성 버그 리포트의 품질 저하로 인해 버그 바운티 프로그램을 중단함
- 유용한 취약점 제보 비율이 15%에서 5%로 감소함
- 그는 “AI 사용자들이 실제 개선에는 참여하지 않고, 과장된 취약점을 주장하며 보상만 노린다”고 언급함
- Jeff Geerling 역시 300개 이상의 오픈소스 프로젝트를 관리하며 AI가 생성한 ‘slop PR’(불량 코드 제안) 이 급증했다고 밝힘
- GitHub은 이러한 문제로 인해 Pull Request 비활성화 설정 기능을 추가함
- 이는 GitHub의 핵심 기능이 제한되는 첫 사례로, 오픈소스 협업 구조의 근본적 위축을 의미함
AI 코드 생성의 한계
- AI 코드 생성은 일정 수준에서 정체 상태(plateau) 에 도달했으며, 품질 향상이 멈춘 상태임
- 코드 검토를 담당하는 인간 개발자들은 무한한 리소스를 가진 AI 기업과 달리 한계가 있음
- 일부는 AI가 코드 리뷰까지 대체할 수 있다고 주장하지만, Geerling은 생산 환경에서 검증되지 않은 AI 코드 사용은 위험하다고 경고함
- 개인용 실험 프로젝트에서는 허용될 수 있으나, 상용 서비스에는 부적합함
AI 열풍과 기술 생태계의 왜곡
- OpenClaw의 확산과 OpenAI의 ‘에이전트 대중화’ 추진은 문제 상황을 악화시킬 가능성이 있음
- Geerling은 현재의 AI 열풍이 암호화폐·NFT 붐과 유사한 비이성적 낙관과 투기적 과열을 보인다고 지적함
- LLM과 머신러닝은 실제 유용한 활용처가 있지만, 사기성 프로젝트들이 이를 명분으로 오픈소스 생태계를 훼손하고 있음
AI 산업의 과열 징후
- Western Digital은 2026년 하드디스크 재고가 이미 전량 소진되었다고 발표, AI 관련 수요 폭증이 원인으로 지목됨
- Geerling은 이러한 현상을 AI 버블의 전형적 징후로 보고, “AI 기업들이 대가를 치르기 전 얼마나 많은 것을 파괴할지”를 우려함
- 그는 AI가 아직 충분히 ‘좋지도 않은’ 상태에서 오픈소스의 신뢰와 협업 구조를 붕괴시키고 있음을 강조함
개인적 경험과 결론
- Geerling은 로컬 오픈모델을 활용해 자신의 블로그를 Drupal에서 Hugo로 이전하며 AI의 보조적 효용성을 인정함
- 그러나 모든 생성 코드를 직접 테스트·검토 후 배포했으며, 타 프로젝트에 기여할 경우 더 엄격한 검증이 필요하다고 언급함
- 그는 AI가 개발 효율을 높일 수 있으나, 검증 없는 자동화는 오픈소스 품질을 위협한다고 결론지음
Hacker News 의견들
-
단순히 오픈소스만의 문제가 아님. 고품질 정보원들이 과도하게 활용되며 손상되고 있음
StackOverflow는 사실상 죽었고(관련 글), 출판사들은 Internet Archive 접근을 제한하고 있음. 학술지는 가짜 논문과 LLM 기반 저품질 리뷰로 몸살을 앓고 있고, OpenStreetMap 같은 프로젝트는 스크래핑으로 큰 비용을 치르고 있음
데이터 마이닝에서 데이터 프래킹 시대로 넘어간 느낌임- StackOverflow는 ChatGPT 이전부터 꾸준히 하락세였음. 2014년 이후 지속적인 감소세였고, ChatGPT 이후의 급락은 일시적일 뿐 장기 추세는 같음
- Reddit도 AI로 인해 사실상 죽었음. API 변경이 GPT 초기 대응이었다고 기억함. 좋은 콘텐츠는 사라지고 AI 찌꺼기만 남음
- AI의 과대광고가 IT 산업 전체를 악화시키고 있음
- StackOverflow는 형편없는 질문과 관리자들의 오만함으로 스스로 무너졌음. 좋은 질문도 무조건 닫히고, 메타 포럼은 독선적인 사람들로 가득함. 반면 요리나 LaTeX 같은 소규모 SE 사이트는 여전히 잘 작동함
- AI가 인류를 멸망시키지 않더라도, 세대 최악의 파괴적 기술이 될 가능성이 큼. 이미 SNS와 도박성 앱으로 사회적 유대가 무너졌고, 우울·고립·극단주의가 증가했음. AI는 그나마 남은 긍정적 혁신마저 없애고 사회적 불안을 극대화할 것 같음
-
나는 취미로 코드를 쓰는데, 요즘은 대부분 LLM을 활용함. 내 프로젝트는 사용자도 없고, 그게 괜찮음
하지만 오픈소스에 기여할 때는 다름. 예전엔 초보자도 멘토링을 받으며 성장했지만, LLM 이후엔 대화가 안 됨. 마치 Pixar 영화 Ratatouille의 Linguini처럼, 배우려는 열정 없이 텍스트박스에 넣고 결과만 보는 사람들임.
각자 자기 부엌(프로젝트)을 더럽히지 말고, 공감을 가지고 접근했으면 함- OSS는 PR을 검토할 사람이 부족함. 자동 리뷰 에이전트를 써도 비용이 커서 대부분 감당 불가함
- LLM은 개인 프로젝트엔 좋지만, 운영비가 비싸서 결국 모든 곳에 끼워 넣을 수밖에 없는 구조임
- 오픈소스의 목적이 코드 자체가 아니라 공동체 구축이라면, AI가 새로운 형태의 커뮤니티 제품을 만들 수도 있음
- 그래서 GitHub에 PR 차단 기능이 도입되는 중임
- 나는 항상 이슈를 먼저 열고, 그다음 PR을 보냄. 유지보수자가 방향을 잡아주면 여러 번 수정하는 걸 당연히 기대함
-
AI의 확산은 마치 정교한 DDoS 공격 같음. 서버뿐 아니라 사람의 주의력과 자원을 소모시키고 있음.
AI 콘텐츠는 대부분 저품질이라 인간의 피로도가 큼. 언젠가 유용해질 수 있겠지만, 지금은 과도기적 혼란기임- AI는 생산성 코스프레를 한 소비 행위임. 직접 무언가를 만드는 공간에는 해로움
- 충분히 발전한 기술은 언제나 사회에 DDoS처럼 작용함. 지금은 그 충격을 견디는 시기임
-
코드 리뷰는 원래도 병목이었는데, 테스트 안 된 코드가 늘어나면 유지보수자 부담이 폭증함.
오픈소스는 장기 호환성을 위해 코드 품질 보장이 필수임- 그래서 과거엔 페어 프로그래밍이 등장했지만, 사람들은 서로 협업하기보다 기계와 일하길 더 선호함
-
LLM이 인터넷을 저품질 콘텐츠로 오염시키고 있음. 앞으로 학습 데이터로 쓸 수 있을지도 의문임
- AI가 인터넷을 망친 게 아니라, 이미 광고 중심의 주의력 경제가 망치고 있었음. AI는 그 과정을 가속화했을 뿐임
- AI는 도구일 뿐, 노력의 질에 따라 결과가 달라짐. 대충 만든 결과물이 문제임
- 내가 좋아했던 인터넷은 대부분 비영리적 콘텐츠였음. 광고 수익을 노린 관심경제가 진짜 파괴자였음
- 콘텐츠 플랫폼의 경제 구조가 이미 인터넷을 망치기 시작했음. ‘좋은 콘텐츠는 승리한다’는 믿음이 깨졌음
- LLM 이전에도 Microsoft 포럼이나 자동 생성 유튜브 영상처럼 무의미한 정보 홍수는 이미 존재했음
-
문제의 본질은 AI가 아니라 노력의 비대칭성임. 예전엔 나쁜 PR을 만들려면 최소한의 수고가 필요했지만, 지금은 클릭 몇 번이면 가능함
유지보수자에게는 기술적·사회적 필터링 도구가 필요함. 이메일 스팸처럼 기술+정책 혼합 접근이 필요함- 하지만 노력의 비대칭성은 AI의 존재 이유 그 자체임. 결국 문제는 AI임
- LLM도 가이드라인을 읽을 수 있으니 단순한 퀴즈식 필터는 오래 못 감. 이메일 기반 PR 같은 마찰이 높은 방식이 더 나을 수 있음
- API를 통한 PR 생성을 막는 옵션 기능이 필요함
- LLM이 익명성 기반 시스템의 종말을 가져올 것 같음. 실명 기반 계정 연결이 스팸과 봇 문제를 줄일 수 있음
-
나는 주말에 Microsoft의 Golang 버전 sqlcmd에서 버그를 발견하고 Claude로 수정함.
이런 식의 의도 있는 기여는 생태계에 긍정적임- 하지만 수정이 진짜 해결인지, 새 버그를 만든 건지는 검증이 필요함. 유지보수자는 전체 영향을 확인해야 함
- 기여자의 의도와 품질을 판단하는 데 인간의 시간과 노력이 많이 듦
- LLM이 문제인 건, 테스트 없이 PR을 던지는 사람들 때문임. 결과물이 아니라 산출물만 추구함
- 네가 직접 테스트하고 제출했다면, 그건 예전 방식과 다르지 않음. 문제는 자동화된 무책임한 PR임
- 긍정적인 사례임. 사람이 책임을 지고 AI를 도구로 쓴다면 괜찮음
- 그 PR 링크가 궁금함
-
2020년엔 학생들이 티셔츠 받으려고 README 한 줄 수정하는 PR을 쏟아냈음. AI 없이도 오픈소스는 이미 과부하 상태였음
세대 간 멘토링이 끊기고, 생태계가 불안정하고 취약해졌음.
그래도 오픈소스는 죽지 않음. 누군가 자기 방에서 만든 프로젝트를 공유하는 한 살아 있음.
기여 가이드 템플릿, 자동화된 버그 리포트 도구, 신규 유지보수자 교육 같은 표준화가 필요함.
PR과 이슈를 꺼도 괜찮음. GitHub를 꼭 쓸 필요도 없음- 하지만 AI가 발견성과 커뮤니티를 파괴할 수 있음. GitHub는 완벽해서가 아니라 사람들이 모여 있기 때문임
- 이제는 AI 에이전트가 스스로 프로젝트를 만들고 공유할 수도 있음
- 과거에도 교육 영상 하나로 수많은 사람들이 의미 없는 PR을 날리는 일이 있었음
-
“AI 발전이 정체됐다”는 말은 이상함. 최근 몇 달만 봐도 Opus 4.5, 4.6, Codex 5.3 등 급격한 개선이 있었음
METR 그래프를 보면 2024년엔 잠시 둔화됐지만 2025년엔 다시 추세선을 넘었음- 그 ‘정체’라는 글은 Opus 4.5 출시 두 달 전 글임. 실제로는 정체가 아님
- 반(反) LLM 진영에서 이런 주장을 자주 보지만, 진보 속도는 여전히 빠름. 양쪽 진영 모두 증거를 무시하는 문화전쟁처럼 변한 게 아쉬움
- 1년 단위로 보면 체감 개선이 적을 수도 있음. 일부 프로젝트는 여전히 생산 수준에 못 미침
-
인터넷은 예전엔 즐거운 공간이었지만, 광고와 SNS가 창의성과 협업을 죽였음.
예전엔 밤새 피자 먹으며 디버깅하던 열정이 있었는데, 지금은 너무 지루함- 여전히 예전처럼 취미 프로젝트를 즐길 수 있음. 다른 사람들이 LLM으로 노는 게 내 즐거움을 빼앗는 건 아님. 각자 즐기면 됨
- AI는 현재 비사회적 사용 중심이지만, 협업을 돕는 방향으로 발전할 수도 있음
- 웹은 1994년 첫 배너 광고부터 상업화되어 있었음. 광고 기반 구조는 새로울 게 없음
- 나 같은 세대는 AOL이 인터넷을 망쳤다고 느꼈음. AI도 결국 받아들여야 할 변화임
- “AI가 창의성을 죽였다”는 말은, 마치 다약제 치료가 나병 환자 공동체의 연대를 없앴다고 말하는 것과 같음