# 합법이면 공정한가: AI 재구현과 카피레프트의 침식

> Clean Markdown view of GeekNews topic #27360. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27360](https://news.hada.io/topic?id=27360)
- GeekNews Markdown: [https://news.hada.io/topic/27360.md](https://news.hada.io/topic/27360.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-03-10T10:33:38+09:00
- Updated: 2026-03-10T10:33:38+09:00
- Original source: [writings.hongminhee.org](https://writings.hongminhee.org/2026/03/legal-vs-legitimate/index.ko-hang-kr.html)
- Points: 8
- Comments: 1

## Summary

AI로 재구현된 **chardet 7.0**이 LGPL에서 MIT로 전환되며, 오픈소스의 **법적 합법성과 사회적 정당성**을 둘러싼 논쟁이 촉발되었습니다. GNU의 재구현이 사유 소프트웨어를 자유로 확장했던 것과 달리, 이번 변화는 **공유지의 보호 장치를 해체**하는 방향으로 작동합니다. 글은 AI가 카피레프트를 우회하기 쉬워진 시대일수록, **공유지로부터 얻은 자는 다시 공유지에 돌려줘야 한다**는 원칙이 더욱 중요하다고 지적합니다.

## Topic Body

- Python 문자 인코딩 감지 라이브러리 **chardet**가 AI를 이용해 재구현되며 **LGPL에서 MIT로 변경된 사례**가 오픈소스 윤리 논쟁을 촉발함  
- **AI 재구현의 합법성**을 인정하는 의견이 나왔지만, 글은 **법적 허용과 사회적 정당성은 다르다**는 점을 강조함  
- GNU와 Linux의 역사적 재구현은 **사유에서 자유로의 확장**이었으나, 이번 사례는 **공유지의 보호를 약화시키는 방향**으로 작동함  
- **GPL의 공유 조건**은 제한이 아니라 상호적 공유를 보장하는 장치이며, **MIT식 자유**는 자본이 많은 쪽으로만 흐르는 비대칭적 구조를 초래함  
- AI가 카피레프트를 우회하기 쉬워진 시대일수록, **공유지로부터 얻은 자는 다시 공유지에 돌려줘야 한다는 원칙**이 더욱 중요함  

---

### chardet 7.0의 AI 재구현과 라이선스 변경
- Python의 **chardet 라이브러리**가 Anthropic의 **Claude**를 이용해 완전히 새로 작성됨  
  - 새 버전은 이전보다 **48배 빠르고 멀티코어 지원**을 추가  
  - 코드 유사도는 **1.3% 미만**으로 측정되어 독립적 저작물로 간주됨  
- 기존 **LGPL 라이선스**에서 **MIT 라이선스**로 변경되어, 소스 공개 의무가 사라짐  
- 원 저자 **Mark Pilgrim**은 GitHub 이슈를 통해 **LGPL 위반 가능성**을 제기  
  - AI가 기존 코드 기반에 노출된 상태에서의 재구현은 **‘클린룸’ 방식으로 보기 어렵다**는 주장  

### 오픈소스 인사들의 상반된 반응
- **Armin Ronacher(Flask 창시자)** 는 재라이선스를 환영하며, **GPL이 공유 정신에 반한다**고 주장  
- **Salvatore Sanfilippo(antirez, Redis 창시자)** 는 **AI 재구현의 합법성**을 옹호하며 GNU 역사와 저작권법을 근거로 제시  
- 두 사람 모두 **법적 허용을 정당성으로 등치**하지만, 글은 **법과 윤리의 간극**을 문제로 제시  

### GNU 역사와 방향성의 차이
- GNU의 재구현은 **사유 소프트웨어를 자유 소프트웨어로 전환**하는 과정이었음  
  - 법적 허용이 아니라 **공유지 확장이라는 윤리적 방향성**이 핵심이었음  
- 반면 chardet 사례는 **카피레프트 보호를 제거**하고, **공유지의 울타리를 해체**하는 방향으로 작동  
  - chardet 7.0을 기반으로 한 파생물은 더 이상 **소스 공개 의무**를 지지 않음  
- antirez는 이 **방향성의 반대성**을 간과하고, GNU의 전례를 잘못된 근거로 사용함  

### GPL과 공유의 의미
- Ronacher는 GPL이 공유를 제한한다고 주장하지만, 글은 이를 **근본적 오해**로 지적  
  - GPL은 **배포 시에만** 소스 공개를 요구하며, 개인적 사용에는 제약이 없음  
  - 이는 **공유의 상호성**을 보장하는 장치로, 공유를 억제하는 것이 아님  
- **MIT 라이선스**는 코드 수취자는 자유롭지만, **기여를 되돌려줄 의무가 없음**  
  - 결과적으로 **자본과 인력이 많은 쪽으로만 혜택이 집중**되는 구조  
- 1990년대 GPL 코드가 기업에 흡수되던 사례는 **카피레프트 강화의 필요성**을 보여줌  

### 자기모순적 사례: Vercel과 Cloudflare
- **Vercel**이 AI로 **GNU Bash를 재구현**한 뒤, **Cloudflare가 Next.js를 재구현**하자 불쾌감을 표출  
- Next.js는 MIT 라이선스이므로 **법적 문제는 없었음**  
- 이는 “GPL을 MIT로 바꾸는 건 공유의 승리”라면서도, **자신의 코드가 재구현되면 반발하는 모순**을 드러냄  
- Ronacher는 이를 인정하면서도 결론을 바꾸지 않아, **논리보다 입장에 맞춘 결론**으로 평가됨  

### 합법성과 정당성의 구분
- 법은 **금지하지 않는 행위**를 규정할 뿐, **옳음을 보증하지 않음**  
  - 세금 회피나 약값 인상처럼 합법이지만 **비사회적 행위**가 존재  
- chardet의 LGPL은 단순한 법적 장치가 아니라 **12년간의 사회적 약속**이었음  
  - “이 코드를 사용하면 같은 조건으로 공유한다”는 신뢰 기반의 계약  
- AI 재구현이 법적으로 새 작품이라 해도, **기여자들과의 신뢰를 깨뜨린 행위**임  
- **FSF의 Zoë Kooyman**은 “자신이 받은 권리를 타인에게 주지 않는 것은 비사회적 행위”라고 명시  

### 시각의 비대칭성
- antirez와 Ronacher는 **중심적 오픈소스 인물**로, AI 재구현이 **자신들에게 유리한 환경**을 의미  
- 반면 chardet 기여자들에게는 **기여 보호의 상실**로 작용  
- 이 비대칭을 무시한 채 “법적으로 문제없다”고 말하는 것은 **분석이 아니라 합리화**로 평가됨  

### 카피레프트의 미래와 사회적 판단
- **Bruce Perens**는 “소프트웨어 개발의 경제학이 끝났다”고 경고  
  - antirez는 “적응해야 한다”, Ronacher는 “흥미롭다”고 반응  
- 그러나 핵심은 “**카피레프트가 우회되기 쉬워질수록 더 필요해지는가**”라는 질문  
  - 글은 “**그렇다**”고 단언  
- GPL은 코드의 희소성이 아니라 **사용자의 자유**를 보호  
  - AI로 재구현이 쉬워질수록 **카피레프트 제거의 마찰도 줄어듦**  
- “공유지에서 얻은 자는 공유지에 돌려줘야 한다”는 원칙은 **시간이나 기술 변화와 무관한 사회적 규범**  
- 법은 느리게 변하지만, **공동체의 가치 판단이 먼저 움직여 왔음**  
  - GPLv2→v3→AGPL로의 진화도 **법보다 공동체의 판단이 선행**  
- AI 시대에는 **테스트 스위트와 API 명세까지 카피레프트 보호 대상**으로 확장해야 함  
- 결론적으로, **법적 판결이 아니라 사회적 판단**이 먼저 내려져야 하며,  
  **합법성은 정당성을 대체할 수 없음**을 강조함

## Comments



### Comment 52740

- Author: neo
- Created: 2026-03-10T10:33:38+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47310160) 
- 이제 **명세(specification)** 만으로 소스코드를 생성할 수 있다면, GPL 프로젝트의 핵심 지적 자산은 명세에 존재하게 됨  
  과거에는 기업 소프트웨어를 모방해도 법적으로 허용되도록 싸워왔는데, 지금은 그 권리를 스스로 포기하고 **지식재산권자**에게 더 많은 통제권을 주려는 상황임  
  이런 흐름은 반(反)대기업적이거나 공유 친화적인 결과로 이어지지 않을 것임. 결국 이 권력을 행사할 주체는 대기업일 것임
  - 이건 예전에 있었던 **Oracle vs Google API 소송**과 매우 유사하게 들림
  - 하지만 과거의 개발자들은 자신들의 작업물을 학습한 **생성형 AI**와 경쟁하지 않았음  
    지금은 시대가 완전히 달라졌음. 인용된 주장은 이미 비판받은 논점을 반복하는 것임.  
    이 논의에 동의한다면, 꼭 원문 기사를 직접 읽어보길 권함

- 내가 흥미롭게 보는 지점은, 이 현상이 단순히 저작권을 넘어 **지식재산권(IP)** 개념 자체를 무너뜨릴 수 있느냐는 것임  
  IP는 ‘창의성이 어렵다’는 전제 위에 세워졌는데, LLM은 이제 수학 증명, 신약 설계 등 거의 모든 **지식 창출**을 자동화하고 있음  
  그렇다면 더 이상 ‘어렵지 않은’ 창작물에 독점권을 줄 이유가 있을까? 결국 AI는 특허조차 단순한 제약 조건으로 처리하며 우회할 것임
  - 그래도 인간이 만든 결과물에는 여전히 보호가 필요하다고 생각함  
    현재 법적으로 **AI 산출물은 저작권 보호 대상이 아님**, 인간의 실질적 개입이 있어야만 보호받을 수 있음  
    인간이 노력한 결과물은 대기업이 공짜로 가져가지 못하도록 보호해야 함
  - 저작권은 노력의 양이 아니라 **독창성과 표현**에 관한 것임. 미국법은 ‘노력의 땀(Sweat of the Brow)’ 원칙을 인정하지 않음
  - 이제 IP는 엘리트가 독점한 왜곡된 개념이 되었음. **Disney의 Mickey Mouse** 이후로 모든 게 내리막이었음
  - 아마도 지금은 과도기일 뿐임. 예전엔 어려웠던 문제들이 쉬워지고, 우리는 더 어려운 문제로 눈을 돌릴 것임  
    다만 그 문제를 푸는 주체가 인간이 아닐 수도 있음
  - 사실 IP는 처음부터 **숫자의 소유권**이라는 모순된 개념이었음  
    컴퓨터가 등장한 순간 이미 무의미해졌지만, 로비로 연명해왔음.  
    이제 AI가 그 **관짝에 마지막 못을 박을**지도 모름.  
    결국 중요한 건 모델의 **가중치(weights)** 이며, 모두가 접근할 수 있도록 공개되거나 강제로라도 풀려야 함

- 누군가 이걸 실제로 시험해봐야 함  
  유출된 **Minecraft 소스코드**를 Copilot에 입력해 다른 언어로 완전히 동일한 복제본을 만들고 오픈소스로 공개해보는 것임  
  과연 Microsoft가 그걸 저작권 침해라고 주장할지 궁금함
  - 하지만 그건 단순한 **포팅**이라 침해 가능성이 높음.  
    대신 “처음부터 Minecraft를 구현하라”고 해야 함.  
    단, 텍스처나 모델을 재사용할 수 없으니 AI가 새로 생성해야 함
  - 진짜 흥미로워질 건 AI가 **바이너리 디컴파일**까지 할 수 있게 될 때임
  - 이런 방식이야말로 그들의 무기를 그들 자신에게 돌려주는 방법이라 생각함
  - 핵심은, 학습 데이터에 저작권 있는 자료가 포함됐다면 그 **출력물**이 침해에 해당하느냐임  
    네 예시는 훨씬 명확한 침해 가능성을 가진 사례임
  - 지금 가장 중요한 질문임.  
    만약 LLM을 이용해 유출된 **Windows 소스코드**의 라이선스를 제거하고 WINE용 코드를 만든다면?  
    최근엔 LLM을 이용한 **바이너리 디컴파일** 시도도 활발히 논의되고 있음

- 오픈소스 진영의 두 인물이 논쟁에 참여했지만, 둘 다 **IP 변호사**는 아님  
  실제 변호사인 **Richard Fontana**가 참여했지만, 그의 이슈는 닫혔음  
  그는 [GitHub 이슈](https://github.com/chardet/chardet/issues/334)에서 “AI 생성물은 일반적으로 저작권 보호 대상이 아니다”라고 지적했음  
  즉, 사람이 직접 코드를 수정하지 않고 **프롬프트만 작성**했다면, 그 코드에 MIT 라이선스를 붙이는 행위 자체가 큰 법적 함의를 가짐
  - 하지만 나는 Fontana의 논리가 약하다고 봄  
    오히려 **사진 촬영**과 비슷함. 카메라가 저작권을 갖진 않지만, 인간은 가질 수 있음  
    픽셀 단위로 개입하지 않아도 인간의 창작으로 인정되는 것처럼 말임

- GPL의 역사를 보면, 이는 **저작권으로 저작권에 맞서는 시도**였음  
  ‘Copyleft’라는 이름 자체가 그 의미를 담고 있음  
  그런데 AI는 저작권 자체를 침식시키고 있음.  
  이제는 GPL 프로그램뿐 아니라 **폐쇄형 소프트웨어**도 AI로 재구현할 수 있음  
  그렇다면 GNU는 GPL을 버리고 **LLM을 새로운 무기**로 삼아야 함
  - 하지만 고성능 LLM은 막대한 **자본력**이 필요한 기술임  
    이는 오히려 오픈소스의 자유를 약화시키고, 대기업 중심으로 권력을 이동시킴  
    또한 LLM은 수많은 **자원봉사자의 코드**로 학습했지만, 그 이익은 대기업이 가져감  
    결국 오픈소스의 매력이 줄어들고, 라이선스 존중도 사라질 위험이 있음
  - Copyleft는 저작권의 반대 개념이 아니라 **소비자에게 권리를 부여하는 구조**임  
    특히 사용자가 자신의 기기에서 실행되는 소프트웨어를 수정할 권리를 보장함  
    하지만 특정 도구나 키, 사양이 제한된 경우엔 재구현이 불가능함
  - LLM이 정말 자유롭게 쓸 수 있는 도구인지 의문임  
    결국 **‘악한 기업’의 무기**를 빌려 싸우는 셈이 될 수도 있음
  - 사실 지금의 LLM 자체가 **‘악한 소프트웨어 기업’의 구현체**임
  - 일반인이 쉽게 호스팅할 수 있는 **오픈소스 LLM**이 나오기 전까진, 진정한 소프트웨어 자유는 요원함

- 이미 **라이선스 위반**은 발생했다고 봄  
  대부분의 대형 모델이 데이터 수집 과정에서 서비스 약관을 어겼음  
  따라서 GPL 코드로 학습한 모델은 오픈 라이선스 의무를 **감염(infect)** 되었다고 볼 수 있음
  - 하지만 학습 자체는 저작권 침해가 아님. 이는 **공정 이용(fair use)** 으로 간주됨  
    법적으로 중요한 건 ① 데이터의 합법적 취득 여부, ② 출력물이 **독창적 표현**인지 여부임  
    이번 사례에서는 98.7%가 새로운 코드로 확인됨
  - 결국 법원 판결이 필요함. 다만 쟁점은 ‘공정 이용’의 원칙이 아니라 **출력물의 변형성**일 것임
  - 이미 여러 판례에서 학습 행위 자체는 공정 이용으로 인정됨  
    진짜 논점은 **출력물이 얼마나 변형적이냐**임.  
    이는 **NYT vs OpenAI** 소송의 핵심 쟁점이기도 함

- Blanchard가 “API와 테스트만 Claude에 입력해 새로 구현했다”고 했지만,  
  이는 “눈을 가리고 캔버스에 물감을 던졌는데 **Mickey Mouse** 모양이 나왔다”는 말과 비슷함  
  그는 원래 해당 코드의 유지보수자였기 때문에 완전히 독립적이라 보기 어려움
  - 하지만 실제로 코드를 봤는지는 중요하지 않음  
    원본 코드를 입력해 복제하도록 설정했다면, 그건 여전히 **저작권 침해**임  
    AI가 단순한 도구라면 사용자 책임이고, 독립적 행위자라면 그 역시 침해 주체가 됨
  - 나는 코드 재구현 자체는 합법적이고 **윤리적으로도 괜찮다**고 봄  
    단, 표현 요소를 그대로 복사하지 않는 한에서만 가능함
  - **Oracle vs Google** 사례처럼 API 재구현은 가능함  
    Blanchard가 모든 프롬프트를 공개하면, 누구나 동일한 결과를 재현할 수 있을 것임
  - 혹시 Blanchard가 실제로 그런 말을 했는지 인용문을 찾을 수 있나?  
    내 이해로는 Claude가 코드를 보지 않았다는 주장뿐이었음
  - 다만 Mickey Mouse는 **상표권** 문제이므로, 그 비유는 법적으로 맞지 않음

- 기사에 따르면 Claude는 API와 테스트만 입력받아 라이브러리를 재구현했음  
  그런데 GPL2는 테스트 스위트도 **소스코드의 일부**로 간주함  
  그렇다면 Claude가 테스트를 사용했다면, 결과물은 LGPL 2.1 기준으로 **원본 기반의 2차 저작물**일 수 있음
  - 하지만 법적으로는 **변형적 사용(transformative use)** 으로 인정됨  
    다만 테스트를 MIT 라이선스로 재배포하는 건 불가능할 수 있음  
    따라서 코드만 MIT로 배포하고, 테스트는 LGPL로 병행 배포하는 식이 현실적임
  - **Google vs Oracle** 판결에 따르면 API 사용은 공정 이용임  
    테스트 케이스도 API 사용의 일부로 볼 수 있음

- 우리 회사에서는 보안팀이 승인하지 않는 툴을 쓰기 위해 **AI 재구현**을 활용하기 시작했음  
  보안팀은 ‘기본 거부’ 정책을, 엔지니어링팀은 ‘AI 적극 활용’ 정책을 가짐  
  결국 AI로 내부용 툴을 새로 만드는 이상한 인센티브 구조가 생김  
  다른 결과를 원한다면 **인센티브 설계**부터 바꿔야 함
  - “Not Invented Here” 문화가 점점 **내성(antibiotic resistance)** 처럼 강화되고 있음  
    만약 AI가 보안 관련 코드를 반복적으로 잘 작성할 수 있다면,  
    왜 같은 AI가 제3자 소프트웨어의 보안 검증은 못 한다고 믿는가?  
    **생산과 분석의 비대칭**이 존재하는 이유를 묻고 싶음

- GPL의 조건은 **배포(distribution)** 시점에만 발동됨  
  수정된 코드를 배포하거나 네트워크 서비스로 제공할 때 소스를 공개해야 함  
  단, 네트워크 서비스 제공은 배포가 아니므로, 이를 보완하기 위해 **AGPL**이 만들어졌음
