# 오픈 가중치가 조용히 닫히고 있으며, 이는 문제다

> Clean Markdown view of GeekNews topic #29256. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=29256](https://news.hada.io/topic?id=29256)
- GeekNews Markdown: [https://news.hada.io/topic/29256.md](https://news.hada.io/topic/29256.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-05-07T16:01:58+09:00
- Updated: 2026-05-07T16:01:58+09:00
- Original source: [martinalderson.com](https://martinalderson.com/posts/open-weights-are-quietly-closing-up/)
- Points: 1
- Comments: 1

## Topic Body

- **오픈 가중치** 모델은 누구나 자체 하드웨어에서 LLM을 직접 실행하게 해 민감한 데이터 보호, 파인튜닝·양자화 유연성, 프런티어 모델 대비 낮은 추론 비용을 제공함
- MiniMax, Z.ai, DeepSeek, Qwen 같은 중국 연구소 모델들이 선도적인 오픈 가중치 모델로 꼽히며, Google의 Gemma와 OpenAI의 `gpt-oss`는 대체로 그보다 뒤에 위치한다고 평가됨
- 오픈 가중치 모델은 OpenAI, Anthropic, Google 같은 프런티어 연구소에 **가격 하락 압력**을 주며, 저렴한 대안으로 전환할 수 있다는 가능성이 과점적 가격 행동을 억제함
- 최근 Meta는 최신 “Muse Spark”에서 모델 공개를 중단했고, Alibaba는 API 우선 또는 API 전용 공개를 늘렸으며, Kimi K2.6과 Mistral도 더 강한 **라이선스 조건**을 부과하는 흐름을 보임
- 경쟁적인 오픈 가중치 생태계가 약해지면 소수 프런티어 연구소와 일부 중국 연구소가 AI 사용자의 **소비자 잉여**를 더 크게 흡수할 수 있으며, 증류도 강력한 기반 모델 접근성이 필요해 근본적 해결책이 되기 어려움

---

### 오픈 가중치 모델의 역할
- LLM 시장에는 폐쇄형 모델과 **오픈 가중치(open weights)** 모델이 공존해 왔음
  - 폐쇄형 모델에는 이름과 달리 OpenAI의 거의 모든 모델이 포함됨
  - 오픈 가중치 모델은 다른 연구소들이 공개해 왔고, Llama 시리즈가 대표적이었음
  - 최근에는 MiniMax, Z.ai, DeepSeek, Qwen(Alibaba) 같은 중국 연구소 모델들이 선도적인 오픈 가중치 모델로 꼽힘
  - Google의 Gemma 시리즈와 OpenAI의 `gpt-oss` 모델은 대체로 중국 모델들보다 뒤에 위치한다고 평가됨
- 오픈 가중치 모델은 누구나 자기 하드웨어에서 **직접 실행**할 수 있게 해줌
  - 가치 있게 실행할 만한 모델에는 보통 매우 강력한 하드웨어가 필요했음
  - 더 작은 모델들이 훨씬 유용해지면서 이 조건이 빠르게 바뀌고 있음
- 로컬 실행은 API로 OpenAI, Anthropic, Google 같은 제공자에 요청하는 방식보다 세 가지 장점이 있음
  - 민감한 데이터를 프런티어 연구소 데이터센터로 보내기 어렵거나 불가능한 경우, 온프레미스 실행으로 데이터가 네트워크 밖으로 나가지 않게 할 수 있음
  - 모델을 파인튜닝 기반으로 쓰거나, 특정 하드웨어 조건에 맞춰 양자화(대략적인 압축)할 수 있어 유연성이 커짐
  - 자체 하드웨어를 쓰면 하드웨어 자본 지출, 전기, 운영 비용만 고려하면 되고, 호스팅 제공자를 쓰더라도 토큰당 비용은 보통 프런티어 모델의 10% 미만임

### 가격 압력과 시장 규율
- 오픈 가중치 모델은 프런티어 연구소에 상당한 **가격 하락 압력**을 제공함
  - 독점 또는 과점 시장에서도 저렴하고 신뢰할 만한 대안이 있으면 기존 사업자가 경쟁적으로 행동한다는 contestable markets 이론과 느슨하게 닮아 있음
  - 이 이론은 엄밀히는 매몰비용이 거의 0이라는 전제를 두지만, 프런티어 모델 학습은 그 반대에 가까움
  - 그래도 소비자가 전환할 수 있다는 잠재적 선택지가 가격을 규율한다는 핵심 메커니즘은 유지됨
- 프런티어 모델은 더 높은 품질과 계약상 이점 때문에 더 비싼 가격을 받을 수 있음
  - 사용자는 더 좋은 모델에 훨씬 더 많은 비용을 지불할 수 있음
  - 약 1조 달러 규모 회사와의 추론 계약은 저렴한 추론 제공자를 [OpenRouter](https://martinalderson.com/posts/open-weights-are-quietly-closing-up/#fn2)로 쓰는 것과 다른 가치를 가짐
  - OpenAI 등은 SLA와 기밀성 같은 항목에 대해 법적 구속력이 있는 약속을 제공함
- 그러나 오픈 가중치 모델은 과점적 가격 행동을 어렵게 만드는 충분한 압력으로 작동함
  - 프런티어 연구소들이 하룻밤 사이 가격을 5배 올리면, 특히 덜 까다로운 사용 사례에서는 많은 사용자가 오픈 가중치 모델로 전환할 수 있음
  - 오픈 가중치 모델은 가격 행동 측면에서 제네릭 의약품과 비슷한 역할을 함
  - 제네릭이 있으면 대형 제약사는 가격을 제네릭 가격에 훨씬 가깝게 낮추고, 가격을 유지하기 위해 제네릭보다 한 단계 앞선 새 치료제에 집중함
- 오픈 가중치 모델이 없다면 프런티어 연구소의 **가격 결정력**은 현재보다 훨씬 커질 수 있음

### 라이선스와 공개 방식의 변화
- 오픈 가중치 모델의 가용성은 당연한 전제가 아님
  - 모델 학습에는 큰 비용이 들고, 이 모델을 만드는 기업들은 상업 회사임
  - 중국 국가의 보조를 많이 받을 가능성이 있더라도 자선단체는 아님
- 최근 오픈 가중치 모델의 **라이선스 조건**은 뚜렷하게 강화되는 흐름을 보임
  - Meta는 최신 “Muse Spark” 모델에서 오픈 가중치를 완전히 중단했고, 모델을 전혀 공개하지 않음
  - Alibaba는 점점 더 모델을 먼저 API로 공개하거나, 일부 변형에서는 API로만 공개하고 있음
  - Kimi의 K2.6 라이선스는 월간 활성 사용자 1억 명 초과 또는 월 매출 2,000만 달러 초과 제품에 대해 UI에 “Kimi K2.6”을 눈에 띄게 표시해야 하는 저작자 표시 조항을 추가함
  - 프랑스 Mistral도 상업적 사용에 다양한 라이선스 조건을 부과함
- 예외도 있음
  - DeepSeek은 오히려 더 관대한 방향으로 바뀜
  - 하지만 전반적인 추세는 덜 관대한 라이선스이며, Meta와 Alibaba는 일부 또는 전체 모델 공개를 중단하는 방향으로 움직이고 있음

### 오픈 가중치 축소가 만들 수 있는 시장 구조
- 1년 뒤에는 과거라면 오픈 가중치로 공개됐을 최고 수준 모델 대부분 또는 전부가 더 이상 공개되지 않는 상황이 될 수 있음
  - 이는 현재로서는 가정적 상황임
  - 모델 간 가격 비교는 계속 존재할 수 있음
  - 하지만 학습 비용과 복잡성이 계속 증가하면 소수의 플레이어만 남을 수 있음
- 가능한 시장 구성은 서구의 3대 프런티어 연구소와 일부 중국 연구소로 좁혀질 수 있음
  - 중국 연구소들이 국가 주도의 ‘합병’을 통해 한두 개의 중국 ‘슈퍼랩’으로 통합될 가능성도 있음
  - 전략 산업에서 이런 통합 전례는 많음
  - 중국은 철도(CRRC), 원자력, 항공사, 통신에서 이런 방식을 사용했음
  - 서구 역시 냉전 이후 방산 프라임 업체 통합 사례가 있어 예외가 아님
- 이런 변화는 AI가 만들어내는 **소비자 잉여**를 소수 기업이 흡수할 수 있게 만듦
  - AI 사용자는 토큰 비용보다 훨씬 큰 가치를 얻고 있음
  - 현재 가격의 10배를 지불해도 주저하지 않을 만큼 가치가 크다고 볼 수 있음
  - 고부가가치 전문 업무나 에이전트형 작업에서는 실제 지불액과 지불 의향 사이의 격차가 더 커짐
  - 오픈 가중치라는 가격 하한선이 없는 과점은 이 격차를 이윤으로 가져갈 수 있는 위치에 놓임
- 경제 이론상 이런 세계에서는 권력과 경제적 부가 소수 기업에 역사적으로 집중될 수 있음
  - 연구소들은 소비자 잉여를 직접 마진으로 추출하기 시작할 수 있음
  - 소수 기업 과점과 새 모델에 필요한 막대한 자본 지출이라는 진입장벽 때문에 가격 경쟁은 제한될 가능성이 큼

### 반대 가능성과 남는 위험
- 비관적 전망이 과도할 가능성도 있음
  - 하드웨어가 더 빠르게 발전하면 “충분히 좋은” 모델을 학습하는 일이 시간이 갈수록 오히려 쉬워질 수 있음
  - AI 하드웨어 제조사는 소수에 불과하지만, AI 하드웨어 시장에서는 치열한 경쟁이 나타나고 있음
- **증류(distillation)** 는 탈출구로 꼽히지만 근본적 해결책은 아님
  - 증류는 프런티어 모델의 출력으로 더 작은 모델을 학습하는 방식임
  - 하지만 애초에 강력한 기반 모델에 접근할 수 있어야 함
  - 위험에 처한 바로 그 요소가 강력한 기반 모델 접근성임
- 경쟁적인 오픈 가중치 생태계는 AI 경제 전체 아래에 조용히 깔린 **하중 지지 전제**였음
  - 이 전제가 약해지고 있다는 사실은 주목할 필요가 있음
  - 더 넓은 경제에 미칠 함의는 매우 큼

### 용어와 보완 설명
- **오픈 가중치** 모델은 최종 모델만 공개하는 범주임
  - 기술적으로는 폐쇄형, 오픈 가중치, 완전 개방 또는 재현 가능 모델이라는 세 범주로 나눌 수 있음
  - 완전 개방 또는 재현 가능 모델은 학습 데이터와 관련 학습 절차 문서까지 포함함
  - 이 범주가 소프트웨어에서 말하는 오픈소스와 가장 유사함
- [OpenRouter](https://martinalderson.com/posts/open-weights-are-quietly-closing-up/#fn2)는 “API들의 API” 역할을 함
  - 특정 모델에 대해 가장 저렴하거나 가장 가용성이 높은 추론 제공자로 요청을 라우팅함
  - 한 제공자에 문제가 생기면 즉시 다른 제공자로 전환해 신뢰성을 크게 높일 수 있음
  - 더 저렴한 제공자가 있으면 그쪽으로 전환함

## Comments



### Comment 57012

- Author: neo
- Created: 2026-05-07T16:01:58+09:00
- Points: 1

###### [Lobste.rs 의견들](https://lobste.rs/s/jvvtif/open_weights_are_quietly_closing_up_s) 
- 이 글은 **Kimi**에 대해 부정확함. 일부 업체가 큰 제한을 붙여놓고 “modified MIT”라고 부르긴 하지만, [Kimi K2.6 just has an advertising clause](https://huggingface.co/moonshotai/Kimi-K2.6/blob/main/LICENSE)일 뿐임. 없었으면 더 좋겠지만, 과하게 문제 삼을 정도는 아닌 것 같음  
  글에서는 Kimi가 월간 활성 사용자 1억 명 초과 또는 월 매출 2천만 달러 초과 제품에서는 오픈 가중치 모델을 쓸 수 없게 했다고 주장했지만, 실제 K2.6 라이선스는 그런 제품·서비스의 UI에 “Kimi K2.6”을 눈에 띄게 표시하라는 조건임  
  일부 업체가 오픈 가중치 공개를 줄이는 건 맞지만, Xiaomi, DeepSeek, Moonshot, Zai처럼 경쟁력 있는 대형 오픈 가중치 모델을 내는 곳도 있음. 작은 모델 쪽에서는 **Gemma 4**가 표준 오픈 라이선스인 Apache로 옮긴 것도 긍정적임  
  이 우려를 제기하는 건 맞지만, 아직은 오픈 가중치에서 물러나는 업체들이 새로 진입하거나 더 전통적인 라이선스로 옮기는 업체들로 대체되는 흐름에 가까워 보임
  - 글쓴이로서 타당한 지적이라 글을 업데이트했음. **Cursor Kimi** 관련 내용과 헷갈린 듯하고, 지적이 맞음  
    앞으로 어떻게 될지는 흥미로움. 글이 이미 길어서 넣지 않았지만, 이 회사들이 실제 주목을 얻으려면 오픈 가중치 모델이 필요했을 거라고 봄. Grok처럼 컴퓨팅 자원과 공격적 가격이 있어도 채택이 낮은 사례를 보면, 최소한 전 세계적 인지도를 얻기는 매우 어려웠을 것임  
    다만 중국 모델들은 추론용 컴퓨팅도 xAI만큼 가진 건 아님. 이제 모델 품질이 좋아지면서 닫아버릴 유인이 커졌지만, 항상 새 진입자가 나오는 세계가 계속될 수도 있음

- 오픈 가중치 **대규모 언어 모델**을 공개할 시장 유인이 무엇인지 스스로 묻게 됨  
  [Nvidia on Hugging Face](https://huggingface.co/nvidia)는 일부 모델을 공개하고 있는데, 사람들이 구독 서비스를 쓰는 대신 로컬 대규모 언어 모델을 돌리면 그래픽카드를 더 팔 수 있다는 데 베팅하는 것 같음  
  오픈 가중치 모델 공개가 줄어들면, 대형 추론 제공업체들이 Linux Foundation과 비슷한 **오픈 가중치 재단**을 만들어 훈련 데이터 확보, 훈련, 미세조정을 조율할 수도 있음. 제공할 경쟁력 있는 모델이 없으면 이 회사들의 사업도 성립하기 어려움
  - 어디선가 **무어의 법칙**이 끝나면 더 개방적이고 수리 가능한 전자제품이 늘어날 거라는 이론을 읽었음. 최첨단을 유지하려면 회사들은 비밀 소스를 숨길 유인이 있지만, 그 경계가 더 이상 움직이지 않으면 기능으로 경쟁하지 않게 되고 시장의 모든 제품이 비슷하게 좋아져 그 유인이 사라진다는 논리임  
    지금의 추론 제공업체들이 오픈 가중치 재단에 나설지는 모르겠음. 하지만 대규모 언어 모델이 몇 년 안에 벽에 부딪힌다면, 고객들 쪽에는 확실히 유인이 생길 수 있음. “우리가 [직접](http://web.archive.org/web/20160505015854/https://www.wired.com/2016/03/epic-story-dropboxs-exodus-amazon-cloud-empire/) 할 수 있는 일에 왜 OpenAnthropic에 매달 50억 달러를 내고 있지?”라는 식임

- 여기서 일부 내용을 반박하는 댓글들이 있지만, 몇 가지 더 보태고 싶음  
  Alibaba가 Qwen에 대해 다소 덜 **오픈 우선**적인 접근을 취한 건 분명하고 아쉽지만, 실제 격차가 그렇게 크지는 않음. Max 계열 모델과 많은 특화 모델은 원래부터 API 전용이었고, 현재 API 전용인 주요 모델은 약 400B 매개변수의 “Plus” 정도임. 크기에 비해 역사적으로 엄청 훌륭한 모델도 아니었음  
  사람들이 주로 Qwen으로 아는 작은 모델들은 여전히 공개되어 있음. 공개 일정은 좀 더 흩어진 느낌이지만, Qwen 공개는 원래도 꽤 어수선했음  
  닫힌 모델로 언급된 **Qwen 3.6 Plus**는 독점 파트너십을 통해 [available on Fireworks](https://fireworks.ai/models/fireworks/qwen3p6-plus)로 제공됨. 로컬 소유 서버를 원하는 조직도 쓸 수 있게 하려는 건지 모르겠지만, 앞으로 이런 방식이 늘어날지 흥미로움  
  Meta의 “Muse Spark”는 LLaMa와 다른 팀의 사실상 완전히 다른 모델 계열이라, 오픈 가중치를 “중단했다”고 보기보다는 별개의 제품으로 보는 편이 맞아 보임  
  Kimi K2.6의 표시 조항은 새로 “추가”된 것이 아니라, [the clause has been there since the original K2](https://huggingface.co/moonshotai/Kimi-K2-Instruct/blob/main/LICENSE)였음. DeepSeek도 [R1](https://huggingface.co/deepseek-ai/DeepSeek-R1/blob/main/LICENSE)과 [V3 0324](https://huggingface.co/deepseek-ai/DeepSeek-V3-0324/blob/main/LICENSE)부터 일반 MIT 라이선스를 써왔음  
  최근에도 MiMo v2.5 계열, GLM 5.1, Gemma 4처럼 주목도 높은 실제 오픈 가중치 공개가 여럿 있었음. 다만 GLM 본류는 오픈 가중치지만 “Code” 계열 같은 여러 미세조정판은 독점이고, Step 3.5 Flash의 2603 업데이트도 독점으로 보임. 그래도 [release their SFT training data](https://huggingface.co/datasets/stepfun-ai/Step-3.5-Flash-SFT)를 했으니 너무 뭐라 하긴 어려움  
  공개가 늦어지는 경우도 있고, MiMo v2.5/Pro와 GLM 5.1이 그랬음. 다만 이 덕분에 출시 직후 SGLang/vLLM 지원이 준비되는 장점도 가끔 있음. MiniMax M2.7은 실제로 [much more restrictive license](https://huggingface.co/MiniMaxAI/MiniMax-M2.7/blob/main/LICENSE)로 옮겼는데, 이게 Kimi와 혼동된 것 같음  
  “API로 먼저 수익을 좀 내고 나중에 공개한다”는 방식은 모델 개발 자체에 큰 비용이 든다는 점을 감안하면 여전히 꽤 관대한 편이고, 적어도 지금은 업계가 그 균형에 만족하는 듯함

- **GLM 5.1**은 지난달 MIT 라이선스로 공개된 매우 경쟁력 있는 오픈 가중치 모델임. 이미 여러 회사가 서비스로 제공하고 있음. Z.ai가 만들었고, 다른 중국 회사들처럼 나중에 제한을 붙일 수도 있겠지만 지금은 제한이 없음
  - 궁금한 사람을 위해 말하면 **1.51TB**임: https://huggingface.co/zai-org/GLM-5.1/tree/main
  - 유럽 제공업체를 통해 OpenCode와 함께 쓰고 있는데, 확실히 **Claude**와 경쟁 가능함. 가까운 미래에 대기업 종속에서 완전히 벗어날 수 있기를 기대하고 있음  
    일부는 모든 중국 모델이 어느 정도 대형 모델들, 즉 GPT나 Anthropic 같은 모델에서 “증류”했다고 가정함. 사실인지는 모르겠고 크게 신경 쓰지도 않음. 어쨌든 이런 모델들은 **공공 영역**에 있어야 한다고 보고, 빠르게 그 방향으로 가는 것 같아 기쁨

- 최근 **AI 모델 라이선스 사업**의 인기가 커질 수 있지 않을까 생각하고 있음. 일정 금액을 내고 모델 사용 권리를 얻은 뒤, 자기 하드웨어에서 직접 돌리는 방식임. Photoshop 가격 책정과 조금 비슷함  
  이렇게 하면 민감한 정보 유출 문제를 피하면서도 모델 제작자는 돈을 받을 수 있음. 토큰당 과금처럼 잠재적으로 매우 비싼 요금제가 아니라 정액제라는 장점도 있음. 물론 하드웨어 비용은 별도임
  - 미래에는 오픈 가중치 모델을 공개하되, 그것을 **실리콘에 굽는 것**을 막는 라이선스를 붙일 수 있다고 봄. 그리고 이런 칩을 파는 식임: https://taalas.com/products/

- **Kimi K2.5**가 지금까지 내게는 가장 잘 맞았고, 굳이 업그레이드하지 않아도 괜찮음
