# OpenAI, 6년만의 오픈소스 LLM, GPT-OSS 공개

> Clean Markdown view of GeekNews topic #22359. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=22359](https://news.hada.io/topic?id=22359)
- GeekNews Markdown: [https://news.hada.io/topic/22359.md](https://news.hada.io/topic/22359.md)
- Type: news
- Author: [haebom](https://news.hada.io/@haebom)
- Published: 2025-08-06T06:24:37+09:00
- Updated: 2025-08-06T06:24:37+09:00
- Original source: [openai.com](https://openai.com/index/introducing-gpt-oss)
- Points: 31
- Comments: 8

## Summary

**OpenAI**가 6년 만에 오픈소스 **대규모 언어 모델**을 Apache 2.0 라이선스로 공개하며, 20B와 120B 두 가지 모델을 모두 지원합니다. 새로운 **MoE 구조**와 효율적인 최적화 덕분에 20B 모델은 16GB GPU 환경에서도 실행 가능하며,코딩·수학·다국어 등 다양한 벤치마크에서도 상위권 성능을 보입니다. HuggingFace, vLLM 등 **생태계 호환**이 즉시 가능해 개발자 활용성이 높고, RL을 활용한 안전성과 정합성 측면에서도 진전을 이뤘습니다.

## Topic Body

OpenAI가 GPT-OSS 모델 시리즈(gpt-oss-120b / gpt-oss-20b)를 Apache 2.0 라이선스로 전격 공개했습니다. GPT-2 이후 6년 만에 선보이는 오픈 가중치 모델이며, 성능과 효율 모두에서 시장 판도를 바꿀 잠재력을 지니고 있습니다.  
  
🧠 핵심 특징  
* 20B 모델: Mixture of Experts(MoE) 구조  
   • 128 전문가 중 4개 활성화 → 성능 유지하며 추론 비용 절감  
   • FlashAttention, 128k 토큰 지원, YaRN 포함  
* 20B 모델: 16GB GPU 환경에서도 실행 가능 (Apple Silicon 포함)  
  
📊 주요 벤치마크 성능 (GPT-OSS-120B 기준)  
  
* MMLU: 90.0% (o4-mini와 유사)  
* AIME 수학: 97.9% (수학+툴 최강 수준)  
* Codeforces Elo: 2622 (코딩 실력도 상위권)  
* HealthBench: GPT-4o 대비 우수 성능  
* MMMLU (14개 언어): 81.3% → 다국어 추론도 강력  
  
💡 실용성 & 생태계  
  
* 단일 H100 80GB GPU에서 120B 모델 실행 가능  
* 16GB 환경에서도 20B 모델 실시간 실행  
* HuggingFace, vLLM, Ollama 등과 즉시 호환 가능  
  
🔐 안전 & 책임  
* RL 기반 추론 정합성 강화  
* Deliberative Alignment 도입  
* 의도적 악용에도 고위험 출력을 생성하지 않음  
  
당분간 ClosedAI라는 놀림은 피할 수 있을 듯. 잠깐 테스트 해봤는데 한국어도 무척 잘합니다.   
  
https://huggingface.co/openai/gpt-oss-120b

## Comments



### Comment 42204

- Author: yeorinhieut
- Created: 2025-08-06T16:04:19+09:00
- Points: 1

120b 모델도 simpleqa 점수가 0.168이네요

### Comment 42195

- Author: jinucho
- Created: 2025-08-06T13:51:10+09:00
- Points: 1

vllm으로 서빙해보려 했는데 Flash Attention3 기반이라 Hopper만 지원하네요 ㅠㅠㅠㅠ

### Comment 42202

- Author: yeorinhieut
- Created: 2025-08-06T15:03:26+09:00
- Points: 1
- Parent comment: 42195
- Depth: 1

저도 그래서 ollama로…

### Comment 42196

- Author: jinucho
- Created: 2025-08-06T13:51:32+09:00
- Points: 1
- Parent comment: 42195
- Depth: 1

퇴물 다 된 A100...

### Comment 42179

- Author: xguru
- Created: 2025-08-06T10:04:57+09:00
- Points: 1

관련한 해커뉴스 댓글은 [OpenAI, 대규모 오픈 웨이트 언어 모델 공개](https://news.hada.io/topic?id=22361) 글을 참고하세요.   
성능에 대한 다양한 평가를 볼 수 있습니다.

### Comment 42178

- Author: argo9
- Created: 2025-08-06T10:02:36+09:00
- Points: 1

내 컴퓨터가 느린걸 알고 싶을 때... 같은 프롬프트로 초를 직접 재서 테스트해보면 어떨까 합니다. ^^; 간단한 기록 구글스프레드시트 라도 하나 열어두고 싶네요 (순수한 기록의 재미로)

### Comment 42171

- Author: fanotify
- Created: 2025-08-06T09:45:36+09:00
- Points: 1

MXFP4 양자화를 통해 Ollama에서는 16GB 메모리(VRAM) 시스템에서도 실행할 수 있다고 합니다(gpt-oss:20b): https://ollama.com/blog/gpt-oss

### Comment 42172

- Author: fanotify
- Created: 2025-08-06T09:46:58+09:00
- Points: 1
- Parent comment: 42171
- Depth: 1

더 큰 모델을 실행하고 싶은 분들은 이번에 출시된 월 $20의 ollama turbo를 사용할 수 있습니다: https://ollama.com/turbo
