# NVIDIA, OpenReasoning-Nemotron 32B/14B/7B/1.5B 모델 공개

> Clean Markdown view of GeekNews topic #22092. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=22092](https://news.hada.io/topic?id=22092)
- GeekNews Markdown: [https://news.hada.io/topic/22092.md](https://news.hada.io/topic/22092.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2025-07-21T10:21:02+09:00
- Updated: 2025-07-21T10:21:02+09:00
- Original source: [huggingface.co](https://huggingface.co/collections/nvidia/openreasoning-nemotron-687730dae0170059860f1f01)
- Points: 8
- Comments: 0

## Summary

NVIDIA가 공개한 **OpenReasoning-Nemotron** 시리즈는 **수학, 코드, 과학 문제 해결에 특화된 대규모 추론 모델**로, 64,000 토큰의 긴 컨텍스트와 1.5B~32B까지 다양한 크기를 지원합니다. 연구 및 상업 목적 모두 사용 가능하며, **LiveCodeBench, GPQA, MMLU-PRO 등 주요 벤치마크에서 동급 최고 수준의 결과**를 기록합니다. 여기에 **복수 에이전트 조합 추론 방식(GenSelect)**을 도입해, 여러 모델의 해답을 병렬로 비교하며 더욱 뛰어난 문제 해결 능력을 보여줍니다.

## Topic Body

- Qwen2.5-32B-Instruct(추론 모델)의 파생 모델로 **수학, 코드, 과학 문제 해결 추론에 특화**됨  
- 상업적/비상업적 연구 용도로 사용할 수 있음   
- 64,000 토큰의 컨텍스트 길이를 지원하며 1.5B, 7B, 14B, 32B 크기로 제공됨   
- LiveCodeBench, GPQA, MMLU-PRO 등 다양한 벤치마크에서 **동급 최고 수준의 추론 성능**을 기록  
- **복수 에이전트(GenSelect) 결합 추론** 시, 기존 단일 모델보다 수학·코드·과학 벤치마크에서 더욱 뛰어난 성능을 달성  
  - GenSelect : 여러 개의 모델 추론을 병렬로 실행한 뒤, **최적의 해법을 선택**

## Comments



_No public comments on this page._
