# GPT-5.2와 GPT-5.2-Codex가 이제 40% 더 빨라짐

> Clean Markdown view of GeekNews topic #26416. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=26416](https://news.hada.io/topic?id=26416)
- GeekNews Markdown: [https://news.hada.io/topic/26416.md](https://news.hada.io/topic/26416.md)
- Type: GN+
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2026-02-05T12:15:11+09:00
- Updated: 2026-02-05T12:15:11+09:00
- Original source: [twitter.com/OpenAIDevs](https://twitter.com/OpenAIDevs/status/2018838297221726482)
- Points: 4
- Comments: 1

## Topic Body

- **GPT-5.2와 GPT-5.2-Codex** 모델의 처리 속도가 기존 대비 **40% 향상**됨  
- 모든 API 사용자를 위해 추론 스택을 최적화   
- 같은 모델과 같은 가중치지만, 더 낮은 지연시간을 확보

## Comments



### Comment 50657

- Author: neo
- Created: 2026-02-05T12:15:11+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=46879372) 
- 최근 한 달 동안 OpenAI가 **Codex 사용자**를 위해 여러 기능을 출시했음  
  - subagents 지원  
  - 개선된 **multi-agent 인터페이스 (Codex app)**  
  - 40% 더 빠른 추론 속도  
  첫 두 가지 기능만으로도 생산성이 3배는 오른 느낌임. 이번 업데이트를 정말 기대하고 있음  
  - subagents를 어떻게 작동시키는지 궁금함  
  - 이건 **API 전용 기능**임  
  - Claude를 써보면 성능이 x² 수준으로 향상됨. OpenAI도 긴장하고 있을 듯함  

- 주말 동안 같은 프롬프트를 **GPT-5.2, Gemini 3, Grok**에서 실행해봤음  
  Gemini 3와 Grok은 ‘thinking mode’에서 2분 내로 끝났는데, GPT-5.2는 6분 동안 제자리걸음이었음  

- 최근 roon이 일반 사용자보다 **직원 계정이 훨씬 빠르다는 사실**을 알아챘다고 함  
  그래서 내부 API 호출 방식을 일반 사용자보다 효율적으로 돌릴 수 있다는 걸 깨달았다고 함  
  결국 일반 사용자들은 남은 용량에서만 처리되는 셈임  
  관련 글: [Choose Your Fighter (The Zvi)](https://thezvi.substack.com/i/185423735/choose-your-fighter)  

- 내 생각에 OpenAI는 모델을 출시한 후 **품질을 의도적으로 낮추는 습관**이 있음  
  ChatGPT 5.2 웹 버전이 처음엔 훨씬 좋았는데, 1~2주 후 갑자기 품질이 떨어졌음  
  언론과 벤치마크를 속이려는 전략처럼 보였음  
  속도를 높이려면 단순히 **추론 강도를 줄이면** 되니까, 40% 향상이라는 말도 믿기 어려움  
  ChatGPT Plus 사용자에게 처음엔 Pro 모델을 주고 나중에 Standard로 바꾸는 식의 ‘꼼수’일 수도 있음  
  - 회의적인 시각은 이해하지만, 우리는 그런 **속임수는 하지 않음**  
    모델 품질을 일정하게 유지하고, 성능 저하 보고가 있으면 즉시 조사함  
    이번 속도 향상은 토큰당 처리 시간 개선 덕분이며, 모델 품질이나 가중치는 그대로임  
  - OpenAI만 그런 건 아님. Anthropic도 비슷한 사례가 있음  
    참고: [Claude Code Tracker (MarginLab)](https://marginlab.ai/trackers/claude-code/)  
  - Codex용 **일일 벤치마크 사이트**를 만들면 좋겠음  
  - 직접 벤치마크를 다시 돌려보면 됨  

- 흥미로운 점은 **Cerebras에서 추론 비용이 훨씬 비싼데도** 가격을 그대로 유지했다는 것임  
  - 하지만 이건 Cerebras가 아닐 가능성이 높음.  
    만약 Cerebras였다면 모델 동작이 달라지고 속도도 10배쯤 빨라졌을 것임  
    아마 **Blackwell 시리즈용 최적화 커널**을 새로 작성한 듯함  
  - 거의 확실히 Cerebras에서 돌리는 건 아님  

- 속도가 항상 가장 큰 불만이었는데, 이번 개선으로 다시 써볼 생각이 생김  

- 어떻게 이런 **속도 향상**을 이뤘는지 궁금함  

- Reddit에도 품질이 떨어졌다는 글이 많음  
  - 하지만 Reddit에는 매일 그런 글이 올라옴.  
    Claude 관련 서브레딧에서도 마찬가지인데, **신뢰할 만한 증거**는 거의 없음
