GPT-5.2와 GPT-5.2-Codex가 이제 40% 더 빨라짐
(twitter.com/OpenAIDevs)- GPT-5.2와 GPT-5.2-Codex 모델의 처리 속도가 기존 대비 40% 향상됨
- 모든 API 사용자를 위해 추론 스택을 최적화
- 같은 모델과 같은 가중치지만, 더 낮은 지연시간을 확보
Hacker News 의견들
-
최근 한 달 동안 OpenAI가 Codex 사용자를 위해 여러 기능을 출시했음
- subagents 지원
- 개선된 multi-agent 인터페이스 (Codex app)
- 40% 더 빠른 추론 속도
첫 두 가지 기능만으로도 생산성이 3배는 오른 느낌임. 이번 업데이트를 정말 기대하고 있음 - subagents를 어떻게 작동시키는지 궁금함
- 이건 API 전용 기능임
- Claude를 써보면 성능이 x² 수준으로 향상됨. OpenAI도 긴장하고 있을 듯함
-
주말 동안 같은 프롬프트를 GPT-5.2, Gemini 3, Grok에서 실행해봤음
Gemini 3와 Grok은 ‘thinking mode’에서 2분 내로 끝났는데, GPT-5.2는 6분 동안 제자리걸음이었음 -
최근 roon이 일반 사용자보다 직원 계정이 훨씬 빠르다는 사실을 알아챘다고 함
그래서 내부 API 호출 방식을 일반 사용자보다 효율적으로 돌릴 수 있다는 걸 깨달았다고 함
결국 일반 사용자들은 남은 용량에서만 처리되는 셈임
관련 글: Choose Your Fighter (The Zvi) -
내 생각에 OpenAI는 모델을 출시한 후 품질을 의도적으로 낮추는 습관이 있음
ChatGPT 5.2 웹 버전이 처음엔 훨씬 좋았는데, 1~2주 후 갑자기 품질이 떨어졌음
언론과 벤치마크를 속이려는 전략처럼 보였음
속도를 높이려면 단순히 추론 강도를 줄이면 되니까, 40% 향상이라는 말도 믿기 어려움
ChatGPT Plus 사용자에게 처음엔 Pro 모델을 주고 나중에 Standard로 바꾸는 식의 ‘꼼수’일 수도 있음- 회의적인 시각은 이해하지만, 우리는 그런 속임수는 하지 않음
모델 품질을 일정하게 유지하고, 성능 저하 보고가 있으면 즉시 조사함
이번 속도 향상은 토큰당 처리 시간 개선 덕분이며, 모델 품질이나 가중치는 그대로임 - OpenAI만 그런 건 아님. Anthropic도 비슷한 사례가 있음
참고: Claude Code Tracker (MarginLab) - Codex용 일일 벤치마크 사이트를 만들면 좋겠음
- 직접 벤치마크를 다시 돌려보면 됨
- 회의적인 시각은 이해하지만, 우리는 그런 속임수는 하지 않음
-
흥미로운 점은 Cerebras에서 추론 비용이 훨씬 비싼데도 가격을 그대로 유지했다는 것임
- 하지만 이건 Cerebras가 아닐 가능성이 높음.
만약 Cerebras였다면 모델 동작이 달라지고 속도도 10배쯤 빨라졌을 것임
아마 Blackwell 시리즈용 최적화 커널을 새로 작성한 듯함 - 거의 확실히 Cerebras에서 돌리는 건 아님
- 하지만 이건 Cerebras가 아닐 가능성이 높음.
-
속도가 항상 가장 큰 불만이었는데, 이번 개선으로 다시 써볼 생각이 생김
-
어떻게 이런 속도 향상을 이뤘는지 궁금함
-
Reddit에도 품질이 떨어졌다는 글이 많음
- 하지만 Reddit에는 매일 그런 글이 올라옴.
Claude 관련 서브레딧에서도 마찬가지인데, 신뢰할 만한 증거는 거의 없음
- 하지만 Reddit에는 매일 그런 글이 올라옴.