13P by princox 9시간전 | ★ favorite | 댓글 4개

최근 r/codex에 흥미로운 글이 올라왔습니다.
한 사용자가 ChatGPT Pro + Codex에서 GPT-5.4를 사용 중인데 컨텍스트가 258K만 나온다는 질문을 올렸습니다.
“GPT-5.4는 1M 컨텍스트라고 들었는데 왜 258K만 나오나요?” 
실제로 Codex CLI나 IDE에서 확인하면 기본 컨텍스트가 약 258K로 표시되는 경우가 있습니다.

댓글에서 나온 해결 방법은 config 설정을 직접 추가하는 것입니다.

예시:

model_context_window=800000
model_auto_compact_token_limit=700000

이를 config.toml에 추가하면 약 800K 수준까지 컨텍스트를 확장해서 사용 가능하다는 경험 공유가 있었습니다.

몇 가지 포인트:
• GPT-5.4는 최대 약 1M 토큰 컨텍스트를 지원하는 것으로 알려짐 
• 하지만 Codex 환경에서는 기본 설정이 258K 정도로 제한된 상태로 시작되는 경우가 있음
• config 값을 수정하면 더 큰 컨텍스트 사용 가능

또한 사용자들은 최대치에 너무 가깝게 설정하면 성능 저하가 있을 수 있어 여유를 두는 것이 좋다는 의견도 남겼습니다.

개인적으로 흥미로웠던 점

AI 도구들이 점점 복잡해지면서
“모델 스펙 = 실제 기본 설정”이 아닌 경우가 많아지는 것 같습니다.

특히 agentic coding / Codex 같은 환경에서는 설정을 직접 건드려야 성능을 제대로 끌어낼 수 있는 경우가 꽤 있는 듯합니다.

혹시 Codex나 CLI에서 long context (500K~1M) 실제로 활용해보신 분 계신가요?
실제 개발 workflow에서 체감이 큰지도 궁금합니다.

사용해봤는데 gpt-5.4 자체가 성능은 너무 만족스럽지만 가끔 직전 메세지가 아니라 이전 메세지에 대한 대답을 생성하는 등 아주 안정적이진 않고 long context 쓰면 needle in the haystack task에서 성능이 50% 이하로 떨어진다는 리포트도 있어서 굳이 추천하진 않고싶습니다. 근데 needle in the haystack task 자체가 long-context 성능 측정에 적당한 벤치마큰지는 모르겠습니다. 여튼 Codex는 compaction 도 오래 안 걸리고 compact 이후에 맥락도 잘 안 까먹기도 해서 그냥 써도 큰 불편 없더라구요.

적절한 하네스가 있으면 그래도 나쁘지 않은것 같습니다. compaction 자체를 덜하니까 중간손실문제 자체도 줄어들어서..

MacOS용 codex 앱에도 그대로 적용되는 것을 확인했습니다.

아.. 어쩐지 저도 context windows가 너무 작다고 생각했는데 따로 설정해줘야하는거였네요.