# ChatGPT Pro에서 GPT-5.4 컨텍스트 1M을 제대로 쓰려면 설정이 필요

> Clean Markdown view of GeekNews topic #27358. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27358](https://news.hada.io/topic?id=27358)
- GeekNews Markdown: [https://news.hada.io/topic/27358.md](https://news.hada.io/topic/27358.md)
- Type: news
- Author: [princox](https://news.hada.io/@princox)
- Published: 2026-03-10T10:22:48+09:00
- Updated: 2026-03-10T10:22:48+09:00
- Original source: [reddit.com](https://www.reddit.com/r/codex/s/oHBLxp7ZFn)
- Points: 18
- Comments: 7

## Summary

**GPT‑5.4의 1M 컨텍스트를 Codex에서 온전히 활용하려면 설정 수정이 필요합니다.**  
기본값이 약 258K로 제한되어 있어, `config.toml`에 `model_context_window`와 `model_auto_compact_token_limit` 값을 직접 지정해야 확장된 컨텍스트를 쓸 수 있습니다. 일부 사용자는 약 800K 수준까지 안정적으로 동작했다고 보고하며, 최대치에 근접할수록 성능 저하가 있을 수 있어 **여유 있는 설정**이 권장됩니다.

## Topic Body

최근 r/codex에 흥미로운 글이 올라왔습니다.    
한 사용자가 ChatGPT Pro + Codex에서 GPT-5.4를 사용 중인데 컨텍스트가 258K만 나온다는 질문을 올렸습니다.    
“GPT-5.4는 1M 컨텍스트라고 들었는데 왜 258K만 나오나요?”  ￼  
실제로 Codex CLI나 IDE에서 확인하면 기본 컨텍스트가 약 258K로 표시되는 경우가 있습니다.  
  
댓글에서 나온 해결 방법은 config 설정을 직접 추가하는 것입니다.  
  
예시:  
  
model_context_window=800000  
model_auto_compact_token_limit=700000  
  
이를 config.toml에 추가하면 약 800K 수준까지 컨텍스트를 확장해서 사용 가능하다는 경험 공유가 있었습니다.  
  
몇 가지 포인트:  
	•	GPT-5.4는 최대 약 1M 토큰 컨텍스트를 지원하는 것으로 알려짐  ￼  
	•	하지만 Codex 환경에서는 기본 설정이 258K 정도로 제한된 상태로 시작되는 경우가 있음  
	•	config 값을 수정하면 더 큰 컨텍스트 사용 가능  
  
또한 사용자들은 최대치에 너무 가깝게 설정하면 성능 저하가 있을 수 있어 여유를 두는 것이 좋다는 의견도 남겼습니다.  
  
⸻  
  
개인적으로 흥미로웠던 점  
  
AI 도구들이 점점 복잡해지면서  
“모델 스펙 = 실제 기본 설정”이 아닌 경우가 많아지는 것 같습니다.  
  
특히 agentic coding / Codex 같은 환경에서는 설정을 직접 건드려야 성능을 제대로 끌어낼 수 있는 경우가 꽤 있는 듯합니다.  
  
혹시 Codex나 CLI에서 long context (500K~1M) 실제로 활용해보신 분 계신가요?  
실제 개발 workflow에서 체감이 큰지도 궁금합니다.

## Comments



### Comment 55401

- Author: gmlwo530
- Created: 2026-04-15T13:37:19+09:00
- Points: 1

model_context_window=800000 사용 했을 때 context 50% 소진 시점부터 질문에 대한 답변이 이전 질문에 대한 답변으로 진행 되버리는 문제가 있습니다. 참고 바랍니다.

### Comment 52776

- Author: ujinyang
- Created: 2026-03-10T20:05:34+09:00
- Points: 2

저 수치 이상으로 늘어나면 토큰 가격이 두배라고 하는데 확인하시는게 좋을겁니다.

### Comment 52753

- Author: apkas
- Created: 2026-03-10T12:14:40+09:00
- Points: 2

사용해봤는데 gpt-5.4 자체가 성능은 너무 만족스럽지만 가끔 직전 메세지가 아니라 이전 메세지에 대한 대답을 생성하는 등 아주 안정적이진 않고 long context 쓰면 needle in the haystack task에서 성능이 50% 이하로 떨어진다는 리포트도 있어서 굳이 추천하진 않고싶습니다. 근데 needle in the haystack task 자체가 long-context 성능 측정에 적당한 벤치마큰지는 모르겠습니다. 여튼 Codex는 compaction 도 오래 안 걸리고 compact 이후에 맥락도 잘 안 까먹기도 해서 그냥 써도 큰 불편 없더라구요.

### Comment 52767

- Author: sea715
- Created: 2026-03-10T16:11:57+09:00
- Points: 1
- Parent comment: 52753
- Depth: 1

적절한 하네스가 있으면 그래도 나쁘지 않은것 같습니다. compaction 자체를 덜하니까 중간손실문제 자체도 줄어들어서..

### Comment 52934

- Author: mwma91
- Created: 2026-03-13T06:05:48+09:00
- Points: 1

1M 컨텍스트가 가능한지도 몰랐네요.

### Comment 52758

- Author: princox
- Created: 2026-03-10T14:19:37+09:00
- Points: 1

MacOS용 codex 앱에도 그대로 적용되는 것을 확인했습니다.

### Comment 52742

- Author: click
- Created: 2026-03-10T10:39:37+09:00
- Points: 1

아.. 어쩐지 저도 context windows가 너무 작다고 생각했는데 따로 설정해줘야하는거였네요.
