14P by xguru 4시간전 | ★ favorite | 댓글 5개
  • AI 코딩 도구가 실행하는 CLI 명령어 출력을 LLM에 전달하기 전에 필터링·압축해 토큰을 60~90% 절감하는 단일 Rust 바이너리(윈/맥/리눅스)
  • git, grep, ls, cargo test 등 100개 이상의 명령어를 지원하며, 명령어 출력을 LLM 컨텍스트에 전달하기 전에 스마트 필터링·그룹핑·트렁케이션·중복 제거의 4가지 전략을 적용
  • Claude Code, Codex, Cursor, Gemini CLI 등 10개 AI 코딩 도구를 지원하며, 훅(hook) 설치 시 bash 명령어를 자동으로 rtk의 같은 명령어로 투명하게 재작성
    • 이 후크는 Bash 도구 호출에만 적용되며, Claude Code의 내장 도구인 Read, Grep, Glob 등은 이 후킹을 우회하므로 RTK 필터링을 적용하려면 셸 명령이나 명시적인 rtk 명령을 사용해야함
  • 30분 Claude Code 세션 기준 예상 절감량은 표준 ~118,000 토큰 대비 ~23,900 토큰(약 80% 절감)
    • cargo test/npm test, pytest, go test 등 테스트 러너에서는 최대 90%까지 절감
  • 시작방법
    # 1. 설치하기  
    rtk init -g                     # Claude Code / Copilot (default)  
    rtk init -g --gemini            # Gemini CLI  
    rtk init -g --codex             # Codex (OpenAI)  
    rtk init -g --agent cursor      # Cursor  
    # 2. 이후에 AI 도구를 재시작  
    git status  # 이제 rtk git status로 동작   
    
  • Apache-2.0 라이선스

개인적으로도 사용해보고 있긴한데요.. rtk 압축으로 인해, Claude Code 가 필요한 컨텍스트를 명령어 결과에서 확보 못하는 경우도 있어서 Case by Case 인것 같네요.

다른 유저들 사용사례에 약간의 부작용이 있는것 같네요.
빠른 시일내로 극복하고 잘 적용되길 바래봅니다.
https://reddit.com/r/ClaudeCode/…

잘 줄여준다면, 너무 좋을 듯 하네요!

아이디어 좋네요
그런데 학습이 일반 cli output 기준으로 되었을거니까 이렇게 condense 하면 출력이 이전처럼 잘 나올까 하는 우려가 약간 있습니다
한번 써보겠습니다

contextmode랑... 비교를 해봐야겠군요