rtk - LLM 토큰 소비를 60~90% 줄여주는 CLI 프록시
(github.com/rtk-ai)- AI 코딩 도구가 실행하는 CLI 명령어 출력을 LLM에 전달하기 전에 필터링·압축해 토큰을 60~90% 절감하는 단일 Rust 바이너리(윈/맥/리눅스)
- git, grep, ls, cargo test 등 100개 이상의 명령어를 지원하며, 명령어 출력을 LLM 컨텍스트에 전달하기 전에 스마트 필터링·그룹핑·트렁케이션·중복 제거의 4가지 전략을 적용
-
Claude Code, Codex, Cursor, Gemini CLI 등 10개 AI 코딩 도구를 지원하며, 훅(hook) 설치 시 bash 명령어를 자동으로 rtk의 같은 명령어로 투명하게 재작성
- 이 후크는 Bash 도구 호출에만 적용되며, Claude Code의 내장 도구인
Read,Grep,Glob등은 이 후킹을 우회하므로 RTK 필터링을 적용하려면 셸 명령이나 명시적인 rtk 명령을 사용해야함
- 이 후크는 Bash 도구 호출에만 적용되며, Claude Code의 내장 도구인
- 30분 Claude Code 세션 기준 예상 절감량은 표준 ~118,000 토큰 대비 ~23,900 토큰(약 80% 절감)
-
cargo test/npm test,pytest,go test등 테스트 러너에서는 최대 90%까지 절감
-
- 시작방법
# 1. 설치하기 rtk init -g # Claude Code / Copilot (default) rtk init -g --gemini # Gemini CLI rtk init -g --codex # Codex (OpenAI) rtk init -g --agent cursor # Cursor # 2. 이후에 AI 도구를 재시작 git status # 이제 rtk git status로 동작 - Apache-2.0 라이선스
개인적으로도 사용해보고 있긴한데요.. rtk 압축으로 인해, Claude Code 가 필요한 컨텍스트를 명령어 결과에서 확보 못하는 경우도 있어서 Case by Case 인것 같네요.
다른 유저들 사용사례에 약간의 부작용이 있는것 같네요.
빠른 시일내로 극복하고 잘 적용되길 바래봅니다.
https://reddit.com/r/ClaudeCode/…
아이디어 좋네요
그런데 학습이 일반 cli output 기준으로 되었을거니까 이렇게 condense 하면 출력이 이전처럼 잘 나올까 하는 우려가 약간 있습니다
한번 써보겠습니다