Show GN: MCP YouTube Intelligence — YouTube 영상을 토큰 효율적으로 분석하는 MCP 서버
(github.com/JangHyuckYun)YouTube 자막을 서버에서 처리(요약/엔티티/토픽/감성분석)해서
LLM 클라이언트에는 압축된 결과만 전달하는 MCP 서버입니다.
만든 이유:
기존 YouTube MCP 서버 약 80개를 조사해봤는데, 전부 원본 자막을
그대로 LLM에 던집니다. 20분 영상 하나에 ~15,000 토큰이
소모되는 걸 요약 ~200-500 토큰, 전체 리포트도 ~3,000 토큰으로
줄여줍니다.
Claude skills로 사용할거 염두에 CLI로도 사용 가능하게 해두었습니다.
주요 기능:
- 구조화된 리포트 (요약 + 토픽 + 엔티티 + 댓글 한번에)
- 9개 MCP tool + CLI (mcp-yt)
- Ollama/vLLM 연동으로 무료 LLM 요약
- 채널 RSS 모니터링
- 한/영 엔티티 200+개 사전
- SQLite 캐시
pip install mcp-youtube-intelligence
Claude Desktop, Cursor, Claude Code에서 바로 연결 가능합니다.
GitHub: https://github.com/JangHyuckYun/mcp-youtube-intelligence
PyPI: https://pypi.org/project/mcp-youtube-intelligence/
분명 토큰수를 줄이면서 트레이드 오프가 발생했을것 같은데 혹시 그 부분에 대한 것은 리드미에서 찾아볼 수 없었습니다!
요즘 기본 컨텍스트가 200k 인데 압축손실로 인한 퀄리티 디그래이션이 궁금하내요
안녕하세요!
추출형 요약(LLM 없이)은 원본 대비 체감상 대략 6/10 수준이에요. 핵심 문장을 뽑아주긴 하지만 맥락 연결이 약해요.
LLM 요약(Ollama 등)은 훨씬 낫고, 실제로 몇 소개 영상이나 개발 관련 영상으로 테스트해보니 내용 파악은 충분히 되는걸로 보였어요. 다만 세부 수치나 미묘한 뉘앙스는 날아가는 경우가 있어요.
200k 컨텍스트면 단일 영상, 30분~1시간 등 좀 짧은 영상이면 원본이 낫고,
수백 개 영상 대량 처리나 반복 분석할 때 토큰을 덜 소모하며 핵심 내용만 뽑을수 있을거라 생각해요.
(예: 경쟁사 채널 전체 분석, 경제 유튜버 100개 영상 분석 등 )
README에 좀 더 다양한 영상으로 테스트해보고 벤치마크 결과랑 트레이드오프를 좀 더 명확하게 추가해둘게요!