26P by skg09203 2달전 | ★ favorite | 댓글 4개

YouTube 자막을 서버에서 처리(요약/엔티티/토픽/감성분석)해서
LLM 클라이언트에는 압축된 결과만 전달하는 MCP 서버입니다.

만든 이유:
기존 YouTube MCP 서버 약 80개를 조사해봤는데, 전부 원본 자막을
그대로 LLM에 던집니다. 20분 영상 하나에 ~15,000 토큰이
소모되는 걸 요약 ~200-500 토큰, 전체 리포트도 ~3,000 토큰으로
줄여줍니다.
Claude skills로 사용할거 염두에 CLI로도 사용 가능하게 해두었습니다.

주요 기능:

  • 구조화된 리포트 (요약 + 토픽 + 엔티티 + 댓글 한번에)
  • 9개 MCP tool + CLI (mcp-yt)
  • Ollama/vLLM 연동으로 무료 LLM 요약
  • 채널 RSS 모니터링
  • 한/영 엔티티 200+개 사전
  • SQLite 캐시

pip install mcp-youtube-intelligence
Claude Desktop, Cursor, Claude Code에서 바로 연결 가능합니다.

GitHub: https://github.com/JangHyuckYun/mcp-youtube-intelligence
PyPI: https://pypi.org/project/mcp-youtube-intelligence/

분명 토큰수를 줄이면서 트레이드 오프가 발생했을것 같은데 혹시 그 부분에 대한 것은 리드미에서 찾아볼 수 없었습니다!

요즘 기본 컨텍스트가 200k 인데 압축손실로 인한 퀄리티 디그래이션이 궁금하내요

안녕하세요!

추출형 요약(LLM 없이)은 원본 대비 체감상 대략 6/10 수준이에요. 핵심 문장을 뽑아주긴 하지만 맥락 연결이 약해요.
LLM 요약(Ollama 등)은 훨씬 낫고, 실제로 몇 소개 영상이나 개발 관련 영상으로 테스트해보니 내용 파악은 충분히 되는걸로 보였어요. 다만 세부 수치나 미묘한 뉘앙스는 날아가는 경우가 있어요.

200k 컨텍스트면 단일 영상, 30분~1시간 등 좀 짧은 영상이면 원본이 낫고,
수백 개 영상 대량 처리나 반복 분석할 때 토큰을 덜 소모하며 핵심 내용만 뽑을수 있을거라 생각해요.
(예: 경쟁사 채널 전체 분석, 경제 유튜버 100개 영상 분석 등 )

README에 좀 더 다양한 영상으로 테스트해보고 벤치마크 결과랑 트레이드오프를 좀 더 명확하게 추가해둘게요!

정성스러운 답변 너무 감사드립니다!! 프로젝트가 과실을 얻기를 바랍니다!!

ㅎㅎ 넵 감사합니다!