Hacker News 의견들
  • Claude Code를 DeepSeek API로 돌리는 건 사실상 환경변수 몇 개를 지정하는 셸 래퍼로 가능함
    ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL을 설정하고 claude $@를 실행하는 정도임

    • 비밀이 아닌 프로젝트에서는 일주일 정도 DeepSeek v4로 이렇게 쓰고 있는데, 크게 무리한 작업을 시키지 않아서인지 차이를 거의 못 느끼겠음
      다만 DeepSeek API는 학습 제외를 선택할 수 없는 듯하고, 다른 제공자에 올라오면 더 나아질 것 같음. OpenRouter는 현재 DeepSeek로 프록시만 하는 상태로 보임
    • Claude를 놀리는 프로젝트는 코드 네 줄짜리라도 Hacker News 1위에 오르는 것 같음
    • deepclaude에서 더 흥미로운 부분은 세션 중간에 모델을 바꾸는 로컬 프록시와 통합 비용 추적 기능임
      다만 LLM이 만든 듯한 README에 이 기능들이 너무 묻혀 있고, 히스토리를 보면 나중에 추가됐는데 README 구조를 다시 잡지 않은 듯함
      작성자가 효과 있어 보이는 소셜 미디어 광고 계획도 커밋해 둠: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • 그래서 https://getaivo.dev를 만들었고, 코딩 에이전트에서 바로 모델을 쓸 수 있음
      aivo claude -m deepseek-v4-pro처럼 실행하면 됨
    • 본질적으로 이 방식 덕분에 로컬 모델까지 포함해 어떤 모델이든 Claude Code와 함께 쓸 수 있게 됨
  • 이게 무슨 의미인지 잘 모르겠음. DeepSeek는 이미 Claude Code를 포함한 여러 CLI에서 API를 쓰는 방법을 안내하고 있음
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • README가 실제로 사소하지 않은 기능을 완전히 묻어둠: 세션 중간 모델 전환 프록시를 돌리고, Anthropic과 다른 모델을 함께 쓸 때 비용을 통합 추적함
      README를 작성한 LLM이 이런 기능을 강조하도록 일반 프로젝트 설명을 업데이트하지 않은 듯함
      작성자의 광고 계획도 커밋되어 있음: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • 아마 별 의미는 없을 것 같음. 뭔가를 제대로 이해하지 못하고 조사도 하지 않은 채, 첫 생각을 한 번에 만들어 HN 첫 페이지와 모든 소셜에 올린 느낌임
    • 바이브 코더가 바이브 코더를 위해 만든 도구 같음
    • 도구 호출 형식이 정확히 같지는 않다고 봤음. 그래서 아무 AI나 Claude Code에 붙이려면 형식 변환이 필요할 것 같음
    • 실제로 얼마나 잘 되는지 궁금함. DeepSeek를 Hermes와 Opencode에서 써봤는데, 시스템 프롬프트로 강하게 안내해도 Hermes의 홀로그래픽 메모리 도구 같은 기본 도구를 쓰는 능력이 매우 나빴음
  • Claude Code 대안을 찾는다면 먼저 pi.dev나 opencode를 실행 프레임워크로 살펴보는 걸 권함
    모델은 OpenCode Go가 지금은 비용 효율이 가장 좋아 보이고, OpenRouter나 DeepSeek 직연결도 가능함. 개인적으로는 Kimi 쪽으로 가서 kimi.com 구독을 사는 편이 더 낫다고 봄

    • 내 실행 프레임워크도 후보로 던져봄: https://codeberg.org/mlow/lmcli
    • pi.dev나 opencode도 좋지만, 내가 쓰고 싶은 플러그인과 스킬은 Claude Code 쪽이 가장 많음
    • 동의함. OpenCode는 탄탄한 기반이고, 몇 가지 수정하면 매우 효과적인 실행 프레임워크가 될 수 있음
      개인 사이드 프로젝트인 mouse.dev에서는 OpenCode, Claude Code, Hermes의 일부를 조합해 모바일에서도 잘 동작하는 클라우드 에이전트 구조를 만들고 있음
    • pi.dev를 살펴봤는데 GitHub에 열린 이슈가 7개뿐이라 수상했음
      알고 보니 봇이 모든 이슈를 그냥 자동으로 닫고 있었음. 정말 할 말이 없음
    • Ollama Cloud도 비용 효율이 매우 좋음. 한 달 동안 쓰면서 5시간 제한에 걸린 건 한 번뿐이었고, 그때도 에이전트 8개를 2시간 동시에 돌렸을 때였음
  • 토큰 가격이 약 100만 토큰당 1달러여도 200달러어치 토큰을 쓰는 건 놀랄 만큼 쉬움
    아무리 계산해도 코딩 요금제가 더 가성비가 좋음

  • Sonnet 수준 성능으로 충분하다면 이건 확실한 업그레이드처럼 들림
    하지만 Sonnet은 실수가 너무 많아서, 그 수준 모델로 비용 최적화하는 게 결국 별 가치가 없다고 느낌. 그래도 선택지가 생긴 건 좋음

    • 많은 사람이 설계에는 Opus를 쓰고 구현에는 로컬 호스팅한 qwen3.6을 쓰는 식으로 좋은 결과를 얻고 있음
      설계는 Opus, 구현은 DeepSeek로 나누면 비용을 꽤 줄일 수 있을 것 같음. 개인적으로는 Anthropic을 아예 피하겠지만, 왜 쓰는지는 이해함
    • 아직 모든 최전선 모델의 지능이 대체로 비슷해져서 속도나 유효 문맥 창 같은 다른 요소로 고를 수 있는 포화 상태는 아님
      회사든 직원이든 지금 쓸 수 있는 최고 모델과 가장 높은, 혹은 두 번째로 높은 사고 강도를 쓰지 않을 이유가 잘 안 보임. 요금이 싸지는 않지만 그렇다고 아주 비싸지도 않음
    • 핵심은 좋은 모델이 아니라 가장 좋은 모델이 필요하다는 것임
      좋은 아키텍처를 만들려면 명세와 코드 등을 많이 읽어야 해서 입출력 토큰이 많아지고, 버그 수정도 로그나 Datadog까지 포함하면 마찬가지임
      방향을 찾고 나면 패치는 사소하고, 리팩터링이나 정리 작업이 아니라면 저렴한 모델로 아끼는 금액도 작음
      테스트는 점점 복잡해짐. opencode go만 봐도 GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash가 들어 있음
      이제 버그를 안고 이 모델들을 직접 대규모로 돌려야 하는데, 여기서 놓친 게 있는지 모르겠음. 더 싼 모델의 진짜 용도가 뭔지 궁금함
    • 이 교훈을 계속 다시 배우게 됨. 낮은 모델로 잘 가다가 너무 복잡한 문제를 던지고, 여러 모델을 시도하다가 결국 포기하고 Opus 4.6을 불러 정리하게 됨
    • Sonnet에서는 전혀 그렇게 느끼지 않음. 탄탄한 Claude.md가 있고, 주기적으로 출력을 검토하며 기본 CI 게이트로 좋은 코드 관행을 강제하면 Opus로 바꿔야 했던 적이 거의 없음
  • 보통 환경변수 두 개 설정하는 정도의 일을 AI에게 원샷으로 시킨 건가 싶음

  • Claude Code가 최고의 코딩 실행 프레임워크인지 궁금함. 이에 대한 평가를 돌리는 곳이 있나?

    • 개인적인 체감으로는 아님. 같은 Opus 모델도 Factory Droid나 Amp 같은 서드파티 실행 프레임워크에서 더 잘 동작함
      반면 Claude Code는 소비자용 Max 구독과 기업용 토큰 할인 양쪽에서 보조가 가장 많이 들어간 도구임. 토큰 캐싱과 사고량 축소 등 비용 최적화도 강하게 되어 있고, 그 대가로 품질이 떨어짐
  • 여러 CLI로 DeepSeek V4를 써본 결과, Langcli가 가장 잘 맞았음. 프로그래밍 작업에서는 캐시 적중률이 95%를 넘음
    같은 문맥 안에서 DeepSeek V4 Flash, V4 Pro, 다른 주류 모델을 매끄럽고 동적으로 전환할 수 있고, Claude Code와도 100% 호환됨

  • 하루의 절반을 들여 CUDA와 LLAMA를 5070TI에서 돌아가게 만들었음
    Roo의 에이전트 모드로 써볼 수 있었고, 계획을 작성하게 한 뒤 멈췄지만 시간이 더 나면 계속해볼 예정임
    DeepSeek는 돈만 충분하면 자체 호스팅이 가능하니 갑작스러운 철회 가능성이 낮아 보이지만, 그래도 로컬 솔루션이 더 기대됨
    보통 필요한 건 단순 노동이고, 어려운 문제를 푸는 건 아님

  • 분명히 바이브 코딩으로 공동 작성된 느낌이고, 가격도 맞지 않음

    • 앞으로는 바이브 코딩되지 않은 제목을 찾기가 정말 어려워질 것 같음
    • 조악한 바이브 코딩임. 기계는 세부 사항을 쉽게 확인할 수 있으니 그런 데 써야 함