2P by GN⁺ 2시간전 | ★ favorite | 댓글 3개
  • Anthropic 담당자가 OpenClaw 스타일의 Claude CLI 사용이 다시 허용된다고 통보함
  • Anthropic API 키Claude CLI 재사용을 함께 지원하며, 기존 Anthropic 토큰 프로필도 실행 시 계속 인정됨
  • Claude CLI 백엔드는 다시 허용된 통합 방식으로 처리되며, 새 정책 발표 전까지 claude -p 사용도 허용 대상
  • Claude 4.6 모델은 명시적 thinking 설정이 없을 때 adaptive thinking을 기본 적용하며, /think:<level> 또는 모델 파라미터로 재정의 가능
  • /fast 토글은 직접 api.anthropic.com으로 가는 요청에만 service_tier를 주입하며, 프록시나 게이트웨이를 거치면 tier 변경이 적용되지 않음
  • prompt caching1M context window도 지원하지만, 캐싱은 API 전용이고 1M 컨텍스트는 명시적 활성화와 long-context 사용 허용이 필요하며 기존 sk-ant-oat-* 인증에서는 베타 헤더가 제외됨

Anthropic 지원 방식

  • Claude 모델 계열 접근 경로로 API와 Claude CLI를 함께 지원하며, OpenClaw에서 Anthropic API 키Claude CLI 재사용 모두 사용 가능
    • 이미 설정된 기존 Anthropic 토큰 프로필도 실행 시 계속 인정됨
  • Anthropic API 키

    • 표준 API 접근과 사용량 기반 과금에 적합한 경로
    • API 키는 Anthropic Console에서 생성 가능
    • CLI 설정 예시로 openclaw onboard에서 Anthropic API key 선택 가능
    • 비대화형 방식으로 openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY" 지원
    • 설정 스니펫 예시에서 ANTHROPIC_API_KEY 환경 변수와 기본 모델 anthropic/claude-opus-4-6 사용

Thinking 기본값

  • Claude 4.6 모델은 OpenClaw에서 명시적 thinking 수준이 없을 때 기본값으로 adaptive thinking 적용
  • 메시지별 /think:<level> 또는 모델 파라미터 agents.defaults.models["anthropic/<model>"].params.thinking로 재정의 가능
  • 관련 문서로 Adaptive thinkingExtended thinking 연결 제공

Fast mode

  • OpenClaw의 공유 /fast 토글api.anthropic.com으로 보내는 직접 공개 Anthropic 트래픽도 지원
    • API 키 인증과 OAuth 인증 요청 모두 포함
  • /fast onservice_tier: "auto"로 매핑
  • /fast offservice_tier: "standard_only"로 매핑
  • 설정 기본값 예시에서 anthropic/claude-sonnet-4-6 모델의 params.fastMode: true 사용
  • 제한 사항

    • OpenClaw는 직접 api.anthropic.com 요청에 대해서만 Anthropic service tier 주입
    • anthropic/* 요청을 프록시나 게이트웨이로 우회하면 /fastservice_tier를 변경하지 않음
    • 명시적 serviceTier 또는 service_tier 모델 파라미터가 있으면 /fast 기본값보다 우선 적용
    • Anthropic는 실제 적용된 tier를 응답의 usage.service_tier에 기록
    • Priority Tier capacity가 없는 계정에서는 service_tier: "auto"가 여전히 standard로 해석될 수 있음

프롬프트 캐싱

  • OpenClaw가 Anthropic의 prompt caching 기능 지원
  • 이 기능은 API 전용이며, 기존 Anthropic 토큰 인증은 캐시 설정을 반영하지 않음
  • 설정

    • 모델 설정에서 cacheRetention 파라미터 사용
    • none은 캐싱 비활성화
    • short는 5분 캐시
    • long은 1시간 확장 캐시
    • 설정 예시에서 anthropic/claude-opus-4-6 모델에 params.cacheRetention: "long" 사용
  • 기본값

    • Anthropic API 키 인증 사용 시 모든 Anthropic 모델에 cacheRetention: "short" 자동 적용
    • 명시적으로 cacheRetention을 설정하면 이 기본값 재정의 가능
  • 에이전트별 재정의

    • 모델 수준 파라미터를 기본선으로 두고, 특정 에이전트는 agents.list[].params로 개별 재정의 가능
    • 예시에서 research는 기본 설정 사용, alertscacheRetention: "none" 적용
    • 캐시 관련 파라미터 병합 순서는 agents.defaults.models["provider/model"].params 이후 agents.list[].params 순서
    • 같은 모델을 써도 한 에이전트는 장기 캐시 유지, 다른 에이전트는 캐시 비활성화 가능
    • 캐시 비활성화 목적 예시로 burst 성격 또는 재사용이 낮은 트래픽에서 쓰기 비용 회피 언급
  • Bedrock Claude 참고

    • Bedrock의 Anthropic Claude 모델 amazon-bedrock/*anthropic.claude*는 설정된 경우 cacheRetention 전달 지원
    • 비 Anthropic Bedrock 모델은 실행 시 cacheRetention: "none"으로 강제
    • Anthropic API 키 기반 스마트 기본값은 명시값이 없을 때 Claude-on-Bedrock 모델 참조에도 cacheRetention: "short" 적용

1M 컨텍스트 창

  • Anthropic의 1M context window는 베타 제한 기능이며, OpenClaw에서는 지원되는 Opus/Sonnet 모델마다 params.context1m: true로 활성화 가능
  • 설정 예시에서 anthropic/claude-opus-4-6 모델의 params.context1m: true 사용
  • OpenClaw는 이를 Anthropic 요청의 anthropic-beta: context-1m-2025-08-07 헤더로 매핑
  • 이 기능은 해당 모델에서 params.context1m이 명시적으로 true일 때만 활성화
  • 사용 조건으로 해당 인증 정보에서 Anthropic가 long-context usage를 허용해야 함
  • 현재 Anthropic는 기존 Anthropic 토큰 인증 sk-ant-oat-* 사용 시 context-1m-* 베타 요청 거부
  • 기존 인증 모드에서 context1m: true를 설정하면 OpenClaw는 경고 로그를 남기고, context1m 베타 헤더를 건너뛰며 표준 컨텍스트 창으로 대체
    • 필요한 OAuth 베타는 유지

Claude CLI 백엔드

  • 번들된 Anthropic claude-cli 백엔드를 OpenClaw에서 지원
  • Anthropic 직원이 이 사용 방식이 다시 허용됨이라고 전달
  • 그에 따라 OpenClaw는 Anthropic가 새 정책을 발표하기 전까지 Claude CLI 재사용claude -p 사용을 허용된 통합 방식으로 처리
  • 항상 켜진 게이트웨이 호스트와 명시적 서버 측 과금 제어에는 Anthropic API 키가 가장 명확한 운영 경로
  • 설정 및 실행 세부 사항은 /gateway/cli-backends 경로 참조

참고 사항

  • Anthropic의 공개 Claude Code 문서는 여전히 claude -p 같은 직접 CLI 사용을 문서화 중
  • Anthropic 직원이 OpenClaw 방식의 Claude CLI 사용이 다시 허용된다고 전달했으며, Anthropic가 새 정책 변경을 발표하기 전까지 이를 확정된 지침으로 간주
  • OpenClaw에서 Anthropic setup-token도 지원되는 토큰 인증 경로로 계속 제공
  • 다만 사용 가능할 때는 OpenClaw가 Claude CLI 재사용claude -p를 더 우선하는 방식
  • 인증 세부 사항과 재사용 규칙은 /concepts/oauth 경로 참조

문제 해결

  • 401 errors / token suddenly invalid

    • Anthropic 토큰 인증은 만료되거나 취소될 수 있음
    • 새 설정에는 Anthropic API 키로 마이그레이션 권장
  • No API key found for provider “anthropic”

    • 인증은 에이전트별 적용
    • 새 에이전트는 메인 에이전트의 키를 상속하지 않음
    • 해당 에이전트에 대해 onboarding을 다시 실행하거나, 게이트웨이 호스트에 API 키를 설정한 뒤 openclaw models status로 확인 필요
  • No credentials found for profile anthropic:default

    • 어떤 인증 프로필이 활성인지 openclaw models status로 확인 가능
    • onboarding 재실행 또는 해당 프로필 경로에 API 키 설정 필요
  • No available auth profile (all in cooldown/unavailable)

    • openclaw models status --json에서 auth.unusableProfiles 확인 가능
    • Anthropic rate limit cooldown은 모델 단위일 수 있어, 현재 모델이 cooldown 중이어도 같은 계열의 다른 Anthropic 모델은 사용 가능할 수 있음
    • 다른 Anthropic 프로필 추가 또는 cooldown 해제 대기 필요
    • 추가 경로로 /gateway/troubleshooting/help/faq 제공

CC OAuth API 키 사용으로 골치 아팠다가 그냥 전 Codex 에 정착했어요...

사실 저도 요즘 그냥 Codex 에 정착.. 클로드는 토큰 소모가 너무 빨라요

Hacker News 의견들
  • OpenClaw의 Peter임, Boris from Claude Code가 Twitter에서 CLI 스타일 사용 허용이라고 공개적으로 말해서 그 가이드를 믿고 구현에 투자했음. cli 사용 시 heartbeat 같은 과도한 토큰 기능도 기본적으로 끄도록 바꿨지만, 실제로는 Anthropic이 시스템 프롬프트 일부를 막고 있어서 공개 커뮤니케이션과 현재 동작이 일치하지 않음. 관련 발언은 여기에서 확인 가능함. 사람들이 이름만 살짝 바꿔 우회하자 분류기도 바뀐 듯한데, 나는 그런 우회 게임을 할 생각이 없어서 이론상 가능하지만 실전에서는 안 되는 애매한 상태에 놓여 있음

    • OpenClaw 밖에서도 많은 사람이 그 Tweet를 믿고 claude -p 기반 워크플로를 꽤 깊게 쌓아왔음. 그런데 새 --bare 플래그 도입과 함께 무제한 사용자 대상 -p가 사실상 밀려나는 rug pull이 오는 것처럼 보여 걱정됨. 문서에도 --bare가 스크립트와 SDK 호출의 권장 모드이고, 앞으로 -p의 기본값이 될 예정이라고 적혀 있어서 내가 오해한 것이길 바라거나 명확한 설명이 필요함. 문서는 headless docs
    • 허용 범위를 따지는 김에 OpenAI의 Codex quota 사용 범위도 궁금함. OpenClaw에서 쓰는 건 허용되는 것으로 이해하지만, 다른 코딩 하니스나 유료 앱 안에서 사용자들이 자기 Codex quota를 쓰게 하는 것까지 되는지는 답을 못 찾았음. 작은 플레이어에게는 토큰 비용 보조가 어려워 이런 정책이 열리면 활용처가 크게 늘 텐데, 구독 모델 특성상 의도적으로 흐리게 두는 것 같기도 해서 더 답답함
    • 나는 OAuth 토큰에 단순한 rate limit만 붙이면 된다고 봄. 원칙도 간단해서, 구독은 사람이 이해 가능한 인간 규모의 사용에 쓰고 API key는 그 외 자동화에 쓰면 됨. Anthropic은 기계적 사용은 제한하되, 사람들은 자기 OAuth 토큰으로 claude -p나 더 나은 SDK 기반 워크플로를 만들 수 있게 하면 된다고 생각함
    • Anthropic 입장이 어렵다는 점도 이해는 감음. 비유하자면 Waymo가 보조금이 들어간 구독형 요금제를 운영하는데, 사람들이 사람이 타지 않은 차를 타이머로 예약해 원래 의도와 다른 방식으로 쓰기 시작한 상황과 비슷함. 가끔 장보러 보내는 정도는 괜찮아 보여도 매일 같은 시각에 아이스크림 하나 사 오게 돌리는 건 애매한 경계에 있음. 문제는 기준을 명확히 하면 사람들이 또 그 문구만 피해 경제성을 파고든다는 점이고, 그렇다고 정상 사용자를 위해 만든 플랜을 통째로 없애는 것도 맞지 않아 보임
    • 지금 와서 방향을 바로잡으려는 것처럼 보이지만 이미 신뢰는 많이 잃었다고 느낌. 게다가 새로 낮아진 제한까지 생각하면 OpenClaw에서 계속 쓸 만큼의 가치가 있는지 의문임
  • 나는 지금 상황이 정말 흐린 진흙탕처럼 느껴짐. Anthropic은 구독 유무에 따라 무엇이 지원되고 무엇이 안 되는지 명확히 밝혀야 하고, 그 전까지는 제품을 어떻게 써야 할지 사용자가 자기 위치를 알기 어려움. 나는 현재 OpenClaw나 유사 제품을 쓰지도 않지만, 적어도 무엇을 해도 되고 안 되는지는 알고 싶고 지금은 그게 거의 불가능한 상태라고 봄

    • Anthropic이 구독으로 얻는 것을 주 단위로 바꾸는 모습을 보니 나는 취미 수준 라이선스 이상으로 돈을 쓰고 싶지 않음. 제품은 훌륭할 수도 있지만, 어떤 시간대에 쓰느냐와 회사가 그때 어떻게 판단하느냐에 따라 달라지는 느낌임. 그래서 공개 가중치 모델들이 꽤 많이 나와 있어서 나쁜 행태에 상한선을 만들어주는 점이 오히려 안심됨
    • 나는 Claude Code 라이선스로 내가 확장 가능한 custom harness를 쓰거나 직접 만든 하니스를 붙이고 싶고, 가능하면 토큰 비용도 줄이고 싶음. Anthropic은 다음 모델부터 토큰 사용량을 낮추거나 운영 비용을 줄일 기준을 세워야 한다고 봄. 처리량이 비슷하다면 약간 느려져도 괜찮으니 비용이 내려가고 내가 만든 하니스와 함께 쓸 수 있으면 좋겠음
    • 내가 걱정하는 건 소통 부실과 계속되는 말 바꾸기임. 내 핵심 워크플로 중 하나가 특정 작업을 여러 모델로 라우팅하는 hook script들인데, 이런 것도 나중에 금지될지 아무도 모름. Anthropic이 일관된 설명을 못 하니 생태계에 투자하기가 어려움
    • 나는 사람들이 왜 이렇게 놀라는지 조금 의아함. Twitter API 같은 사례에서 이미 봤듯이, API는 당장 자기들 문제 해결에 도움이 될 때는 열려 있다가, 나중에 사람들이 실제로 쓰는 기능을 회사가 직접 만들면 경쟁 클라이언트 성격의 사용은 막히는 흐름이 반복된다고 봄
    • vibe coding에 대응하는 말로 vibe product가 떠오름. 요즘은 뭔가가 너무 빨리 나타났다가 사라지고 해서 예전 같은 기대감이 많이 줄어들었음
  • Anthropic 직원들이 Twitter에서 서로 상충된 설명을 하고 정정까지 해 가며 더 큰 혼란을 만든 점이 핵심이라고 봄. 오늘은 OpenClaw 스타일 Claude CLI 사용이 괜찮다고 했다가, 내일 정책 업데이트로 다시 철회될 수도 있다는 불안이 큼. Claude Code 관련해 Anthropic은 신뢰하기 어려운 모습을 보여줬고, 정신 건강을 지키려면 다른 제공자로 옮기는 편이 낫다고 생각함

    • 그 오타 아닌 오타인 keep your insanity가 오히려 너무 정확한 표현처럼 느껴져 웃겼음
    • 이런 발표를 왜 자꾸 Twitter에서 하는지 이해가 안 감. 정식 블로그 공지로 정책을 발표하고, 대체 하니스가 어떻게 동작해야 하는지도 명시해야 함. 지금 방식은 정말 비전문적으로 보임
    • 나도 이 소식 전달 방식이 이상하게 느껴짐. 왜 Anthropic이 아니라 OpenClaw가 이걸 알리는지 모르겠고, Anthropic이 직접 말하기 전까지는 선뜻 믿기 어려움
    • 내가 보기엔 가장 최근 Anthropic 공지는 OpenClaw 사용 시 구독 사용자가 추가 과금된다는 내용이지, 금지된다는 내용은 아니었음. 그리고 며칠 뒤 바뀐 이유도, 예전처럼 제3자 하니스에서 OAuth 토큰을 직접 쓰면 바로 막는 대신 그런 사용과 claude -p 사용을 모두 추가 과금으로 돌리기 위해서였을 가능성이 커 보임. 그래서 이 페이지가 그 공지와 모순된다고는 느껴지지 않음
    • 나는 서비스 제공자를 옮기는 걸 Uber One과 Lyft Pink를 오가던 경험에 비유해 봄. 고객 응대가 엉망일 때마다 갈아탔지만, 결국에는 익숙한 악마 하나를 고르고 그 특성에 적응하는 쪽이 낫다는 결론이었음. 지금은 OpenClaw 이슈 영향이 적다는 점과 Hegseth-Altman DoD 관련 불편함 때문에 Claude에 남아 있지만, 솔직히 Google, Anthropic, OpenAI 모두 AI 커뮤니케이션과 고객 대응에서 특별히 모범적이라고 보기는 어려움
  • 이 변경은 이미 2주 전에 commit으로 되돌아왔고, 그 시점도 Anthropic이 OpenClaw에 추가 사용량이 필요하다고 말한 지 3일 뒤였음. 이런 흐름을 보면 진지하게 받아들이기 어려운데, 공식 입장문은커녕 Tweet 하나 없는 점도 이상함. 참고로 다른 맥락은 HN 링크에서 보임

    • 헷갈리는 이유는 Claude Code 자격 증명을 쓰는 방식이 둘로 나뉘기 때문이라고 봄. 하나는 OAuth 자격 증명을 가져가서 자체 에이전트를 만드는 방식이고, 이건 허용되지 않음. 다른 하나는 공식 Claude Code 세션 안에서 에이전트 앱을 직접 실행하는 방식이고, 이건 허용됨. OpenClaw가 말하는 Open-Claw style CLI usage는 후자에 가까운 의미이며, Claude Code CLI 바깥에서 OAuth 자격 증명을 쓰면 기존 구독 안에서 API 가격 기준의 추가 과금이 붙는 구조로 이해하고 있음
    • 나도 이건 최근 Anthropic 발표와 대체로 일관된다고 느낌. 여기 어디에도 추가 과금이 없다고 쓰여 있지 않고, 핵심은 금지가 아니라 제3자 하니스에서 OAuth 토큰을 직접 쓰는 사용과 claude -p 사용 모두를 추가 과금 대상으로 돌리는 쪽으로 바뀌었다는 해석임
    • 공식 발표도 없고 Tweet도 없다는 말에 농담 반 진담 반으로 답하자면, release notes와 공지는 요즘 agentic anti-pattern인가 싶을 정도임. 이런 걸 챙기면 agentic을 잘못하고 있다는 자조가 나올 지경임
    • 나는 이 반응이 전형적인 FUD 증폭처럼 보이기도 함. 부정적 해석은 크게 키우고, 긍정적 신호는 묻어버리는 흐름이라는 느낌임
  • Anthropic은 가격을 올리고 제한을 줄이고 정책도 모호하게 하면서 쌓아 온 goodwill을 태우려는 것처럼 보임

    • 이런 변화는 마치 개구리 삶기처럼 서서히 온도를 올리는 기술 같다는 생각이 듦
    • 반대로 말하면 LLM 서비스가 계속 유지되려면 결국 제공자가 호스팅 비용보다 더 많은 돈을 벌어야 함. 그런데 우리는 아직 그 지점과도 꽤 멀리 떨어져 있다고 봄
    • 이런 상황을 보면 주주들 생각도 좀 해줘야 한다는 냉소가 절로 나옴
    • 이러다 보면 Anthropic이 악성 행위자라고 보는 중국산 클론들로 오히려 넘어가라고 등 떠미는 느낌까지 듦
    • 또 한편으로는 Hacker News가 늘 말해 온 지속 가능성 문제를 회사가 그대로 따라가는 것일 수도 있음. AI는 유용하지만 지속 가능성은 불확실하다고 했고, 이제 가격은 올리고 토큰은 줄이니 다들 화를 내는 상황이 아이러니하게 느껴짐
  • Amazon과 계약한 직후라서 이번 일도 결국 compute 제약 문제였던 게 아닐까 싶음. 어쨌든 내가 써본 Codex 월 20달러 플랜은 제한이 너무 낮아서 에이전트가 다른 에이전트로 넘어가기 전에 뭘 제대로 해보기도 어려웠음. Anthropic의 공식 공지 없이 이런 식으로 쓰다가 아끼는 Max 월 200달러 계정을 잃을까 봐 한동안은 조심스럽게 지켜볼 생각임

    • 내 경험은 꽤 달랐음. Claude web과 Opus 4.7으로 시작해 Claude Code로 이어 붙였더니 6에서 10개 정도의 프롬프트만에 quota 두 사이클을 다 먹어버렸음. 반면 pi.dev와 codex로는 몇 시간 동안 작업했고 Codex Pro 구독의 50퍼센트 정도만 사용했음. 그래서 소모 패턴 차이가 꽤 크다고 느낌
    • 대량 사용이 필요하면 Z.ai도 고려할 만함. GLM이 지금은 꽤 좋아졌고 가끔 API 불안정은 있지만, 예전엔 GLM을 주로 쓰고 Claude Pro는 리뷰와 정리에만 썼다가 이제는 그냥 GLM만 쓰게 되었음. Claude Max도 가성비가 아예 나쁘진 않지만, 내게는 필요 이상이고 Anthropic에 대한 호감도 점점 줄어드는 중임
    • Anthropic은 처음부터 이게 compute 제약 문제이고 OpenClaw가 감당 가능한 수준보다 훨씬 많은 사용량을 유발한다고 말했다고 기억함
    • GPT-5.4는 정말 토큰 포식형이라고 느낌. 말수는 적어도 gpt-5.3 codex는 코딩과 계획 면에서 매우 똑똑하고 토큰도 훨씬 덜 먹는 편이었음
  • 내 이해로는 Anthropic의 라이브러리나 도구를 쓰는 한 OAuth 자격 증명을 사용할 수 있음. 예를 들어 Claude Agent SDK에 OAuth를 붙여서 Claude Code를 내장한 각종 에이전트를 예측 가능한 월 비용 안에서 프로토타이핑할 수 있고, 스킬을 독립 실행형 도구나 앱으로 만드는 데 특히 매력적임. 더 복잡하게는 tmux 안에서 Claude Code를 돌리며 입출력을 주고받을 수도 있고, MCP Channels도 흥미로운데 앱과 실행 중인 Claude Code 인스턴스 사이에 MCP 서버를 두고 양방향 통신을 하게 해 줌. 속도는 느리지만, CLI 세션 문맥을 잃지 않은 채 GUI가 더 쉬운 작업으로 잠시 빠져나갔다가 다시 돌아오는 식의 사용이 가능해 흥미로움

    • 사실 Claude Code CLI에는 tmux가 꼭 필요하지 않음. CLI 자체가 streaming JSON 입력과 출력을 지원해서 stdin과 stdout 파이프로 제어할 수 있음. 나는 이 방식을 ask에서 지금 쓰고 있고, 꽤 잘 작동하고 있음
  • 지난 일주일 사이 내 OpenClaw 보조 비서가 Claude를 쓰면서 개성을 잃고, 원래 잘하던 일도 못 하는 상태가 되었음. 사용량은 28달러 정도까지 쌓였는데 그 뒤로는 더 이상 소비가 안 돼서 다른 문제가 있었는지는 모르겠지만 현상은 계속됐음. 결국 질려서 마이그레이션 스크립트로 대화 이력과 성격을 claude code config로 옮겼고, 새 remote exec 기능 덕분에 OpenClaw처럼 최신 실험적 도구의 불안정성을 감수하지 않아도 예전 기능을 대부분 되찾았음. 내 느낌엔 Anthropic이 취미 사용자 영역에 충분한 마찰을 걸어 결국 자사 전용 솔루션으로 이동시키려는 계획이었던 것 같고, 어쨌든 그쪽이 더 안전한 선택처럼 보이기도 함

    • 내 이해로 OpenClaw가 금지된 이유는 시스템에 주는 부하 때문이었음. 원래도 제3자 도구는 불법이었고 지금도 엄밀히는 그렇지만 추가 사용량 과금과 함께 애매하게 용인되는 상태처럼 보임. 그런데 여기에 관련성 낮은 독점 시스템 프롬프트 5만 자를 얹는다고 상황이 좋아질 것 같지는 않음. 결국 claude -p prompt와 cron으로 OpenClaw를 재현하면 Anthropic이 그걸 기쁘게 볼지 궁금하고, 아마 그렇게 할 수 있는 사람 수가 오차 범위라서 신경 안 쓰는 걸지도 모르겠음. 맥락은 이 HN 글도 참고 가능함
    • 사용자와 나 사이의 중간자를 경쟁사에 인수당했다면 그 의존성을 줄이려는 게 자연스럽다고 생각함. Apple이 Microsoft 매장에서 iPhone을 파는 상황과 비슷한 어색함이 있음
    • 너의 Claude Code 기반 OpenClaw 구현이 실제로 어떤 모습인지 구체적인 구성이 궁금함
  • OpenClaw가 Anthropic이 괜찮다고 했다고 말하는 구조라니, 정말 수정처럼 명확한 상황이라는 비꼼이 절로 나옴

  • 나는 Claude Code와 Opus, Max 플랜 조합에 대체로 만족하지만, 가끔 안 되는 순간들, 비용, 계정 밴 우려 같은 점은 여전히 마음에 걸림. 그래서 비슷하거나 더 나은 경험을 더 저렴하게 주는 대안 조합이 있는지 궁금함. pi.dev와 OpenCode가 좋다는 얘기를 많이 봤고, OpenCode에 Mimo V2 pro를 붙여보니 꽤 괜찮았음. 예전에는 무료가 막히기 전 Qwen CLI와 Gemini CLI도 썼고, Z.ai를 OpenCode와 함께 쓰기도 했음. 또 어떤 사람들은 계획은 Opus로 하고 덜 중요한 작업은 더 싼 모델로 넘긴다고 하던데, 나는 사용량 기반 과금은 결국 더 싸지 않을 것 같아 선호하지 않음. 주로 Python 백엔드와 TypeScript 프론트엔드를 하고 Hetzner에 호스팅하며 Docker를 많이 쓰고 필요하면 k3s도 쓰는데, 이런 환경에서 쓸 만한 실전 세팅을 공유받고 싶음