공식 사이트에서는 기능 출시를 알리면서, 사용 제한은 팀원의 트위터 계정으로 공지되는 게 흥미로움
예전에 2배 사용량을 발표했을 때 이런 ‘러그풀’ 이 올 거라고 예측한 사람도 있었음 (관련 트윗)
이런 접근이 합리적이라 생각함. 모두에게 가격을 올리는 대신, 특정 행동을 유도하는 방식임. 마치 시간대별 통행료 차등제 같은 개념임
Anthropic의 가격 정책 때문에 요즘은 GLM-5를 더 자주 쓰고 있음. Opus 수준은 아니지만 꽤 쓸 만함. 운 좋게 Alibaba Coding Model의 저가 플랜을 잡았는데, 지금은 그 플랜이 사라졌음
클라우드 제공업체를 쓰면 이런 제약은 감수해야 함. 안정성을 원한다면 Mac Studio나 Strix Halo 같은 로컬 장비를 사서 직접 추론 환경을 갖추는 게 나음
두 번째 트윗의 댓글을 보면 Anthropic의 Claude Code 엔지니어가 해당 내용이 사실이 아니라고 밝힘. 잘못된 정보가 퍼진 사례임
우리는 점점 AI 기반 소프트웨어 반복 개발이 기본이 되는 세상에 가까워지고 있음
신뢰할 수 있는 사용자가 피드백을 주면, AI가 티켓으로 정리하고, 또 다른 AI가 PR을 만들고, 검토 후 배포까지 하는 구조임
이제 거의 완성 단계에 와 있는 듯함
예전엔 나도 그 방향을 믿었지만, 지금은 회의적임. 각 단계마다 오류율이 너무 높고, 그걸 줄이려는 시스템조차 또 다른 오류를 만듦
AI가 유지보수 가능한 코드를 쓰지 못하고, 오히려 속도를 늦춤. 결국 AI 보조 코딩이 훨씬 효율적임
FAANG이 한 줄당 300달러를 쓰는 이유는 속도가 아니라 정확성과 구조 때문임
이런 방향성은 마음에 들지만 추론 비용이 너무 큼. 학습비용은 괜찮지만, 추론비용이 떨어지면 모델 공개 유인이 사라짐 Taalas가 모델을 하드웨어에 직접 구워 넣는다면 큰 진전이겠지만, 결국 하드웨어 병목으로 문제를 옮기는 셈임
언젠가 게임보이 카트리지처럼 모델을 꽂아 쓰는 시대가 올지도 모름
사용자 입장에서는 이미 인간이 만든 소프트웨어와의 거리가 너무 멀어서, 누가 만들었는지 신경 쓰지 않음
해커뉴스 글을 읽는 것도, 이미 여러 계층의 자동화된 시스템을 거친 결과물임
수십 년이 지나도 사용자가 제대로 된 티켓을 쓰는 일은 여전히 어려움
그런 피드백 루프는 결국 garbage-in → garbage-out을 지수적으로 키우는 꼴임. “로봇이 스스로 고친다”는 환상과 같음
예전에 ChatGPT 비슷한 걸로 “매일 오전 8시에 출근길 교통 혼잡이 있을 때만 알려줘”라고 설정했는데, 혼잡이 없어도 매일 알림이 왔음
대부분의 에이전트 시스템이 단순히 cron으로 해결하려 하지만, prospective memory 개념을 무시함
관련 글은 The Missing Memory Type 참고
결국 프롬프트를 더 명확히 써야 함. 프로그래머 농담처럼, 조건을 잘못 쓰면 엉뚱한 결과가 나옴
에이전트는 도구를 루프 안에서 실행함. 반복 가능한 결과를 원하면 “혼잡”의 정의를 도구로 명확히 해야 함
나는 날씨, 열차 시간표, 근무 일정 캘린더, Telegram 알림 도구를 연결해 이 시스템을 돌리고 있음
사실 cron으로도 충분히 구현 가능함
나도 같은 문제를 겪었음. 시스템이 true positive만 알리지 못하고 false positive까지 다 알림. 너무 멍청함
많은 사람과 회사가 웹 자동화를 원했지만, 사이트 운영자들이 막았음
그런데 이름에 AI를 붙이니 이제 허용되는 분위기임
최근 GitHub Copilot Pro에서 Claude Code Max (20x) 로 옮겼음
Claude는 여러 면에서 뛰어나지만, 원격/클라우드 에이전트 부분은 약함
Elixir 프로젝트에서 “Claude on the web”을 설정하려다 네트워크 방화벽 문제로 실패함
로그도 끝부분만 보여서 디버깅이 힘듦
반면 Copilot의 “Coding Agents”는 GitHub Actions 인프라를 써서 훨씬 안정적임
“Schedule task on the web”도 같은 구조라, 비슷한 문제가 생길까 걱정됨
사람들은 결국 AI 대신 단순 규칙 기반 자동화로 충분한 일을 AI로 하려 할 것 같음
“AI로 X를 해결하자”는 말이 회사에서도 자주 나오지만, 사실 필요 없는 경우가 많음
업계 전반에서 “cron으로 작업 실행” 같은 기본 자동화를 일부러 막는 듯함
AI가 “then” 부분을 도와줄 수는 있지만, “if” 조건만 잘 다뤄도 충분히 유용함
우리 회사도 비슷함. 인수합병 중인데, 투자자들이 “AI를 더 써야 경쟁에서 뒤처지지 않는다”고 압박함 AI 도입이 목적이 되는 현상이 문제임
Hacker News 의견들
공식 사이트에서는 기능 출시를 알리면서, 사용 제한은 팀원의 트위터 계정으로 공지되는 게 흥미로움
예전에 2배 사용량을 발표했을 때 이런 ‘러그풀’ 이 올 거라고 예측한 사람도 있었음 (관련 트윗)
우리는 점점 AI 기반 소프트웨어 반복 개발이 기본이 되는 세상에 가까워지고 있음
신뢰할 수 있는 사용자가 피드백을 주면, AI가 티켓으로 정리하고, 또 다른 AI가 PR을 만들고, 검토 후 배포까지 하는 구조임
이제 거의 완성 단계에 와 있는 듯함
AI가 유지보수 가능한 코드를 쓰지 못하고, 오히려 속도를 늦춤. 결국 AI 보조 코딩이 훨씬 효율적임
FAANG이 한 줄당 300달러를 쓰는 이유는 속도가 아니라 정확성과 구조 때문임
Taalas가 모델을 하드웨어에 직접 구워 넣는다면 큰 진전이겠지만, 결국 하드웨어 병목으로 문제를 옮기는 셈임
언젠가 게임보이 카트리지처럼 모델을 꽂아 쓰는 시대가 올지도 모름
해커뉴스 글을 읽는 것도, 이미 여러 계층의 자동화된 시스템을 거친 결과물임
예전에 ChatGPT 비슷한 걸로 “매일 오전 8시에 출근길 교통 혼잡이 있을 때만 알려줘”라고 설정했는데, 혼잡이 없어도 매일 알림이 왔음
관련 글은 The Missing Memory Type 참고
나는 날씨, 열차 시간표, 근무 일정 캘린더, Telegram 알림 도구를 연결해 이 시스템을 돌리고 있음
사실 cron으로도 충분히 구현 가능함
많은 사람과 회사가 웹 자동화를 원했지만, 사이트 운영자들이 막았음
그런데 이름에 AI를 붙이니 이제 허용되는 분위기임
최근 GitHub Copilot Pro에서 Claude Code Max (20x) 로 옮겼음
Claude는 여러 면에서 뛰어나지만, 원격/클라우드 에이전트 부분은 약함
Elixir 프로젝트에서 “Claude on the web”을 설정하려다 네트워크 방화벽 문제로 실패함
로그도 끝부분만 보여서 디버깅이 힘듦
반면 Copilot의 “Coding Agents”는 GitHub Actions 인프라를 써서 훨씬 안정적임
“Schedule task on the web”도 같은 구조라, 비슷한 문제가 생길까 걱정됨
사람들은 결국 AI 대신 단순 규칙 기반 자동화로 충분한 일을 AI로 하려 할 것 같음
“AI로 X를 해결하자”는 말이 회사에서도 자주 나오지만, 사실 필요 없는 경우가 많음
AI가 “then” 부분을 도와줄 수는 있지만, “if” 조건만 잘 다뤄도 충분히 유용함
AI 도입이 목적이 되는 현상이 문제임
나는 사람들이 에이전트 스킬을 이해하도록 돕는 글을 썼음
Building Agent Evals
그리고 비결정성 문제를 다룬 글도 있음
Error Compounding
나는 Claude Code Max 20x 플랜인데도 클라우드 예약 작업이 3개로 제한됨
그래도 기능 자체는 멋짐. 로컬에서는 권한 문제로 귀찮았는데, 클라우드 샌드박스에서 돌릴 수 있음
내가 설정한 세 가지 작업은 다음과 같음
pnpm audit과pnpm outdated실행 후 보안/업데이트 리포트 작성develop브랜치 커밋을 검토해 버그, 보안, 문서 누락 등을 점검이걸 매일/매주 자동으로 돌리면 유용할 듯함. Claude Code의 Sentry 커넥터가 꽤 정확했음
나중엔 자동으로 이슈 생성이나 PR 제출까지 시도해볼 예정임
0 7 * * 1-5 ANTHROPIC_API_KEY=sk-... /path/to/claude-cron.sh /path/to/repo >> ~/claude-reports.md 2>&1Claude의 속도가 놀라움.
Grok은 이미 이 기능을 제공하고 있었는데, 이제야 다른 곳들이 따라옴
이런 기능은 사용자 락인 효과가 큼. Grok은 10개의 동시 작업을 무료로 제공함
나는 매일 아침 여러 소스에서 뉴스를 추출하는 데 사용 중임
이 기능은 다소 제한적임. 스크린샷을 찍거나 임의의 도메인으로 curl 요청을 보낼 수 없음
그래서 나는 Cronbox라는 클라우드 서비스를 만들었음
“Show HN: Cronbox – Schedule AI Agents”로 소개했었고,
예시 작업으로 Pelican Rides a Bicycle도 있음
기본적인 걸 놓친 것 같음. 이건 깃 저장소에 프롬프트를 실행하는 건 알겠는데, 결과는 어디로 가는지?
커밋 권한을 줘서 직접 반영하는 건지, 아니면 MCP 도구를 통해 작동하는 건지 궁금함