Anthropic, Claude의 AI 동작을 숨기려다 개발자 반발 초래
(theregister.com)- Anthropic이 AI 코딩 도구 Claude Code의 출력 방식을 변경해, 어떤 파일을 읽거나 수정하는지 표시하지 않도록 함
- 새 버전(2.1.20)은 파일 이름 대신 “3개의 파일을 읽음”과 같은 요약만 보여주며, 세부 정보는 단축키로만 확인 가능
- 개발자들은 보안·감사·오류 탐지를 위해 파일명을 실시간으로 확인해야 한다며 강하게 반발
- Anthropic 측은 UI 단순화를 위한 조치라고 해명했으나, “verbose 모드” 대안은 불필요한 정보 과다로 비판받음
- AI 도구가 내부 동작을 숨기면 투명성과 신뢰성 저하로 이어질 수 있다는 우려가 제기됨
Claude Code 출력 변경 논란
- Anthropic은 Claude Code의 진행 출력(progress output) 을 수정해, AI가 읽거나 수정 중인 파일 이름을 기본적으로 숨김
- 기존에는 파일명과 읽은 줄 수가 표시되었으나, 새 버전에서는 “Read 3 files (ctrl+o to expand)” 형태로 축약됨
- 세부 정보는 단축키로 열람 가능하지만, 개발자들은 이를 번거롭고 비실용적이라 평가
- 개발자들은 Claude가 잘못된 파일을 참조하거나 보안상 민감한 파일을 접근할 경우 즉시 파악하기 어렵다고 지적
- 코드베이스가 복잡할수록 AI의 문맥 추적을 확인하는 것이 중요하다고 언급
- 잘못된 방향으로 진행될 때 조기 중단해 토큰 낭비를 방지할 수 있다는 점도 강조
개발자 반응과 비판
- GitHub 이슈에서 다수의 개발자가 변경에 불만을 표출
- 한 사용자는 “이건 단순화가 아니라 유용한 정보의 삭제”라고 비판
- 또 다른 사용자는 “verbose 모드는 너무 시끄럽고 대안이 될 수 없다”고 지적
- Anthropic의 Claude Code 책임자 Boris Cherny는 “UI 단순화를 위한 조치이며, 중요한 것은 diff와 bash/mcp 출력”이라고 설명
- 그는 “며칠 사용해보라”며, 내부 개발자들은 ‘잡음 감소’를 긍정적으로 평가했다고 언급
- 이후 Cherny는 피드백을 반영해 verbose 모드를 조정, 파일 경로 표시 기능을 추가했으나
- 기존 verbose 모드의 세부 정보가 줄어들어, 전체 정보를 원하던 사용자에게는 불리하다는 지적이 이어짐
Hacker News 및 커뮤니티 논의
- Cherny는 Hacker News 토론에서도 “Claude가 더 똑똑해지고 실행 시간이 길어지며, 출력량이 과도해졌다”고 언급
- 출력이 터미널을 과부하시키는 문제가 있어 단순화가 필요하다고 주장
- 그러나 다수의 사용자들은 축약된 출력이 유용성을 떨어뜨린다고 반박
- “Claude가 어떤 파일을 읽는지 알아야 중간에 개입해 수천 개의 토큰을 절약할 수 있다”는 의견이 제시됨
- 일부는 Claude의 불투명성(opacity) 이 커져 “더 이상 신뢰하기 어렵다”고 토로
투명성과 신뢰성 문제
- 개발자들은 Claude Code가 내부 동작을 숨기면 오류 탐지와 검증이 어려워진다고 경고
- 한 사용자는 “Claude의 의도나 논리를 따라갈 수 없으면 세션이 토큰만 낭비한다”고 지적
- “지속적인 감독과 교정 없이는 올바른 결과를 기대하기 어렵다”고 언급
- 기사에 따르면 Claude Code는 자주 업데이트되지만, 이전 방식으로 되돌릴 조짐은 없음
요약
- Anthropic의 변경은 UI 단순화 대 투명성 저하라는 논쟁을 불러옴
- 개발자 커뮤니티는 AI 도구의 내부 행위 가시성을 핵심 신뢰 요소로 간주
- Claude Code의 향후 업데이트가 투명성과 사용성의 균형을 어떻게 맞출지가 주목됨
Hacker News 의견들
-
Claude가 내부 동작을 숨기는 건 이상한 일임
단순한 호기심 때문이 아니라, 모델이 엉뚱한 행동을 하기 전에 잡아내기 위해서임
예를 들어 코드베이스 전체를 잘못 읽거나, 수정하면 안 되는 파일을 건드릴 때를 막기 위함임
verbose 모드 개선은 좋지만, 처음부터 이런 투명성이 기본이었어야 함
AI가 파일을 다룬다면 어떤 파일을 다루는지 정확히 보여주는 것이 필수적임
추상화는 좋지만, 빌드를 망칠 수 있는 부분을 가리면 안 됨- 최근 AI 프로그래밍의 흐름은 자율적으로 장시간 동작하는 에이전트 팀임
이런 관점에서 보면 UX가 사람 중심이 아니라, 결과 중심으로 설계된 게 이해됨
하지만 여전히 “탈선” 문제는 해결되지 않았고, 여러 AI 에이전트가 자율적으로 올바른 결과를 낼 수 있을지는 의문임 - 그래서 나는 여전히 “허락 요청” 프롬프트를 사용함
번거롭지만, 잘못된 프로젝트를 수정하려는 걸 막을 수 있음
수백 개의 라이브러리 프로젝트가 있는 모놀리식 코드베이스에서는 필수임
모델이 잘못된 의미로 명령을 해석하면 수십 분 동안 헛돌기도 함 - 나는 Claude가 하는 일을 굳이 지켜보지 않음
대신 다른 작업을 하거나 휴대폰을 봄
수동으로 출력을 감시하는 건 비효율적인 방식이라고 생각함 - 코드 리뷰를 실시간으로 하며 AI의 방향을 조정하는 게 가장 좋은 방법임
Anthropic이 이걸 이해하지 못하는 게 이상함 - 아마도 Claude의 Chain-of-Thought를 경쟁사들이 학습하지 못하게 하려는 의도일 수도 있음
- 최근 AI 프로그래밍의 흐름은 자율적으로 장시간 동작하는 에이전트 팀임
-
“더 많은 정보를 보여달라”는 요구에 “덜 보여주는” 방식으로 대응한 게 아이러니함
- 이제 “verbose”라는 단어가 원래 의미를 잃은 것 같음
“빠른(fast)”도 회사마다 다르게 쓰이고, 단어의 의미가 제각각이라 레이블만 보고는 이해할 수 없음 - Claude가 종종 이런 식으로 “기존 기능을 재활용하자”고 판단하는 게 흥미로움
단순하고, 사용자의 요구를 충족시킨다고 생각하는 듯함 - 실제로 새 verbose 모드를 써봤는데, 너무 장황함
기본 모드는 거의 무음 모드 수준이고, 백그라운드에서 자율적으로 실행돼서 화면이 깜빡임
질문 후 몇 초 기다리다 자동으로 기본 선택을 진행하는데, Esc로도 멈추지 않을 때가 있음
최근 업데이트는 꽤 짜증스러웠음 - 원래는 읽은 파일 수만 보여줬는데, 이제는 파일 경로와 이름을 보여줌
다만 예전보다 덜 자세해졌고, 더 자세히 보려면 새로운 모드가 필요함
- 이제 “verbose”라는 단어가 원래 의미를 잃은 것 같음
-
Anthropic이 개발자 시장을 겨냥하며 잘해왔지만, 이번 결정은 위험한 선택임
경쟁이 치열한데 이런 고집은 개발자들의 신뢰를 잃게 만들 수 있음- Claude Code가 수익의 핵심인지, 아니면 모델 자체인지 궁금함
나는 Claude 모델을 여러 플랫폼에서 쓰지만, Claude Code는 불편해서 안 씀
대신 Claude Co-work이나 Excel 통합처럼 비개발자 시장에서의 확장 가능성은 커 보임 - 나도 이미 구독을 취소함
Codex로 갈아탔고, Claude Code는 느리고 피드백이 부족해서 답답함
단순한 프롬프트 하나에도 20분 동안 멈춰 있는 걸 보면 다시 쓸 이유가 없음
- Claude Code가 수익의 핵심인지, 아니면 모델 자체인지 궁금함
-
대안으로 OpenCode가 있음
Claude Code와 가장 비슷한 경험을 주지만, 아직은 Claude Code를 선호함- 나는 OpenCode의 TUI 인터페이스가 너무 좋아서 다시 돌아갈 수 없을 정도임
- 다만 OpenCode가 터미널 스크롤을 자체 구현해서 불편함
- Max 구독자도 OpenCode를 제대로 못 쓴다는 불만이 있었음
- 관련 프로젝트로 oh-my-pi도 있음
- 개인적으로는 opencode + glm5 조합이 꽤 만족스러웠음
-
Anthropic이 코드 리뷰를 피하는 워크플로우를 유도하는 것 같음
사람이 코드를 직접 보지 않게 만드는 건 일종의 락인 전략임- 나는 여전히 모든 변경사항을 직접 검토함
코드 생성이 빨라서 전체 시간의 40% 정도를 리뷰에 쓰는데, 그만큼 품질이 중요함
- 나는 여전히 모든 변경사항을 직접 검토함
-
나는 하루 종일 5개 이상의 에이전트를 돌림
결과를 철저히 측정·검증하기 때문에, 출력이 조용한 게 오히려 좋음
필요할 때만 “생각 과정을 설명하라”는 프롬프트를 써서 로그를 남김
그래도 이전 방식이 좋은 사람들을 위해 선택 모드가 있으면 좋겠음- 나도 세 가지 가시성 모드(기본, 높음, verbose)를 제공하면 좋겠다고 생각함
하지만 실시간으로 에이전트를 지켜보는 방식은 곧 시대에 뒤떨어질 것 같음
모델이 너무 빨리 발전하고 있음 - 이 논의의 핵심은 바로 이런 근본적인 긴장감임
- 테스트와 검증을 어떻게 하는지 궁금함 — 전통적인 테스트인지, 아니면 역할 분리된 에이전트 전략인지
- 24/7로 5개 에이전트를 돌리면 구독비가 꽤 클 텐데, 어떤 플랜을 쓰는지도 궁금함
- 나도 세 가지 가시성 모드(기본, 높음, verbose)를 제공하면 좋겠다고 생각함
-
최근 Claude의 리서치 방식이 악화된 걸 느꼈음
단순한 문제에도 수십 개의 불필요한 스레드를 생성함
30분 넘게 헛돌다가 결국 “길을 잃은” 상태가 됨
이제는 이런 조짐이 보이면 바로 중단시킴
“관련 코드만 보라”고 해도 “직접 보겠다”고 답함 — 정말 당황스러움- 이게 특정 모델에서만 그런 건지, 전반적인 문제인지 궁금함
-
이 이슈는 이미 HN의 다른 스레드에서 Anthropic 개발자가 직접 언급했음
- 그리고 그 논의는 이후 블로그 포스트로 정리되어 여러 채널에서 공유됨
-
Claude는 대화 로그를
~/.claude/projects에 저장함
그래서 cc-tail 같은 툴로 로그를 실시간으로 볼 수 있음 -
나는 항상 Claude Code에게 변경 계획을 먼저 세우게 함
어떤 파일을 수정할지 설명하게 한 뒤, 새 컨텍스트에서 실행시킴- 나는 blackbird라는 툴을 만들고 있음
명세를 JSON 계획으로 분해한 뒤, 각 작업을 Claude나 Codex로 비대화식 실행함
네 워크플로우와 잘 맞을 것 같음 - 새 컨텍스트를 쓰는 이유가 궁금함 — 단순히 계획을 승인하면 자동으로 초기화되는 건지 물어보고 싶음
- 나는 blackbird라는 툴을 만들고 있음