추가적으로, 요청 후 response 내에서 해당 request 에 쓰인 토큰 양을 볼 수 있습니다 !

모델: claude-sonnet-4-6
요청 크기: 68.9 KB

"usage": {
"input_tokens": 3,
"cache_creation_input_tokens": 12394,
"cache_read_input_tokens": 6499,
"cache_creation": {
"ephemeral_5m_input_tokens": 0,
"ephemeral_1h_input_tokens": 12394
},
"output_tokens": 74,
"service_tier": "standard",
"inference_geo": "not_available"
}

또 이를 모델별 가격을 적용하여 request 당 cost 도 계산 해 두었으니 많은 이용 부탁드려요 ㅎㅎ

캐시읽기: 6.5K tok × $0.3/MTok = $0.0019
캐시쓰기: 12.4K tok × $3.75/MTok = $0.0465
미캐시 입력: 3 tok × $3/MTok = $0.0000
출력: 74 tok × $15/MTok = $0.0011

합계: $0.0495
캐시 적중률: 34%

비싼 모델(Opus)은 계획 수립에, 저렴한 모델(Sonnet)은 코드 작성에 사용하여 토큰 절약

계획은 Sonnet. 코드 구현은 Opus 으로 하시는 경우도 많던데 여긴 반대네

저도 회사에서 자주 고민하던 주제인데, 좋은데요 개인적으로 만들어보고 있는 하니스에도 도입 해 보아야겠어요

오 .... 이거 좋은데요 .... ?

저도 이게 불편해서 찾아보다가 OpenUsage를 찾아서 사용하고 있는데 꽤 만족스럽습니다.

이 댓글 보고 안쓰기로 마음먹었습니다.. statusline으로 충분한것같아요

리뷰는 점점 간소화하고 테스트를 빡세게 하는 방향으로 점차 이동하지 않을까 싶네요

오 Claude 자체적으로도 mcp 토큰 낭비를 막기 위해 mcp tool을 리스팅하는 tool을 적용했다고 알고 있는데, 그와는 별개로 동작하는 플러그인인가요?

아직까지 LLM/Agentic Coding은 우수한 tool이지 우수한 Engineer는 아닙니다. Agentic coding에서 우수한 Plan이 중요한 것처럼 결국 사용자가 코드를 이해하고 판단할 능력이 있어야합니다. 예를 들어, fastrender, CCC 가 Agentic Coding의 가능성을 보여줬지만 동시에 명확한 한계점을 보여줬습니다.

이거 로그인이 자꾸 풀려서 잘 안쓰게 되는데, 혹시 다른 분들은 괜찮으신가요?!

라이브러리 이름도 원본을 고려해서인지 그대로 pymath로군요

단순히 코드리뷰를 없애자가 아니라, 더 상위의 개념인 의도와 해당 의도가 제대로 동작했는지를 명시적으로 확인할 수 있는 산출물로 리뷰를 하자는 것 같네요.

현재 시점에서 설계, 아키텍처 레벨이 아닌 코드 구현의 디테일을 블랙박스로 유지하는 것은 바람직하다고 생각합니다.

영상의 원문 제목으로 변경했습니다.
글 제목은 GeekNews 이용법을 참고해서 올려주세요.

orange | 20시간전 | parent | on: LLM 아키텍처 갤러리 (sebastianraschka.com)

재밌네요

클로드코드를 사용해서 commit 하면 기본설정으로 컨트리뷰터에 자동으로 붙어서 나온다고 하더라고요.

리뷰가 없어지는건 행동 보상의 결과라고 생각됩니다.
회사에서 요구하는게
낮은 에러율이라면 리뷰를 더 강력하게 요구할꺼고
빠른 기능 출시라면 리뷰는 점차 생략되겠죠
리뷰가 사라진다는 얘기는 기업에서 선호하는게 빠른 기능 출시라고 느껴지네요
근데 제가 투자자라도 그렇게 요구할 것 같습니다 허허