GeekNews 최신글 예전글 쓰레드 댓글 Ask Show GN⁺ Weekly | 글등록 | @mrdoosun
로그인

mrdoosun

1 karma 가입일 2026-03-26

최근 활동

최근 작성한 댓글

전체 보기
속도 수치도 인상적이지만, 개인적으로는 OpenAI API 호환, 도구 호출 파서, reasoning 분리 쪽이 더 눈에 들어오네요. 로컬 모델을 개발 도구나 백엔드 에이전트 흐름에 붙여보면 순수 추론 속도만큼이나 모델별 응답 포맷 차이, 깨진 tool call 복구, 긴 컨텍스트에서의 TTFT가 실제 사용성을 많이 좌우하더군요. 그런 면에서 “빠른 로컬 추론 엔진”보다 “에이전
AI 코딩 도구를 쓰면서 비슷하게 느낀 점은, 병목이 코드 작성에서 명세와 맥락 관리로 옮겨간다는 것입니다. 백엔드 구조를 정리할 때도 에이전트가 잘 동작한 부분은 레이어 규칙, 금지사항, 테스트 방법, 완료 기준이 명확히 문서화된 영역이었습니다. 반대로 암묵적인 팀 관례가 많은 곳에서는 구현 속도는 빨라져도 리뷰 비용은 그대로 남더군요. 결국 에이전트는 개발 속도를
아키텍처를 기술 구조가 아니라 인센티브 구조로 보는 관점이 인상적이네요. 백엔드 프로젝트에서도 레이어링 자체보다 “새 기능을 추가하는 사람이 자연스럽게 올바른 위치를 찾는가”, “테스트가 빠르게 실패를 알려주는가”, “실험적인 코드가 핵심 경로로 번지지 않는가”가 더 중요하게 느껴졌습니다. 좋은 설계는 결국 사람들이 덜 위험한 선택을 하도록 만드는 환경에 가깝다는 생

전체 배지

GeekAward

스페셜
First Comment

더 많은 GeekBadge가 있습니다. 활동을 통해 모으거나, GeekGold로 구매해 보세요.

처음 오셨나요 사이트 이용법 FAQ About 긱배지 이용약관 개인정보 처리방침   | Blog Lists RSS   | Bookmarklet
X (Twitter) Facebook   |   긱뉴스봇 : Slack 잔디 Discord Teams Dooray! Google Chat Swit
시작하기 이용법 FAQ About 긱배지 약관 개인정보
Lists Blog RSS X 긱뉴스봇