Hacker News 의견
  • 혹시 헷갈린 분들을 위해 말하자면, 본문에 2, 3페이지가 더 있고, 하단에 있는 화살표 아이콘을 통해 접근 가능함

  • 본문 작성자인데, 글꼴 문제는 미안함. 내용이 약간 오래된 편인데 AI 쪽은 워낙 빠르게 바뀌어서 최신 모델을 포함해 업데이트 예정임. 요즘 새 모델이 엄청 자주 나오고, 개인적으로 최근 가장 좋아하는 건 GLM-4.5임. Kimi K2도 괜찮고, Qwen3-Coder 480b나 2507 instruct도 상당히 좋음. 이런 모델들은 어떤 agentic 환경이나 agent tool에서 매우 잘 동작함 나만의 context helper 앱(https://wuu73.org/aicp)도 만들었는데, 이 링크에서 접근 가능함. 내가 주로 사용하는 수많은 AI 챗탭들과 IDE 사이를 왕복할 때 아주 편리함(거의 항상 무료고, 최고의 결과도 얻음). 웹 챗 인터페이스 사용할 때 모든 번거로움과 불편함을 최대한 없애려 노력함. 무료이고 피드백이 아주 좋게 들어왔음, 비판적인 의견도 환영함 IDE <----> 웹 챗탭 간의 이동이 엄청 편리해짐. 원래 내 시간 아끼려고 만든 거고 PySide6 UI라서 웹뷰보다 훨씬 가볍게 동작함. 자주 쓰는 텍스트는 프리셋 버튼으로 바로 추가할 수 있고, 프로젝트별로 창 크기와 사용한 파일 등 컨텍스트 상태도 기억함. 다음에 실행하면 그 상태 그대로 열림 코드 파일 자동 스캔해서 쓸만한 파일을 추론함. 프롬프트 박스에서 코드 위아래로 텍스트를 넣을 수도 있음(이렇게 하면 출력이 더 좋아지는 경향이 있음). 개인적으로 자주 사용하는 버튼 하나는 "Cline(코딩 에이전트)용 프롬프트 작성, 전체 프롬프트를 하나의 코드 태그로 감싸서 복사/붙여넣기를 쉽게 해달라, 전체 작업을 잘게 쪼개고 상세 설명과 이유까지 제공해서 Cline이 따라할 수 있게 해달라, plain language로 search and replace 블록을 추가해 편집 위치를 지정해달라"로 세팅함 내가 문제 해결이나 버그 찾기 위해 하는 방식은, VS Code에서 보통 터미널에 aicp 입력해서 앱을 열고 파일 fine-tuning, 내가 원하는 설명이나 고칠 점을 입력, Cline 버튼과 Generate Context! 클릭 후 GLM-4.5에 붙여넣음. 어려운 문제면 o3, o4-mini, GPT-5, Gemini 2.5 Pro 까지 2~3개 모델에 시도함. 가장 합리적인 답을 골라서 Cline(VS Code, GPT 4.1 무제한/프리 버전)에 붙여넣음. 4.1은 엄청 똑똑하진 않지만 명령 수행이 정확함. 큰 모델 특유의 사소한 실수도 스스로 고침. 큰 모델들은 세부 설명, 작업 리스트를 멋지게 써주고, 4.1이 이를 agent mode에서 실행함 이렇게 하면 무제한 무료로 아주 똑똑한 AI와 코딩할 수 있음. MCP(tool 등)를 모델에 붙이면 성능이 오히려 떨어지고, Claude 4 같은 API 쓰면 돈만 많이 들게 됨

    • 웹사이트 스크롤 속도가 느리고(Firefox Android에서 sub1-fps), grok 관련 call-out은 스크롤 불가함. 상단에는 CSS loaded라는 수상하게 큰 녹색 버튼도 보임

    • [https://wuu73.org/aicp]의 다이어그램이 유용한데, 클릭해도 전체 해상도로 표시되지 않아 흐림. Firefox, Chrome 둘 다 같음. GitHub 레포에선 선명하게 보이니 JS 렌더링 라이브러리 쪽 이슈일 듯함

    • 글 잘 읽었고 업데이트에 감사함. 혹시 Roo Code와 Cline 사용 경험 차이점에 대해 더 깊이 다뤄줄 수 있다면 매우 관심이 있음. 나는 지금까진 Roo Code만 써봤는데, 흥미롭지만 결과가 다소 들쭉날쭉했음

    • Microsoft copilot 써봤는지 궁금함. 사실상 free openai 모델임

    • 무료로 코딩할 수 있다고 했는데, OpenAI 데이터 설정에서 내 데이터가 모델 훈련에 활용되도록 허용하면 그 때만 무료임. 즉, 진짜 "무료"는 아님

  • 내 경험도 본문 내용과 일치함. agentic 기능은 진짜 큰 모델에서만 제대로 동작함 ("동작"이라는 게... 예를 들어 OpenAI Codex가 o4-mini로 3줄 고치는데 200번 요청 보내야 했음) 단순 수정에는 오히려 작은 모델이 훨씬 빠르니까 더 나음. 그래서 "최고"의 모델이 아니라 "쓸 수 있는 한 가장 멍청한 것"으로 집중 중임 이걸 더 밀어붙여서 agentic 방식을 포기하면 엄청 작은 모델로도 아주 정밀한 작업이 가능함. 원하는 걸 정확하게 알려주면 바로 diff 결과를 줌 파일 시스템을 뒤지는 방식은 내 스케일엔 비효율적임. 코드베이스 거의 다 컨텍스트에 넣을 수 있어서 src/ 전체를 프롬프트에 던져버림. 다른 사람 프로젝트는 보일러플레이트가 많아서 gpt-oss-20b 같은 초저가 모델로 코드 검색 실험 중인데 그런 용도엔 더 작은 모델도 쓸만함. Patent pending임

    • 나도 같은 생각임. Haiku도 충분히 대화 흐름 관리가 가능하고, 더 복잡한 작업은 Gemini 2.5 Pro나 GPT-5 등 큰 모델에 요청함. 최근엔 Gemini CLI에서 MCP(${codex mcp})로 Codex를 쓰는 실험 중인데 아주 잘 됨. Gemini CLI는 주로 Flash 기반이지만 문제 정의, 답 재평가엔 충분함. Claude Code MCP로 Gemini 2.5 Pro 활용하는 것도 동일함. Claude Code를 MCP 자체로 쓰는 건 잘 안 됨. 이런 방식의 기본 아이디어는 물론 Aider에서 왔고, 메인·보조·에디터 모델을 동시에 쓰는 컨셉임

    • Aider는 agentic이 아닌 코딩 툴로서 효율성과 효과성 둘 다 적절하게 잡아줌. tree-sitter로 repo 맵핑을 만드니 파일 시스템 뒤질 필요가 훨씬 적어짐. MCP는 없지만 셸 커맨드라 내가 잘 아는 유틸도 쓸 수 있음. Cerebras 같은 공급자와 조합하면 프롬프트 처리 속도가 즉각적임. 여러 번 도구 호출 기다리지 않고 계속 개입 가능함. 작은 프로젝트에선 완전 베스트임

    • 나도 점점 비슷한 생각임. 빠르고 신뢰할 수 있는 도구를 원함. flow state 들어가는 게 내겐 중요한데 agentic 코딩 도구 기다리면서 그 흐름이 다 끊김. 그래서 작은 모델, 혹은 Cerebras 같은 프로바이더에 관심이 커짐. 문제 범위를 좁히면 신뢰도도 높아짐. 개인적으로 네가 사용하는 "surgical" 툴에 대한 얘기도 더 듣고 싶음. 이 주제로 최근 내 블로그 글에서도 덕분에 여러 가지 생각을 정리함

    • Codex CLI에서 더 이상 GPT-5 이하 모델 교체가 안 됨(API키 없으면), 권장하지 않기 때문이라고 함. thinking=high 옵션으로 돌리면 o4-mini보다 훨씬 성능이 좋고, o4-mini는 사실상 gpt-5-thinking-mini 느낌임. codex에서는 그 설정이 안 되고, gpt-5-thinking-high는 o1이나 o3-pro와 비슷함

    • "(사실상 작동)"... OpenAI Codex가 o4-mini로 3줄의 코드 바꾸는 데 200번 요청한 것에 대해 이야기 했는데, 참고로 내 경험상 실제로 3줄짜리 작업에 며칠을 써본 적도 여럿 있음

  • 완전히 local, Cursor 같은 클라우드 필요 없는 스택에 huge potential이 있다고 생각함. 예시로는: • agentic/dev 작업용 Cursor CLI(https://x.com/cursor_ai/status/1953559384531050724) • CLI와 호환되는 로컬 메모리 계층 - LEANN(97% 작은 인덱스, 클라우드 비용 0, 완전 프라이버시, https://github.com/yichuan-w/LEANN)이나 Milvus(근데 이건 종종 클라우드/토큰 기반으로 쓰게 됨) • inference engine 예시로는 Ollama가 있는데, 로컬에서 OSS GPT 모델을 돌리기에 아주 훌륭함 이런 방식이면 완전히 오프라인이고, 프라이빗하며, 매우 빠른 개인 dev+AI 환경을 만들 수 있음. LEANN 프로젝트는 바로 이런 용도로 설계되어 tiny footprint, 온전한 local 환경 전체 세맨틱 검색, Claude Code/Cursor–호환 out-of-the-box, generation은 ollama로 해결 가능함. 돈 한 푼 안 들고, API도 전혀 필요 없음. 물론 세팅엔 약간 노력 필요함. 하지만 누가 완전히 오픈소스로 쉽게 만들어주면 좋겠다는 바람임

    • 이게 진짜 local AI stack의 궁극적 형태에 가까운 요약이라고 느낌. Cursor나 aider 같은 도구에선 강력하고 프라이빗한 memory layer가 늘 부족했다고 느낌. LEANN 처럼 tiny private index + Ollama 로컬 inference 조합은 정말 강력하다는 생각임. 프로그래밍에 이런 조합 쓰는 아이디어가 맘에 들고, 진정 프라이빗한 "Cursor-like" 경험이 실현되면 AI Workflow가 완전히 달라질 것 같음
  • 무료 API를 찾고 있다면 Google Gemini에서는 무료로 Gemini, 특히 gemini-2.5-pro에 thinking 기능 켜고 쓸 수 있음. 제한이 꽤 높아서 벤치마크 중인데 아직 리미트에 도달 못했음. 오픈 가중치 모델인 DeepSeek R1, GPT-OSS도 여러 inference provider나 하드웨어 업체에서 무료 API access를 제공함

  • 본문 내용에 생각보다 새로운 정보가 많아서 놀람. 평소엔 옵션을 그리 깊게 파지 않았는데, 이번엔 기사까지 다 읽어보길 잘했다고 느낌. 그리고 HN 댓글들도 실용적인 정보가 많아 모두에게 감사함

  • OP에게 추천하고 싶은데, Continue.dev, ollama/lmstudio, 로컬에서 모델 돌리는 방법을 꼭 알아보길 바람. 몇몇 모델들은 자동완성에 정말 강하고, 또 gpt-oss 같은 모델은 추론이나 툴 활용도 잘함. 나는 이게 my goto copilot임

    • 나도 마찬가지임! VSCode에서 Continue 쓰고 있는데, Qwen 대형 모델들이나 gpt-oss-120b가 agentic 모드에서 꽤 괜찮게 동작함

    • continue.dev보다 Zed가 한 단계 더 업그레이드라고 느낌. 거기서는 원하는 모델 직접 사용할 수도 있음

  • 포스트 내용대로, 코딩 에이전트의 문제는 각 요청마다 자기 데이터 + 거의 전체 코드베이스를 다 전송해서 비용이 비쌈. 대신 AI 챗에서는 비용이 사실상 무시해도 될 수준임. 나는 오로지 OpenRouter만 쓰는데, 거의 모든 모델에 접근 가능함. Sonnet이 원래 최애였지만 Gemini 2.5 Pro를 써보니 거의 항상 더 나음(단점은 느림). 간단한 질문이나 문법 기억 안 날 때는 Gemini Flash가 초고속이라서 딱임

  • 누군가는 무료 티어 때문에 이렇게까지 자기 데이터를 내주는 게 놀랍다고 생각하겠지만, 사실 좋은 LLM을 집에서 직접 돌릴 자원이 너무 많이 들어서 그냥 내 코드를 내주고 무료로 쓰는 쪽이 낫다고 봄. 어차피 그 코드는 결국 오픈소스 될 예정임

    • 내가 일하는 곳에서 코딩에 모델 쓰는 걸 괜찮게 본다면 내 입장에선 신경 쓸 부분이 아님
  • "웹 챗에서 AI 사용할 때(즉 ChatGPT, Openrouter 같은 웹 인터페이스)는 IDE나 에이전트 프레임워크보다 문제 해결이나 솔루션 제안에서 거의 항상 더 좋은 결과를 보여줌"이라는 주장에 정말 동의함. IDE에서 코드를 복사해서 웹챗에 붙여넣는 게 다소 불편해 보여도, 내 경험상 Github copilot이나 cursor보다 훨씬 더 낫다는 결과를 얻음

    • 완전 정반대 경험임. agentic이든 아니든 가장 중요한 건 context임. agentic으로 프로젝트 전체에 접근하거나, GitHub에 바로 붙이거나, fine-tune, RAG 등 컨텍스트 전체에 접근 가능한 게 환각을 엄청 줄여줌. "x를 써줘"와 "내 스타일, y 의존성, 주변 z 코드까지 반영해서 x를 써줘"는 엄청난 차이가 있음. 솔직히 복붙 AI 코딩을 옹호하는 이유를 이해하지 못함. 그래서 에이전트 방식이 지금 이렇게 폭발적으로 인기라고 생각함