혹시 헷갈린 분들을 위해 말하자면, 본문에 2, 3페이지가 더 있고, 하단에 있는 화살표 아이콘을 통해 접근 가능함
본문 작성자인데, 글꼴 문제는 미안함. 내용이 약간 오래된 편인데 AI 쪽은 워낙 빠르게 바뀌어서 최신 모델을 포함해 업데이트 예정임. 요즘 새 모델이 엄청 자주 나오고, 개인적으로 최근 가장 좋아하는 건 GLM-4.5임. Kimi K2도 괜찮고, Qwen3-Coder 480b나 2507 instruct도 상당히 좋음. 이런 모델들은 어떤 agentic 환경이나 agent tool에서 매우 잘 동작함
나만의 context helper 앱(https://wuu73.org/aicp)도 만들었는데, 이 링크에서 접근 가능함. 내가 주로 사용하는 수많은 AI 챗탭들과 IDE 사이를 왕복할 때 아주 편리함(거의 항상 무료고, 최고의 결과도 얻음). 웹 챗 인터페이스 사용할 때 모든 번거로움과 불편함을 최대한 없애려 노력함. 무료이고 피드백이 아주 좋게 들어왔음, 비판적인 의견도 환영함
IDE <----> 웹 챗탭 간의 이동이 엄청 편리해짐. 원래 내 시간 아끼려고 만든 거고 PySide6 UI라서 웹뷰보다 훨씬 가볍게 동작함. 자주 쓰는 텍스트는 프리셋 버튼으로 바로 추가할 수 있고, 프로젝트별로 창 크기와 사용한 파일 등 컨텍스트 상태도 기억함. 다음에 실행하면 그 상태 그대로 열림
코드 파일 자동 스캔해서 쓸만한 파일을 추론함. 프롬프트 박스에서 코드 위아래로 텍스트를 넣을 수도 있음(이렇게 하면 출력이 더 좋아지는 경향이 있음). 개인적으로 자주 사용하는 버튼 하나는 "Cline(코딩 에이전트)용 프롬프트 작성, 전체 프롬프트를 하나의 코드 태그로 감싸서 복사/붙여넣기를 쉽게 해달라, 전체 작업을 잘게 쪼개고 상세 설명과 이유까지 제공해서 Cline이 따라할 수 있게 해달라, plain language로 search and replace 블록을 추가해 편집 위치를 지정해달라"로 세팅함
내가 문제 해결이나 버그 찾기 위해 하는 방식은, VS Code에서 보통 터미널에 aicp 입력해서 앱을 열고 파일 fine-tuning, 내가 원하는 설명이나 고칠 점을 입력, Cline 버튼과 Generate Context! 클릭 후 GLM-4.5에 붙여넣음. 어려운 문제면 o3, o4-mini, GPT-5, Gemini 2.5 Pro 까지 2~3개 모델에 시도함. 가장 합리적인 답을 골라서 Cline(VS Code, GPT 4.1 무제한/프리 버전)에 붙여넣음. 4.1은 엄청 똑똑하진 않지만 명령 수행이 정확함. 큰 모델 특유의 사소한 실수도 스스로 고침. 큰 모델들은 세부 설명, 작업 리스트를 멋지게 써주고, 4.1이 이를 agent mode에서 실행함
이렇게 하면 무제한 무료로 아주 똑똑한 AI와 코딩할 수 있음. MCP(tool 등)를 모델에 붙이면 성능이 오히려 떨어지고, Claude 4 같은 API 쓰면 돈만 많이 들게 됨
웹사이트 스크롤 속도가 느리고(Firefox Android에서 sub1-fps), grok 관련 call-out은 스크롤 불가함. 상단에는 CSS loaded라는 수상하게 큰 녹색 버튼도 보임
[https://wuu73.org/aicp]의 다이어그램이 유용한데, 클릭해도 전체 해상도로 표시되지 않아 흐림. Firefox, Chrome 둘 다 같음. GitHub 레포에선 선명하게 보이니 JS 렌더링 라이브러리 쪽 이슈일 듯함
글 잘 읽었고 업데이트에 감사함. 혹시 Roo Code와 Cline 사용 경험 차이점에 대해 더 깊이 다뤄줄 수 있다면 매우 관심이 있음. 나는 지금까진 Roo Code만 써봤는데, 흥미롭지만 결과가 다소 들쭉날쭉했음
Microsoft copilot 써봤는지 궁금함. 사실상 free openai 모델임
무료로 코딩할 수 있다고 했는데, OpenAI 데이터 설정에서 내 데이터가 모델 훈련에 활용되도록 허용하면 그 때만 무료임. 즉, 진짜 "무료"는 아님
내 경험도 본문 내용과 일치함. agentic 기능은 진짜 큰 모델에서만 제대로 동작함 ("동작"이라는 게... 예를 들어 OpenAI Codex가 o4-mini로 3줄 고치는데 200번 요청 보내야 했음)
단순 수정에는 오히려 작은 모델이 훨씬 빠르니까 더 나음. 그래서 "최고"의 모델이 아니라 "쓸 수 있는 한 가장 멍청한 것"으로 집중 중임
이걸 더 밀어붙여서 agentic 방식을 포기하면 엄청 작은 모델로도 아주 정밀한 작업이 가능함. 원하는 걸 정확하게 알려주면 바로 diff 결과를 줌
파일 시스템을 뒤지는 방식은 내 스케일엔 비효율적임. 코드베이스 거의 다 컨텍스트에 넣을 수 있어서 src/ 전체를 프롬프트에 던져버림. 다른 사람 프로젝트는 보일러플레이트가 많아서 gpt-oss-20b 같은 초저가 모델로 코드 검색 실험 중인데 그런 용도엔 더 작은 모델도 쓸만함. Patent pending임
나도 같은 생각임. Haiku도 충분히 대화 흐름 관리가 가능하고, 더 복잡한 작업은 Gemini 2.5 Pro나 GPT-5 등 큰 모델에 요청함. 최근엔 Gemini CLI에서 MCP(${codex mcp})로 Codex를 쓰는 실험 중인데 아주 잘 됨. Gemini CLI는 주로 Flash 기반이지만 문제 정의, 답 재평가엔 충분함. Claude Code MCP로 Gemini 2.5 Pro 활용하는 것도 동일함. Claude Code를 MCP 자체로 쓰는 건 잘 안 됨. 이런 방식의 기본 아이디어는 물론 Aider에서 왔고, 메인·보조·에디터 모델을 동시에 쓰는 컨셉임
Aider는 agentic이 아닌 코딩 툴로서 효율성과 효과성 둘 다 적절하게 잡아줌. tree-sitter로 repo 맵핑을 만드니 파일 시스템 뒤질 필요가 훨씬 적어짐. MCP는 없지만 셸 커맨드라 내가 잘 아는 유틸도 쓸 수 있음. Cerebras 같은 공급자와 조합하면 프롬프트 처리 속도가 즉각적임. 여러 번 도구 호출 기다리지 않고 계속 개입 가능함. 작은 프로젝트에선 완전 베스트임
나도 점점 비슷한 생각임. 빠르고 신뢰할 수 있는 도구를 원함. flow state 들어가는 게 내겐 중요한데 agentic 코딩 도구 기다리면서 그 흐름이 다 끊김. 그래서 작은 모델, 혹은 Cerebras 같은 프로바이더에 관심이 커짐. 문제 범위를 좁히면 신뢰도도 높아짐. 개인적으로 네가 사용하는 "surgical" 툴에 대한 얘기도 더 듣고 싶음. 이 주제로 최근 내 블로그 글에서도 덕분에 여러 가지 생각을 정리함
Codex CLI에서 더 이상 GPT-5 이하 모델 교체가 안 됨(API키 없으면), 권장하지 않기 때문이라고 함. thinking=high 옵션으로 돌리면 o4-mini보다 훨씬 성능이 좋고, o4-mini는 사실상 gpt-5-thinking-mini 느낌임. codex에서는 그 설정이 안 되고, gpt-5-thinking-high는 o1이나 o3-pro와 비슷함
"(사실상 작동)"... OpenAI Codex가 o4-mini로 3줄의 코드 바꾸는 데 200번 요청한 것에 대해 이야기 했는데, 참고로 내 경험상 실제로 3줄짜리 작업에 며칠을 써본 적도 여럿 있음
완전히 local, Cursor 같은 클라우드 필요 없는 스택에 huge potential이 있다고 생각함. 예시로는:
• agentic/dev 작업용 Cursor CLI(https://x.com/cursor_ai/status/1953559384531050724)
• CLI와 호환되는 로컬 메모리 계층 - LEANN(97% 작은 인덱스, 클라우드 비용 0, 완전 프라이버시, https://github.com/yichuan-w/LEANN)이나 Milvus(근데 이건 종종 클라우드/토큰 기반으로 쓰게 됨)
• inference engine 예시로는 Ollama가 있는데, 로컬에서 OSS GPT 모델을 돌리기에 아주 훌륭함
이런 방식이면 완전히 오프라인이고, 프라이빗하며, 매우 빠른 개인 dev+AI 환경을 만들 수 있음. LEANN 프로젝트는 바로 이런 용도로 설계되어 tiny footprint, 온전한 local 환경 전체 세맨틱 검색, Claude Code/Cursor–호환 out-of-the-box, generation은 ollama로 해결 가능함. 돈 한 푼 안 들고, API도 전혀 필요 없음. 물론 세팅엔 약간 노력 필요함. 하지만 누가 완전히 오픈소스로 쉽게 만들어주면 좋겠다는 바람임
이게 진짜 local AI stack의 궁극적 형태에 가까운 요약이라고 느낌. Cursor나 aider 같은 도구에선 강력하고 프라이빗한 memory layer가 늘 부족했다고 느낌. LEANN 처럼 tiny private index + Ollama 로컬 inference 조합은 정말 강력하다는 생각임. 프로그래밍에 이런 조합 쓰는 아이디어가 맘에 들고, 진정 프라이빗한 "Cursor-like" 경험이 실현되면 AI Workflow가 완전히 달라질 것 같음
무료 API를 찾고 있다면 Google Gemini에서는 무료로 Gemini, 특히 gemini-2.5-pro에 thinking 기능 켜고 쓸 수 있음. 제한이 꽤 높아서 벤치마크 중인데 아직 리미트에 도달 못했음. 오픈 가중치 모델인 DeepSeek R1, GPT-OSS도 여러 inference provider나 하드웨어 업체에서 무료 API access를 제공함
참고로, 이 기능이 민감하지 않은 용도라면 괜찮겠지만 구글은 이런 interaction을 학습에 사용함(유료면 제외)
본문 내용에 생각보다 새로운 정보가 많아서 놀람. 평소엔 옵션을 그리 깊게 파지 않았는데, 이번엔 기사까지 다 읽어보길 잘했다고 느낌. 그리고 HN 댓글들도 실용적인 정보가 많아 모두에게 감사함
OP에게 추천하고 싶은데, Continue.dev, ollama/lmstudio, 로컬에서 모델 돌리는 방법을 꼭 알아보길 바람. 몇몇 모델들은 자동완성에 정말 강하고, 또 gpt-oss 같은 모델은 추론이나 툴 활용도 잘함. 나는 이게 my goto copilot임
나도 마찬가지임! VSCode에서 Continue 쓰고 있는데, Qwen 대형 모델들이나 gpt-oss-120b가 agentic 모드에서 꽤 괜찮게 동작함
continue.dev보다 Zed가 한 단계 더 업그레이드라고 느낌. 거기서는 원하는 모델 직접 사용할 수도 있음
포스트 내용대로, 코딩 에이전트의 문제는 각 요청마다 자기 데이터 + 거의 전체 코드베이스를 다 전송해서 비용이 비쌈. 대신 AI 챗에서는 비용이 사실상 무시해도 될 수준임. 나는 오로지 OpenRouter만 쓰는데, 거의 모든 모델에 접근 가능함. Sonnet이 원래 최애였지만 Gemini 2.5 Pro를 써보니 거의 항상 더 나음(단점은 느림). 간단한 질문이나 문법 기억 안 날 때는 Gemini Flash가 초고속이라서 딱임
누군가는 무료 티어 때문에 이렇게까지 자기 데이터를 내주는 게 놀랍다고 생각하겠지만, 사실 좋은 LLM을 집에서 직접 돌릴 자원이 너무 많이 들어서 그냥 내 코드를 내주고 무료로 쓰는 쪽이 낫다고 봄. 어차피 그 코드는 결국 오픈소스 될 예정임
내가 일하는 곳에서 코딩에 모델 쓰는 걸 괜찮게 본다면 내 입장에선 신경 쓸 부분이 아님
"웹 챗에서 AI 사용할 때(즉 ChatGPT, Openrouter 같은 웹 인터페이스)는 IDE나 에이전트 프레임워크보다 문제 해결이나 솔루션 제안에서 거의 항상 더 좋은 결과를 보여줌"이라는 주장에 정말 동의함. IDE에서 코드를 복사해서 웹챗에 붙여넣는 게 다소 불편해 보여도, 내 경험상 Github copilot이나 cursor보다 훨씬 더 낫다는 결과를 얻음
완전 정반대 경험임. agentic이든 아니든 가장 중요한 건 context임. agentic으로 프로젝트 전체에 접근하거나, GitHub에 바로 붙이거나, fine-tune, RAG 등 컨텍스트 전체에 접근 가능한 게 환각을 엄청 줄여줌. "x를 써줘"와 "내 스타일, y 의존성, 주변 z 코드까지 반영해서 x를 써줘"는 엄청난 차이가 있음. 솔직히 복붙 AI 코딩을 옹호하는 이유를 이해하지 못함. 그래서 에이전트 방식이 지금 이렇게 폭발적으로 인기라고 생각함
Hacker News 의견
혹시 헷갈린 분들을 위해 말하자면, 본문에 2, 3페이지가 더 있고, 하단에 있는 화살표 아이콘을 통해 접근 가능함
본문 작성자인데, 글꼴 문제는 미안함. 내용이 약간 오래된 편인데 AI 쪽은 워낙 빠르게 바뀌어서 최신 모델을 포함해 업데이트 예정임. 요즘 새 모델이 엄청 자주 나오고, 개인적으로 최근 가장 좋아하는 건 GLM-4.5임. Kimi K2도 괜찮고, Qwen3-Coder 480b나 2507 instruct도 상당히 좋음. 이런 모델들은 어떤 agentic 환경이나 agent tool에서 매우 잘 동작함 나만의 context helper 앱(https://wuu73.org/aicp)도 만들었는데, 이 링크에서 접근 가능함. 내가 주로 사용하는 수많은 AI 챗탭들과 IDE 사이를 왕복할 때 아주 편리함(거의 항상 무료고, 최고의 결과도 얻음). 웹 챗 인터페이스 사용할 때 모든 번거로움과 불편함을 최대한 없애려 노력함. 무료이고 피드백이 아주 좋게 들어왔음, 비판적인 의견도 환영함 IDE <----> 웹 챗탭 간의 이동이 엄청 편리해짐. 원래 내 시간 아끼려고 만든 거고 PySide6 UI라서 웹뷰보다 훨씬 가볍게 동작함. 자주 쓰는 텍스트는 프리셋 버튼으로 바로 추가할 수 있고, 프로젝트별로 창 크기와 사용한 파일 등 컨텍스트 상태도 기억함. 다음에 실행하면 그 상태 그대로 열림 코드 파일 자동 스캔해서 쓸만한 파일을 추론함. 프롬프트 박스에서 코드 위아래로 텍스트를 넣을 수도 있음(이렇게 하면 출력이 더 좋아지는 경향이 있음). 개인적으로 자주 사용하는 버튼 하나는 "Cline(코딩 에이전트)용 프롬프트 작성, 전체 프롬프트를 하나의 코드 태그로 감싸서 복사/붙여넣기를 쉽게 해달라, 전체 작업을 잘게 쪼개고 상세 설명과 이유까지 제공해서 Cline이 따라할 수 있게 해달라, plain language로 search and replace 블록을 추가해 편집 위치를 지정해달라"로 세팅함 내가 문제 해결이나 버그 찾기 위해 하는 방식은, VS Code에서 보통 터미널에 aicp 입력해서 앱을 열고 파일 fine-tuning, 내가 원하는 설명이나 고칠 점을 입력, Cline 버튼과 Generate Context! 클릭 후 GLM-4.5에 붙여넣음. 어려운 문제면 o3, o4-mini, GPT-5, Gemini 2.5 Pro 까지 2~3개 모델에 시도함. 가장 합리적인 답을 골라서 Cline(VS Code, GPT 4.1 무제한/프리 버전)에 붙여넣음. 4.1은 엄청 똑똑하진 않지만 명령 수행이 정확함. 큰 모델 특유의 사소한 실수도 스스로 고침. 큰 모델들은 세부 설명, 작업 리스트를 멋지게 써주고, 4.1이 이를 agent mode에서 실행함 이렇게 하면 무제한 무료로 아주 똑똑한 AI와 코딩할 수 있음. MCP(tool 등)를 모델에 붙이면 성능이 오히려 떨어지고, Claude 4 같은 API 쓰면 돈만 많이 들게 됨
웹사이트 스크롤 속도가 느리고(Firefox Android에서 sub1-fps), grok 관련 call-out은 스크롤 불가함. 상단에는 CSS loaded라는 수상하게 큰 녹색 버튼도 보임
[https://wuu73.org/aicp]의 다이어그램이 유용한데, 클릭해도 전체 해상도로 표시되지 않아 흐림. Firefox, Chrome 둘 다 같음. GitHub 레포에선 선명하게 보이니 JS 렌더링 라이브러리 쪽 이슈일 듯함
글 잘 읽었고 업데이트에 감사함. 혹시 Roo Code와 Cline 사용 경험 차이점에 대해 더 깊이 다뤄줄 수 있다면 매우 관심이 있음. 나는 지금까진 Roo Code만 써봤는데, 흥미롭지만 결과가 다소 들쭉날쭉했음
Microsoft copilot 써봤는지 궁금함. 사실상 free openai 모델임
무료로 코딩할 수 있다고 했는데, OpenAI 데이터 설정에서 내 데이터가 모델 훈련에 활용되도록 허용하면 그 때만 무료임. 즉, 진짜 "무료"는 아님
내 경험도 본문 내용과 일치함. agentic 기능은 진짜 큰 모델에서만 제대로 동작함 ("동작"이라는 게... 예를 들어 OpenAI Codex가 o4-mini로 3줄 고치는데 200번 요청 보내야 했음) 단순 수정에는 오히려 작은 모델이 훨씬 빠르니까 더 나음. 그래서 "최고"의 모델이 아니라 "쓸 수 있는 한 가장 멍청한 것"으로 집중 중임 이걸 더 밀어붙여서 agentic 방식을 포기하면 엄청 작은 모델로도 아주 정밀한 작업이 가능함. 원하는 걸 정확하게 알려주면 바로 diff 결과를 줌 파일 시스템을 뒤지는 방식은 내 스케일엔 비효율적임. 코드베이스 거의 다 컨텍스트에 넣을 수 있어서 src/ 전체를 프롬프트에 던져버림. 다른 사람 프로젝트는 보일러플레이트가 많아서 gpt-oss-20b 같은 초저가 모델로 코드 검색 실험 중인데 그런 용도엔 더 작은 모델도 쓸만함. Patent pending임
나도 같은 생각임. Haiku도 충분히 대화 흐름 관리가 가능하고, 더 복잡한 작업은 Gemini 2.5 Pro나 GPT-5 등 큰 모델에 요청함. 최근엔 Gemini CLI에서 MCP(${codex mcp})로 Codex를 쓰는 실험 중인데 아주 잘 됨. Gemini CLI는 주로 Flash 기반이지만 문제 정의, 답 재평가엔 충분함. Claude Code MCP로 Gemini 2.5 Pro 활용하는 것도 동일함. Claude Code를 MCP 자체로 쓰는 건 잘 안 됨. 이런 방식의 기본 아이디어는 물론 Aider에서 왔고, 메인·보조·에디터 모델을 동시에 쓰는 컨셉임
Aider는 agentic이 아닌 코딩 툴로서 효율성과 효과성 둘 다 적절하게 잡아줌. tree-sitter로 repo 맵핑을 만드니 파일 시스템 뒤질 필요가 훨씬 적어짐. MCP는 없지만 셸 커맨드라 내가 잘 아는 유틸도 쓸 수 있음. Cerebras 같은 공급자와 조합하면 프롬프트 처리 속도가 즉각적임. 여러 번 도구 호출 기다리지 않고 계속 개입 가능함. 작은 프로젝트에선 완전 베스트임
나도 점점 비슷한 생각임. 빠르고 신뢰할 수 있는 도구를 원함. flow state 들어가는 게 내겐 중요한데 agentic 코딩 도구 기다리면서 그 흐름이 다 끊김. 그래서 작은 모델, 혹은 Cerebras 같은 프로바이더에 관심이 커짐. 문제 범위를 좁히면 신뢰도도 높아짐. 개인적으로 네가 사용하는 "surgical" 툴에 대한 얘기도 더 듣고 싶음. 이 주제로 최근 내 블로그 글에서도 덕분에 여러 가지 생각을 정리함
Codex CLI에서 더 이상 GPT-5 이하 모델 교체가 안 됨(API키 없으면), 권장하지 않기 때문이라고 함. thinking=high 옵션으로 돌리면 o4-mini보다 훨씬 성능이 좋고, o4-mini는 사실상 gpt-5-thinking-mini 느낌임. codex에서는 그 설정이 안 되고, gpt-5-thinking-high는 o1이나 o3-pro와 비슷함
"(사실상 작동)"... OpenAI Codex가 o4-mini로 3줄의 코드 바꾸는 데 200번 요청한 것에 대해 이야기 했는데, 참고로 내 경험상 실제로 3줄짜리 작업에 며칠을 써본 적도 여럿 있음
완전히 local, Cursor 같은 클라우드 필요 없는 스택에 huge potential이 있다고 생각함. 예시로는: • agentic/dev 작업용 Cursor CLI(https://x.com/cursor_ai/status/1953559384531050724) • CLI와 호환되는 로컬 메모리 계층 - LEANN(97% 작은 인덱스, 클라우드 비용 0, 완전 프라이버시, https://github.com/yichuan-w/LEANN)이나 Milvus(근데 이건 종종 클라우드/토큰 기반으로 쓰게 됨) • inference engine 예시로는 Ollama가 있는데, 로컬에서 OSS GPT 모델을 돌리기에 아주 훌륭함 이런 방식이면 완전히 오프라인이고, 프라이빗하며, 매우 빠른 개인 dev+AI 환경을 만들 수 있음. LEANN 프로젝트는 바로 이런 용도로 설계되어 tiny footprint, 온전한 local 환경 전체 세맨틱 검색, Claude Code/Cursor–호환 out-of-the-box, generation은 ollama로 해결 가능함. 돈 한 푼 안 들고, API도 전혀 필요 없음. 물론 세팅엔 약간 노력 필요함. 하지만 누가 완전히 오픈소스로 쉽게 만들어주면 좋겠다는 바람임
무료 API를 찾고 있다면 Google Gemini에서는 무료로 Gemini, 특히 gemini-2.5-pro에 thinking 기능 켜고 쓸 수 있음. 제한이 꽤 높아서 벤치마크 중인데 아직 리미트에 도달 못했음. 오픈 가중치 모델인 DeepSeek R1, GPT-OSS도 여러 inference provider나 하드웨어 업체에서 무료 API access를 제공함
Gemini 2.5 pro 무료 한도는 하루 100건임
https://ai.google.dev/gemini-api/docs/rate-limits
참고로, 이 기능이 민감하지 않은 용도라면 괜찮겠지만 구글은 이런 interaction을 학습에 사용함(유료면 제외)
본문 내용에 생각보다 새로운 정보가 많아서 놀람. 평소엔 옵션을 그리 깊게 파지 않았는데, 이번엔 기사까지 다 읽어보길 잘했다고 느낌. 그리고 HN 댓글들도 실용적인 정보가 많아 모두에게 감사함
OP에게 추천하고 싶은데, Continue.dev, ollama/lmstudio, 로컬에서 모델 돌리는 방법을 꼭 알아보길 바람. 몇몇 모델들은 자동완성에 정말 강하고, 또 gpt-oss 같은 모델은 추론이나 툴 활용도 잘함. 나는 이게 my goto copilot임
나도 마찬가지임! VSCode에서 Continue 쓰고 있는데, Qwen 대형 모델들이나 gpt-oss-120b가 agentic 모드에서 꽤 괜찮게 동작함
continue.dev보다 Zed가 한 단계 더 업그레이드라고 느낌. 거기서는 원하는 모델 직접 사용할 수도 있음
포스트 내용대로, 코딩 에이전트의 문제는 각 요청마다 자기 데이터 + 거의 전체 코드베이스를 다 전송해서 비용이 비쌈. 대신 AI 챗에서는 비용이 사실상 무시해도 될 수준임. 나는 오로지 OpenRouter만 쓰는데, 거의 모든 모델에 접근 가능함. Sonnet이 원래 최애였지만 Gemini 2.5 Pro를 써보니 거의 항상 더 나음(단점은 느림). 간단한 질문이나 문법 기억 안 날 때는 Gemini Flash가 초고속이라서 딱임
누군가는 무료 티어 때문에 이렇게까지 자기 데이터를 내주는 게 놀랍다고 생각하겠지만, 사실 좋은 LLM을 집에서 직접 돌릴 자원이 너무 많이 들어서 그냥 내 코드를 내주고 무료로 쓰는 쪽이 낫다고 봄. 어차피 그 코드는 결국 오픈소스 될 예정임
"웹 챗에서 AI 사용할 때(즉 ChatGPT, Openrouter 같은 웹 인터페이스)는 IDE나 에이전트 프레임워크보다 문제 해결이나 솔루션 제안에서 거의 항상 더 좋은 결과를 보여줌"이라는 주장에 정말 동의함. IDE에서 코드를 복사해서 웹챗에 붙여넣는 게 다소 불편해 보여도, 내 경험상 Github copilot이나 cursor보다 훨씬 더 낫다는 결과를 얻음