llm install llm-mistral 명령으로 Mistral 모델을 설치하고, llm mistral refresh 후 llm -m mistral/devstral-2512 "Generate an SVG of a pelican riding a bicycle"로 SVG 이미지를 생성했음
결과물은 이 링크에서 볼 수 있음. 123B 모델치고 꽤 괜찮은 결과임
모델 ID는 정확하지 않을 수도 있어 Mistral에 직접 문의함
이제 “펠리컨이 자전거 타는 SVG를 생성하라” 같은 프롬프트가 훈련 데이터에 포함되어 있을 가능성도 있음. 벤치마크로는 좋지만, benchmaxxing을 피하려면 무작위 테스트도 필요하다고 생각함
SVG는 코드이긴 하지만 실행 가능한 코드는 아니므로, 코딩 모델 평가에는 다소 오해의 소지가 있을 수 있음. 그래도 결과는 인상적임
llm 툴은 어디서 구했는지 궁금함
자전거를 건너뛰고 멋진 오토바이로 업그레이드한 듯함
Mistral이 SOTA보다 1년 정도 뒤처졌지만 속도와 가격 경쟁력이 좋아지고 있음. 아직 내가 쓰기엔 부족하지만 빠르게 따라잡는 중임. 경쟁 모델로는 Haiku 4.5, Gemini 3 Pro Fast, 그리고 OpenAI의 새 경량 모델(GPT 5.1 Codex Max Extra High Fast?) 정도로 봄
OpenAI의 새 모델 이름이 Garlic이라는데, 진짜 그렇게 출시하진 않겠지?
Deepseek-v3.2와 비교하면 일반 능력은 훨씬 떨어지고, 가격은 5배 비쌈
Devstral 2를 CLI에서 실행해 500KB짜리 개인 프로젝트를 리뷰시켰음
프로그램의 기능을 정확히 이해하고, 버그 2개를 수정, 코드 개선과 소규모 기능 2개를 추가했음.
새 버그 하나를 만들었지만 지적하자마자 바로 고쳤음.
코드 변경은 최소화되어 있었고, 불필요한 재작성도 없었음.
아직 결론 내리긴 이르지만 꽤 유능한 모델로 보임
어떤 하드웨어에서 실행했는지 궁금함
Devstral을 직접 써볼 생각임. 예전 모델도 로컬 에이전트 코딩에 괜찮았음.
하지만 “Vibe CLI”라는 이름은 너무 가벼운 느낌을 줌.
‘Vibe-coding’은 모델의 한계를 실험하기엔 재밌지만, 품질 관리가 필요한 프로 작업에는 맞지 않음.
요즘은 다들 vibe-coding에 열중하지만, 인간의 지성을 보조하는 전문용 LLM 도구는 어디 있는지 의문임
Hacker News 의견
llm install llm-mistral명령으로 Mistral 모델을 설치하고,llm mistral refresh후llm -m mistral/devstral-2512 "Generate an SVG of a pelican riding a bicycle"로 SVG 이미지를 생성했음결과물은 이 링크에서 볼 수 있음. 123B 모델치고 꽤 괜찮은 결과임
모델 ID는 정확하지 않을 수도 있어 Mistral에 직접 문의함
llm툴은 어디서 구했는지 궁금함Mistral이 SOTA보다 1년 정도 뒤처졌지만 속도와 가격 경쟁력이 좋아지고 있음. 아직 내가 쓰기엔 부족하지만 빠르게 따라잡는 중임. 경쟁 모델로는 Haiku 4.5, Gemini 3 Pro Fast, 그리고 OpenAI의 새 경량 모델(GPT 5.1 Codex Max Extra High Fast?) 정도로 봄
Devstral 2를 CLI에서 실행해 500KB짜리 개인 프로젝트를 리뷰시켰음
프로그램의 기능을 정확히 이해하고, 버그 2개를 수정, 코드 개선과 소규모 기능 2개를 추가했음.
새 버그 하나를 만들었지만 지적하자마자 바로 고쳤음.
코드 변경은 최소화되어 있었고, 불필요한 재작성도 없었음.
아직 결론 내리긴 이르지만 꽤 유능한 모델로 보임
Devstral을 직접 써볼 생각임. 예전 모델도 로컬 에이전트 코딩에 괜찮았음.
하지만 “Vibe CLI”라는 이름은 너무 가벼운 느낌을 줌.
‘Vibe-coding’은 모델의 한계를 실험하기엔 재밌지만, 품질 관리가 필요한 프로 작업에는 맞지 않음.
요즘은 다들 vibe-coding에 열중하지만, 인간의 지성을 보조하는 전문용 LLM 도구는 어디 있는지 의문임
Devstral Small 2를 돌리기 위한 $5,000 하드웨어 구성을 고민 중임.
Mac 32GB, RTX 4090, DGX Spark, RTX 5090, 외장 GPU(Oculink) 등에서의 토큰 처리 속도가 궁금함
고성능을 원하면 RTX 5090, CUDA 호환성은 DGX Spark, 대용량 모델은 Strix Halo 128GB나 M3 Ultra가 적합함.
실제 벤치마크는 r/LocalLLaMA에서 찾는 게 좋음
더 나아가려면 8×V100 서버(32GB×8, 512GB RAM, NVLink)도 있음. 단, 240V 전원이 필요함
“Vibe CLI”라는 이름이 너무 가벼워 보이는 툴 같음.
나는 Claude Code를 자주 쓰지만, 그걸 vibe-coding이라 부르진 않음
React를 쓰지 않은 CLI라서 반가움.
Vibe-cli는 Textual 프레임워크로 만들어졌음
Mistral이 Claude보다 토큰당 10배 저렴하다면 꽤 매력적임.
성능이 10배 나쁘지만 않다면 좋은 포인트임
회사에서는 Haiku, Sonnet, Opus를 쓰지만 개인 예산에선 minimax m2를 씀
Mistral-vibe를 위한 AUR 패키지를 만들었음
패키지 링크
Nix 사용자라면 아래 명령으로 바로 실행 가능함
리포지토리는 매일 업데이트됨