⬅ 전체 배지 보기
Ollama
Llama, Mistral, Gemma 등 오픈소스 LLM을 로컬에서 간편하게 실행할 수 있게 해주는 도구입니다. docker run처럼 ollama run 한 줄이면 모델이 돌아가고, API 서버까지 바로 뜨니 로컬 AI 개발의 진입 장벽을 확 낮춰줬죠. 클라우드에 보내지 않고 내 GPU 위에서 돌리는 AI에는 묘하게 다른 만족감이 있습니다.
이 배지는 해당 기술·서비스에서 영감을 받아 제작한 GeekNews용 아이콘입니다.
공식 제휴나 승인을 의미하지 않습니다.
공식 제휴나 승인을 의미하지 않습니다.
- 로컬 LLM 생태계에는 Ollama가 필요하지 않다
- 로컬에서 LLM 실행하기
- Shimmy - Ollama를 대체 가능한 개인 프라이버시 중심의 경량 OpenAI API 서버
- LM Studio - LLM을 로컬에서 쉽게 실행하게 해주는 도구
- Ollama, 윈도우 버전 프리뷰 시작
- Ollama, Tool 호출 지원
- MLC-LLM으로 iOS에서 로컬 LLM(Gemma 3) 실행하기
- Mistral Small 3 공개
- LLM에 Stable Diffusion Moment가 오고 있다
- Ollama, Python & JavaScript 라이브러리 공개