# Gerbil - 로컬 LLM 실행용 데스크톱 앱

> Clean Markdown view of GeekNews topic #25965. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=25965](https://news.hada.io/topic?id=25965)
- GeekNews Markdown: [https://news.hada.io/topic/25965.md](https://news.hada.io/topic/25965.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2026-01-20T09:16:01+09:00
- Updated: 2026-01-20T09:16:01+09:00
- Original source: [github.com/lone-cloud](https://github.com/lone-cloud/gerbil)
- Points: 30
- Comments: 1

## Summary

로컬 환경에서 **LLM을 손쉽게 실행**할 수 있도록 설계된 데스크톱 앱 **Gerbil**은 복잡한 백엔드 설정과 하드웨어 가속 구성을 자동화합니다. 텍스트와 이미지 생성을 모두 지원하며, **HuggingFace 통합 검색**을 통해 모델 탐색과 GGUF 파일 다운로드를 앱 내에서 바로 처리할 수 있습니다. GUI와 CLI 양쪽을 지원해, 개인 하드웨어에서도 효율적인 LLM 워크플로우를 구축할 수 있습니다.

## Topic Body

- 개인 하드웨어에서 **LLM** 을 손쉽게 실행하도록 설계된 **그래픽 UI 도구**  
- 백엔드 관리, 모델 다운로드, 하드웨어 가속 설정 등 복잡한 과정을 자동화  
- [llama.cpp](https://github.com/ggml-org/llama.cpp)를 포크한 [KoboldCpp](https://github.com/LostRuins/koboldcpp) 기반으로 동작하며 텍스트 및 이미지 생성 모두 지원  
- Windows, macOS, Linux(특히 Wayland 포함)에서 네이티브 실행 지원   
- CPU 전용 시스템에서도 동작하며, **CUDA, ROCm, Vulkan, CLBlast, Metal** 기반 GPU 가속 지원  
- **이미지 생성 기능 내장** : **Flux, Chroma, Qwen Image, Z-Image** 등 주요 워크플로우 프리셋 제공  
- **HuggingFace 통합 검색 기능**으로 앱 내에서 모델 탐색, 모델 카드 확인, **GGUF 파일 직접 다운로드** 가능  
- `--cli` 옵션으로 **터미널 기반 실행** 가능하며, GUI 없이 동일한 백엔드 구동, **리소스 사용 최소화**  
- AGPL-3.0 라이선스

## Comments



### Comment 49540

- Author: vigorous5537
- Created: 2026-01-20T17:20:10+09:00
- Points: 1

ollama 대비 장점이 뭘까요?
