# Ollama, 맥과 윈도우용 새로운 앱 출시

> Clean Markdown view of GeekNews topic #22270. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=22270](https://news.hada.io/topic?id=22270)
- GeekNews Markdown: [https://news.hada.io/topic/22270.md](https://news.hada.io/topic/22270.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2025-07-31T17:34:02+09:00
- Updated: 2025-07-31T17:34:02+09:00
- Original source: [ollama.com](https://ollama.com/blog/new-app)
- Points: 10
- Comments: 1

## Summary

Ollama가 **macOS**와 **Windows**용으로 내놓은 새로운 데스크톱 앱은, 쉽고 직관적인 **GUI 환경**에서 다양한 AI 모델 다운로드와 **채팅**이 가능하도록 지원합니다. **드래그 앤 드롭**만으로 텍스트, PDF, 코드 파일 등 다양한 포맷의 문서를 불러와 분석할 수 있으며, **문맥 길이(context length) 조정**으로 대용량 데이터 처리 효율도 개선했습니다. 또한, **멀티모달 엔진**을 바탕으로 이미지 지원 모델에 이미지를 전달하는 기능이 추가되어, 텍스트와 이미지를 결합한 사용도 지원합니다.

## Topic Body

- **Ollama**가 **새로운 데스크톱 앱**을 macOS와 Windows용으로 공개함  
- 이제 **모델 다운로드 및 채팅**이 GUI 환경에서 간편하게 가능해짐  
- **파일 드래그 앤 드롭** 기능으로 텍스트 및 PDF 문서와 상호작용이 쉬워짐  
- 대용량 문서 처리 시, **context length**(문맥 길이) 설정을 늘려 더 긴 자료 분석 가능  
- Ollama의 **새로운 멀티모달 엔진**을 기반으로, 이미지를 지원하는 모델(예: Google DeepMind의 **Gemma 3 model**)에 이미지도 전송 가능  
- 코드 파일 등 다양한 파일 포맷에 대응하는 **문서 처리 기능**도 포함됨  
- Ollama의 새로운 앱은 [공식 사이트](https://ollama.com/download)를 통해 **macOS** 및 **Windows** 용 다운로드 가능  
- CLI 버전만 필요한 사용자는 [GitHub Releases](https://github.com/ollama/ollama/releases)에서 별도 다운로드 가능

## Comments



### Comment 41992

- Author: neo
- Created: 2025-07-31T17:34:03+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=44739632) 
* 최근 Ollama가 홈페이지를 중심으로 개발자 대상에서 일반 사용자 대상으로 변화를 주는 모습인 것 같음 [Ollama 홈페이지](https://ollama.com/) 참고&lt;br&gt;예전엔 개발자용 CLI 버전 중심이었는데, 이제는 언급조차 잘 안 보임&lt;br&gt;블로그 하단에 보면 "CLI 버전은 Ollama GitHub 릴리즈 페이지에서 다운로드 가능"이라고만 짤막하게 안내함&lt;br&gt;별로 비난하려는 건 아니고, 변화가 눈에 띄어서 관찰한 것임&lt;br&gt;과거 여러 로컬 LLM 앱을 써봤는데, 내가 좋다고 느낀 두 가지는 [LM Studio](https://lmstudio.ai/) 와 [Msty](https://msty.app/)였음&lt;br&gt;이 앱도 꼭 써볼 생각임&lt;br&gt;아쉬운 기능 한 가지는, ChatGPT 데스크톱 앱의 '항상 단축키(Alt+Space)'로 바로 새 채팅을 열고 축소된 UI로 빠르게 질문할 수 있는 것임&lt;br&gt;로컬 LLM 앱들도 이런 아이디어를 채택하면 좋겠음

  * Ollama 관리자임&lt;br&gt;개발자를 등한시했다는 생각은 전혀 안 함&lt;br&gt;우리 모두 개발자이고, 저희 자신이 직접 쓰는 용도로 Ollama를 만듦&lt;br&gt;사람마다 다양한 프로토타입을 만들어서 쓰다가, 다들 Ollama에서 만족해서 집중해서 개선하고 있는 중임&lt;br&gt;Ollama는 처음부터 끝까지 개발자 타깃임, 이 부분에 계속 집중하고 있음

  * 혹시 [pygpt.net](https://pygpt.net/)을 써봤는지 궁금함&lt;br&gt;인터페이스가 과하다거나 이름이 좀 아쉽다는 점은 있지만, 내가 써본 것 중 제일 만족스러웠던 앱임

  * 이런 변화는 오히려 개발자에게도 긍정적임&lt;br&gt;더 많은 사용자가 Ollama를 설치하게 되면, 나중에 별도의 모델을 번들링할 필요 없이 Ollama기반 데스크톱 AI 앱도 배포할 수 있음&lt;br&gt;추가로 비용이 안 드니 사용자에게 무료/저렴한 구독도 제공 가능함&lt;br&gt;최신 Qwen30B 모델들도 굉장히 강력함&lt;br&gt;여기에 설치 템플릿이 있어서 유저 PC의 스펙(램, CPU/GPU 성능 등)을 체크하고 Ollama 미설치 시 하위 설치/다운로드하도록 한다면 훨씬 편리할 것 같음&lt;br&gt;모델 설치 안 돼 있을 때 권한 요청하고 설치할 수 있게 하는 API도 있으면 좋겠음

  * HugstonOne에는 새로운 탭 등 해당 기능이 이미 있음&lt;br&gt;추가적으로, 대다수 개발자들이 무분별하게 스팸성 노출을 해서 의아함&lt;br&gt;Ollama는 AI 분야의 선구자이고 훌륭한 앱임, 진심으로 고마움을 전함

  * Msty는 들어봤고 짧게 써봤지만, 최근 다시 보니 기능이 풍부해 보임&lt;br&gt;LM Studio는 몰랐는데, 이쪽은 무료 상업적 사용이 가능함(Msty는 해당 없음)&lt;br&gt;채팅 인터페이스 기반 툴로 쓸 거라면 두 앱의 장단점 비교 궁금함

* 이번 Ollama의 변화가 잘 이해되지 않음&lt;br&gt;프론트엔드 데스크톱 앱은 내가 Ollama를 써온 이유와 정반대임&lt;br&gt;원래 로컬 LLM 백엔드 용도로 썼고, 오랜 유저들은 이미 자신만의 프론트엔드를 찾거나 만들거나 커스텀해서 익숙함&lt;br&gt;사실 최근 최첨단 로컬 모델이 늦게 올라오는 일도 있었는데, 이 프론트엔드 포커스 때문이 아닌지 의심됨&lt;br&gt;이제 Ollama 대신, 처음부터 자체 UI를 포함하거나 CLI 백엔드만 고수하는 대체 옵션들을 찾아볼 계획임&lt;br&gt;혹시 더 나은 게 있으면 아마 갈아탈지도 모름, 진작 이렇게 했어야 했음&lt;br&gt;Ollama가 CLI 포커스를 포기하고, 구독 기반의 범용 LLM 인터페이스로 바뀌는 첫 단추이길 바라지 않음

  * Ollama에는 다양한 GUI가 이미 존재함&lt;br&gt;지금 앱은 Ollama에 GUI를 기본적으로 탑재한 버전으로 보임

* Ollama UI를 써보니 원격 Ollama 인스턴스에 연결하는 옵션이 없다는 점이 의외임&lt;br&gt;가장 강력한 PC가 항상 내가 GUI를 돌리는 컴퓨터는 아님

  * 이 부분 정말 크게 공감함&lt;br&gt;나는 윈도우/맥 데스크탑환경은 좋아하지만 OS 자체는 별로고, 리눅스/BSD는 OS는 좋지만 데스크탑환경이 별로라, 항상 강한 워크스테이션은 헤드리스 리눅스에 두고 윈도우/맥에서 SSH로 접속함&lt;br&gt;개발자들은 이게 뭔지 대부분 잘 모름&lt;br&gt;터미널에서 명령을 실행할 때마다 브라우저 탭이 뜨거나, URL을 터미널에 출력해 주지 않으면 너무 힘들고 좌절스러움

  * SSH 포트 포워딩(ssh -L 11434:localhost:11434 user@remote) 사용해서 원격 Ollama 인스턴스 연결로 우회가 가능함&lt;br&gt;그래도 네이티브 지원이 있다면 훨씬 나을 듯함

  * Ollama를 네트워크에 노출시키는 기능이 앱에 있긴 하니, 곧 지원될지도 모름

* 윈도우에서 Ollama UI를 써봤음(그 전엔 CLI 사용)&lt;br&gt;- 심플함이 마음에 들었음. 비전공자, 친구, 가족에게 로컬 LLM을 쉽게 셋업해주기에 완벽함&lt;br&gt;- 멀티모달·마크다운 지원이 잘 작동함&lt;br&gt;- 모델 선택 드롭다운엔 내 로컬 모델과, 레지스트리에서 인기 모델이 전부 나타남&lt;br&gt;간단한 용도라면 Open WebUI보다 이 쪽이 더 편할 듯함&lt;br&gt;프롬프트/고급 설정 조정 같은 것은 곧 도입될 것 같고, 지금은 심플함 자체가 장점임

* 텍스트만 처리하는 것으론 충분하지 않음&lt;br&gt;영어뿐만 아니라 30초 이상 음성을 텍스트로 변환하거나 음성 생성, 이미지 생성 기능도 매우 중요함&lt;br&gt;텍스트 처리는 이제 기본임

* 왜 리눅스는 지원 안 되는지 궁금함&lt;br&gt;UI가 크롬 기반(아마 electron)인 듯한데, 그렇다면 리눅스 포팅도 쉬울 듯함&lt;br&gt;소스 링크도 궁금함

  * Electron이 크로스플랫폼을 표방하지만, '버튼 하나로 리눅스 배포'가 현실은 아님&lt;br&gt;glibc 버전 문제나 GPU 지원 같은 크고작은 트러블이 늘 있음

  * Ollama의 공식 문구는 “Mac, Windows용 신버전 앱 다운로드 / CLI 버전은 GitHub에서 별도 다운로드”임&lt;br&gt;확인해보니 오픈소스 느낌이 아님&lt;br&gt;게다가 크롬이 아니라 시스템 웹뷰를 사용해서 tauri앱으로 보임

  * Electron 기반이라는데, 이런 걸 네이티브라고 홍보하는 게 의아함

  * 리눅스 개발자나 파워유저는 이미 CLI만으로 Ollama 쓸 수 있음&lt;br&gt;지금 맥·윈도우 앱은 일반 사용자 겨냥임

* Ollama는 기업들이 오픈 모델 배포용 표준 인터페이스가 되고자 하는 것으로 보임&lt;br&gt;‘로컬’ 포커스는 부수적이고 장기 목표는 아닐 듯함&lt;br&gt;곧 이 앱을 브릿지로 ‘자체 클라우드 API+오픈모델’ 전략을 발표할 것이라 확신함

  * “로컬”이 부수적이라는 의견에 강하게 반대함&lt;br&gt;클라우드 기반 서비스를 쓸 수 없는 기업 (예: 방산업체) 입장에선 로컬이 기본값임&lt;br&gt;오픈모델(아직 성능이 부족해도)을 쓰는 진짜 이유임

  * 우리도 Ollama를 쓰는 이유가 데이터가 회사 내부망을 절대 벗어나선 안 되기 때문임&lt;br&gt;조금이라도 클라우드가 섞이면 법무팀에서 난리남&lt;br&gt;그래서 Ollama를 랩탑(M-시리즈가 매우 강력), 내부 인트라넷 서버에서도 직접 돌림&lt;br&gt;LM Studio가 최근 상업적 사용에 콜미 프라이싱 없이 바뀌어서 이것도 검토할 생각임

* 파워유저이거나 코딩 능력이 있다면, 직접 원하는 대로 커스텀 채팅 UI를 만들어 쓰는 걸 추천함&lt;br&gt;어떤 OpenAI 호환 엔드포인트와 채팅 프론트엔드 컴포넌트 프레임워크를 가져다 쓰면 나머지는 거의 쉬움&lt;br&gt;나도 Gemini 도움 받아 1주일 만에 뚝딱 만들었고 매일 씀&lt;br&gt;생산 레디는 아니지만 원하는 대로 바꿀 수 있고, 기능 추가도 직접 빠르게 가능함

  * 진짜 “직접 리눅스 만드세요”에 가까운 최고의 댓글임&lt;br&gt;누구에게나 쉬운 접근은 아님

  * 나도 AI·LLM 탐구하면서 Python 기반 직접 챗봇 만들었고, 그 뒤 [Vercel AI SDK+OpenAI 호환 API 엔드포인트]까지 활용함&lt;br&gt;마지막엔 제품화까지 했음&lt;br&gt;[VT.ai](https://github.com/vinhnx/VT.ai) - Python, [VT Chat](https://vtchat.io.vn)

  * 나도 같은 접근을 함&lt;br&gt;진짜 중요한 건 어떤 모델을 쓰느냐지, 나머진 거의 사소함&lt;br&gt;[내가 쓰는 오픈소스 스크립트](https://github.com/n-k/tinycoder)([Show HN 링크](https://news.ycombinator.com/item?id=44674856))도 한 번 참고&lt;br&gt;ChatGPT 등의 도움으로 만들기 쉬웠고 매일 씀&lt;br&gt;곧 DDG, 깃허브 검색도 붙일 예정임

  * 혹은 [Open WebUI](https://github.com/open-webui/open-webui)를 직접 베이스로 써도 되고, 입맛에 맞게 커스텀 마음껏 가능함

* 나만의 완벽한 LLM 채팅 인터페이스 찾기 도전 중임&lt;br&gt;필수조건이 로컬/원격/클라우드(OpenAI API 호환) 모델 동시 지원이고, 모델 전환이나 멀티 쿼리가 쉬워야 함&lt;br&gt;현재의 소감:&lt;br&gt;* Msty: 내가 가장 좋아함, 여러 모델로 동시 쿼리 가능+감각적 디자인, 단점은 오픈소스 아님+리눅스에서 가끔 프리징&lt;br&gt;* Jan.ai: 멀티 모델 동시 쿼리 불가&lt;br&gt;* LM Studio: 오픈소스 아님+원격/클라우드 모델 미지원(플러그인 있는지 불확실)&lt;br&gt;* GPT4All: openrouter 모델 쓸 때 JSON 오류, 채팅마다 모델 전환을 수동으로 해야 해서 불편&lt;br&gt;아직 Librechat, Open WebUI, AnythingLLM, koboldcpp는 테스트 안 해봤음&lt;br&gt;다른 추천 사례 있으면 듣고 싶음

  * webUI가 마음에 들지만 모델마다 브라우저 내 텍스트 파일로 세팅하는 게 복잡하고, 설명서도 용어가 난해함&lt;br&gt;Librechat은 조금만 지나도 로그아웃돼서 사실상 사용 불가임&lt;br&gt;https로 로그인을 유지할 수 있단 정보도 들었는데, Tailscale을 쓰다보니 한 호스트에 여러 서비스 돌릴 때 힘듦

  * 내가 직접 만든 앱 [dinoki.ai](https://dinoki.ai/)도 있음&lt;br&gt;로컬에서 돌아가고, 프라이버시 최우선+macOS는 Swift, 윈도우는 WPF로 네이티브 구현임

  * OpenWebUI가 손쉽게 다양한 모델을 채팅으로 쓸 수 있어 원하는 퀄리티임

  * 여러 달째 AnythingLLM을 쓰고 있는데 정말 만족함&lt;br&gt;여러 “워크스페이스”로 모델/프롬프트 세트 저장 가능, Ollama+기타 LLM 모두 지원&lt;br&gt;라즈베리파이에 도커로 올려두고, tailscale로 어디서든 접근 가능함&lt;br&gt;모바일 화면도 이쁘고, Raycast Claude 익스텐션까지 쓰면 궁금한 건 다 해결됨

  * 직접 만들어보는 걸 추천함&lt;br&gt;최신 트렌드 공부도 되고, 재미도 있음&lt;br&gt;내 인터페이스를 2023년에 만들어서 조금씩 기능 붙이고, 최근 MLX 통해서 로컬 모델도 연결함&lt;br&gt;생각보다 인터페이스 만들기는 쉽고, 개발자들이 직접 해보면 많은 걸 배움

* Ollama를 예전에 한 번 써보고 바로 지움&lt;br&gt;Ollama에서 공식 지원하는 모델만 쉽게 설치 가능한 게 아니면 불편해서임&lt;br&gt;그 이후로 LM Studio가 최고라고 느낌

  * OLLAMA도 좋지만 Lmstudio와 더불어 HugstonOne이 경험적으로 더 뛰어남
