Ollama, 맥과 윈도우용 새로운 앱 출시
(ollama.com)- Ollama가 새로운 데스크톱 앱을 macOS와 Windows용으로 공개함
- 이제 모델 다운로드 및 채팅이 GUI 환경에서 간편하게 가능해짐
- 파일 드래그 앤 드롭 기능으로 텍스트 및 PDF 문서와 상호작용이 쉬워짐
- 대용량 문서 처리 시, context length(문맥 길이) 설정을 늘려 더 긴 자료 분석 가능
- Ollama의 새로운 멀티모달 엔진을 기반으로, 이미지를 지원하는 모델(예: Google DeepMind의 Gemma 3 model)에 이미지도 전송 가능
- 코드 파일 등 다양한 파일 포맷에 대응하는 문서 처리 기능도 포함됨
- Ollama의 새로운 앱은 공식 사이트를 통해 macOS 및 Windows 용 다운로드 가능
- CLI 버전만 필요한 사용자는 GitHub Releases에서 별도 다운로드 가능
Hacker News 의견
-
최근 Ollama가 홈페이지를 중심으로 개발자 대상에서 일반 사용자 대상으로 변화를 주는 모습인 것 같음 Ollama 홈페이지 참고<br>예전엔 개발자용 CLI 버전 중심이었는데, 이제는 언급조차 잘 안 보임<br>블로그 하단에 보면 "CLI 버전은 Ollama GitHub 릴리즈 페이지에서 다운로드 가능"이라고만 짤막하게 안내함<br>별로 비난하려는 건 아니고, 변화가 눈에 띄어서 관찰한 것임<br>과거 여러 로컬 LLM 앱을 써봤는데, 내가 좋다고 느낀 두 가지는 LM Studio 와 Msty였음<br>이 앱도 꼭 써볼 생각임<br>아쉬운 기능 한 가지는, ChatGPT 데스크톱 앱의 '항상 단축키(Alt+Space)'로 바로 새 채팅을 열고 축소된 UI로 빠르게 질문할 수 있는 것임<br>로컬 LLM 앱들도 이런 아이디어를 채택하면 좋겠음
-
Ollama 관리자임<br>개발자를 등한시했다는 생각은 전혀 안 함<br>우리 모두 개발자이고, 저희 자신이 직접 쓰는 용도로 Ollama를 만듦<br>사람마다 다양한 프로토타입을 만들어서 쓰다가, 다들 Ollama에서 만족해서 집중해서 개선하고 있는 중임<br>Ollama는 처음부터 끝까지 개발자 타깃임, 이 부분에 계속 집중하고 있음
-
혹시 pygpt.net을 써봤는지 궁금함<br>인터페이스가 과하다거나 이름이 좀 아쉽다는 점은 있지만, 내가 써본 것 중 제일 만족스러웠던 앱임
-
이런 변화는 오히려 개발자에게도 긍정적임<br>더 많은 사용자가 Ollama를 설치하게 되면, 나중에 별도의 모델을 번들링할 필요 없이 Ollama기반 데스크톱 AI 앱도 배포할 수 있음<br>추가로 비용이 안 드니 사용자에게 무료/저렴한 구독도 제공 가능함<br>최신 Qwen30B 모델들도 굉장히 강력함<br>여기에 설치 템플릿이 있어서 유저 PC의 스펙(램, CPU/GPU 성능 등)을 체크하고 Ollama 미설치 시 하위 설치/다운로드하도록 한다면 훨씬 편리할 것 같음<br>모델 설치 안 돼 있을 때 권한 요청하고 설치할 수 있게 하는 API도 있으면 좋겠음
-
HugstonOne에는 새로운 탭 등 해당 기능이 이미 있음<br>추가적으로, 대다수 개발자들이 무분별하게 스팸성 노출을 해서 의아함<br>Ollama는 AI 분야의 선구자이고 훌륭한 앱임, 진심으로 고마움을 전함
-
Msty는 들어봤고 짧게 써봤지만, 최근 다시 보니 기능이 풍부해 보임<br>LM Studio는 몰랐는데, 이쪽은 무료 상업적 사용이 가능함(Msty는 해당 없음)<br>채팅 인터페이스 기반 툴로 쓸 거라면 두 앱의 장단점 비교 궁금함
-
-
이번 Ollama의 변화가 잘 이해되지 않음<br>프론트엔드 데스크톱 앱은 내가 Ollama를 써온 이유와 정반대임<br>원래 로컬 LLM 백엔드 용도로 썼고, 오랜 유저들은 이미 자신만의 프론트엔드를 찾거나 만들거나 커스텀해서 익숙함<br>사실 최근 최첨단 로컬 모델이 늦게 올라오는 일도 있었는데, 이 프론트엔드 포커스 때문이 아닌지 의심됨<br>이제 Ollama 대신, 처음부터 자체 UI를 포함하거나 CLI 백엔드만 고수하는 대체 옵션들을 찾아볼 계획임<br>혹시 더 나은 게 있으면 아마 갈아탈지도 모름, 진작 이렇게 했어야 했음<br>Ollama가 CLI 포커스를 포기하고, 구독 기반의 범용 LLM 인터페이스로 바뀌는 첫 단추이길 바라지 않음
- Ollama에는 다양한 GUI가 이미 존재함<br>지금 앱은 Ollama에 GUI를 기본적으로 탑재한 버전으로 보임
-
Ollama UI를 써보니 원격 Ollama 인스턴스에 연결하는 옵션이 없다는 점이 의외임<br>가장 강력한 PC가 항상 내가 GUI를 돌리는 컴퓨터는 아님
-
이 부분 정말 크게 공감함<br>나는 윈도우/맥 데스크탑환경은 좋아하지만 OS 자체는 별로고, 리눅스/BSD는 OS는 좋지만 데스크탑환경이 별로라, 항상 강한 워크스테이션은 헤드리스 리눅스에 두고 윈도우/맥에서 SSH로 접속함<br>개발자들은 이게 뭔지 대부분 잘 모름<br>터미널에서 명령을 실행할 때마다 브라우저 탭이 뜨거나, URL을 터미널에 출력해 주지 않으면 너무 힘들고 좌절스러움
-
SSH 포트 포워딩(ssh -L 11434:localhost:11434 user@remote) 사용해서 원격 Ollama 인스턴스 연결로 우회가 가능함<br>그래도 네이티브 지원이 있다면 훨씬 나을 듯함
-
Ollama를 네트워크에 노출시키는 기능이 앱에 있긴 하니, 곧 지원될지도 모름
-
-
윈도우에서 Ollama UI를 써봤음(그 전엔 CLI 사용)<br>- 심플함이 마음에 들었음. 비전공자, 친구, 가족에게 로컬 LLM을 쉽게 셋업해주기에 완벽함<br>- 멀티모달·마크다운 지원이 잘 작동함<br>- 모델 선택 드롭다운엔 내 로컬 모델과, 레지스트리에서 인기 모델이 전부 나타남<br>간단한 용도라면 Open WebUI보다 이 쪽이 더 편할 듯함<br>프롬프트/고급 설정 조정 같은 것은 곧 도입될 것 같고, 지금은 심플함 자체가 장점임
-
텍스트만 처리하는 것으론 충분하지 않음<br>영어뿐만 아니라 30초 이상 음성을 텍스트로 변환하거나 음성 생성, 이미지 생성 기능도 매우 중요함<br>텍스트 처리는 이제 기본임
-
왜 리눅스는 지원 안 되는지 궁금함<br>UI가 크롬 기반(아마 electron)인 듯한데, 그렇다면 리눅스 포팅도 쉬울 듯함<br>소스 링크도 궁금함
-
Electron이 크로스플랫폼을 표방하지만, '버튼 하나로 리눅스 배포'가 현실은 아님<br>glibc 버전 문제나 GPU 지원 같은 크고작은 트러블이 늘 있음
-
Ollama의 공식 문구는 “Mac, Windows용 신버전 앱 다운로드 / CLI 버전은 GitHub에서 별도 다운로드”임<br>확인해보니 오픈소스 느낌이 아님<br>게다가 크롬이 아니라 시스템 웹뷰를 사용해서 tauri앱으로 보임
-
Electron 기반이라는데, 이런 걸 네이티브라고 홍보하는 게 의아함
-
리눅스 개발자나 파워유저는 이미 CLI만으로 Ollama 쓸 수 있음<br>지금 맥·윈도우 앱은 일반 사용자 겨냥임
-
-
Ollama는 기업들이 오픈 모델 배포용 표준 인터페이스가 되고자 하는 것으로 보임<br>‘로컬’ 포커스는 부수적이고 장기 목표는 아닐 듯함<br>곧 이 앱을 브릿지로 ‘자체 클라우드 API+오픈모델’ 전략을 발표할 것이라 확신함
-
“로컬”이 부수적이라는 의견에 강하게 반대함<br>클라우드 기반 서비스를 쓸 수 없는 기업 (예: 방산업체) 입장에선 로컬이 기본값임<br>오픈모델(아직 성능이 부족해도)을 쓰는 진짜 이유임
-
우리도 Ollama를 쓰는 이유가 데이터가 회사 내부망을 절대 벗어나선 안 되기 때문임<br>조금이라도 클라우드가 섞이면 법무팀에서 난리남<br>그래서 Ollama를 랩탑(M-시리즈가 매우 강력), 내부 인트라넷 서버에서도 직접 돌림<br>LM Studio가 최근 상업적 사용에 콜미 프라이싱 없이 바뀌어서 이것도 검토할 생각임
-
-
파워유저이거나 코딩 능력이 있다면, 직접 원하는 대로 커스텀 채팅 UI를 만들어 쓰는 걸 추천함<br>어떤 OpenAI 호환 엔드포인트와 채팅 프론트엔드 컴포넌트 프레임워크를 가져다 쓰면 나머지는 거의 쉬움<br>나도 Gemini 도움 받아 1주일 만에 뚝딱 만들었고 매일 씀<br>생산 레디는 아니지만 원하는 대로 바꿀 수 있고, 기능 추가도 직접 빠르게 가능함
-
진짜 “직접 리눅스 만드세요”에 가까운 최고의 댓글임<br>누구에게나 쉬운 접근은 아님
-
나도 AI·LLM 탐구하면서 Python 기반 직접 챗봇 만들었고, 그 뒤 [Vercel AI SDK+OpenAI 호환 API 엔드포인트]까지 활용함<br>마지막엔 제품화까지 했음<br>VT.ai - Python, VT Chat
-
나도 같은 접근을 함<br>진짜 중요한 건 어떤 모델을 쓰느냐지, 나머진 거의 사소함<br>내가 쓰는 오픈소스 스크립트(Show HN 링크)도 한 번 참고<br>ChatGPT 등의 도움으로 만들기 쉬웠고 매일 씀<br>곧 DDG, 깃허브 검색도 붙일 예정임
-
혹은 Open WebUI를 직접 베이스로 써도 되고, 입맛에 맞게 커스텀 마음껏 가능함
-
-
나만의 완벽한 LLM 채팅 인터페이스 찾기 도전 중임<br>필수조건이 로컬/원격/클라우드(OpenAI API 호환) 모델 동시 지원이고, 모델 전환이나 멀티 쿼리가 쉬워야 함<br>현재의 소감:<br>* Msty: 내가 가장 좋아함, 여러 모델로 동시 쿼리 가능+감각적 디자인, 단점은 오픈소스 아님+리눅스에서 가끔 프리징<br>* Jan.ai: 멀티 모델 동시 쿼리 불가<br>* LM Studio: 오픈소스 아님+원격/클라우드 모델 미지원(플러그인 있는지 불확실)<br>* GPT4All: openrouter 모델 쓸 때 JSON 오류, 채팅마다 모델 전환을 수동으로 해야 해서 불편<br>아직 Librechat, Open WebUI, AnythingLLM, koboldcpp는 테스트 안 해봤음<br>다른 추천 사례 있으면 듣고 싶음
-
webUI가 마음에 들지만 모델마다 브라우저 내 텍스트 파일로 세팅하는 게 복잡하고, 설명서도 용어가 난해함<br>Librechat은 조금만 지나도 로그아웃돼서 사실상 사용 불가임<br>https로 로그인을 유지할 수 있단 정보도 들었는데, Tailscale을 쓰다보니 한 호스트에 여러 서비스 돌릴 때 힘듦
-
내가 직접 만든 앱 dinoki.ai도 있음<br>로컬에서 돌아가고, 프라이버시 최우선+macOS는 Swift, 윈도우는 WPF로 네이티브 구현임
-
OpenWebUI가 손쉽게 다양한 모델을 채팅으로 쓸 수 있어 원하는 퀄리티임
-
여러 달째 AnythingLLM을 쓰고 있는데 정말 만족함<br>여러 “워크스페이스”로 모델/프롬프트 세트 저장 가능, Ollama+기타 LLM 모두 지원<br>라즈베리파이에 도커로 올려두고, tailscale로 어디서든 접근 가능함<br>모바일 화면도 이쁘고, Raycast Claude 익스텐션까지 쓰면 궁금한 건 다 해결됨
-
직접 만들어보는 걸 추천함<br>최신 트렌드 공부도 되고, 재미도 있음<br>내 인터페이스를 2023년에 만들어서 조금씩 기능 붙이고, 최근 MLX 통해서 로컬 모델도 연결함<br>생각보다 인터페이스 만들기는 쉽고, 개발자들이 직접 해보면 많은 걸 배움
-
-
Ollama를 예전에 한 번 써보고 바로 지움<br>Ollama에서 공식 지원하는 모델만 쉽게 설치 가능한 게 아니면 불편해서임<br>그 이후로 LM Studio가 최고라고 느낌
- OLLAMA도 좋지만 Lmstudio와 더불어 HugstonOne이 경험적으로 더 뛰어남