▲Lumos - 로컬 LLM Co-Pilot 크롬 확장 (github.com/andrewnguonly)11P by xguru 2024-01-29 | ★ favorite | 댓글과 토론 로컬에서 Ollama 서버를 구동하여 이용하게 해주는 크롬 확장 현재 페이지의 내용에 대해서 AI를 이용한 요약/질문등의 기능 가능 긴 글이나 뉴스 요약 제품/상품 페이지의 리뷰에 대한 질문 긴 기술 문서에 대해서 질문하기 함께 보면 좋은 글 β Gemma Gem - 브라우저에서 Google Gemma 4 모델을 완전 온디바이스로 실행하는 Chrome 확장 NativeMind - 브라우저에서 실행되는 프라이빗 온디바이스 AI 어시스턴트 로컬에서 LLM 실행하기 oh-my-free-models - 무료 LLM 중 지금 가장 빠른 모델로 코딩 에이전트를 라우팅하는 로컬 프록시 Ollama, 맥과 윈도우용 새로운 앱 출시 인증 이메일 클릭후 다시 체크박스를 눌러주세요