GeekNews 최신글 예전글 쓰레드 댓글 Ask Show GN⁺ Weekly | 글등록 | boolsee
로그인

boolsee

2 karma 가입일 2023-11-20

최근 활동

최근 작성한 댓글

전체 보기
Windows 에 설치해서 구경해 보았습니다. 1. 모델 선택 목록에는 ollama 와 같은 Local LLM은 없네요. 2. Warp 설명에는 자연어 대화는 "영어"로 입력하라고 되어 있으니 한글 자동 번역 기능 같은 것이 없다는 것인지 모르겠네요.
ollama로 local LLM 구성이 쉽긴 한데 오픈 소스 모델별 도구 호출이 실패할 가능성이 높다고 합니다. ollama 내부적으로 느슨한 규정과 모델별 도구 호출 Parser 문제가 얽혀있기 때문이라고 하네요. 정작 Local LLM의 가장 근원 문제는 중대형 모델 실행하기 위해서는 고가의 하드웨어가 필요하다는 것입니다. MAC Studio 32GB짜리가 3백 중반, GB10은
정말 잘 사용해 왔는데 올 해 가격이 너무 많이 올라서 대체 솔루션으로 bitwarden self hosting 설정했습니다. bitwarden 은 cloud 방식 사용도 가능하고 사용성이 1password와 유사해서 불편함이 없습니다.
와...영상에도 한글 자막이 있네요. 내용도 좋고... 다른 주제지만 세상 참 좋아졌습니다. 인터넷으로 MIT 강좌도 우리말로 청강할 수 있는 시대네요.
한글로 볼 수 있게 해 주셔서 대단히 고맙습니다. 내용은 역시나 어렵긴 하네요. ㅎㅎㅎ

전체 배지

GeekAward

장기 활동
장기 활동 1년
스페셜
First Comment

더 많은 GeekBadge가 있습니다. 활동을 통해 모으거나, GeekGold로 구매해 보세요.

처음 오셨나요 사이트 이용법 FAQ About 긱배지 이용약관 개인정보 처리방침   | Blog Lists RSS   | Bookmarklet
X (Twitter) Facebook   |   긱뉴스봇 : Slack 잔디 Discord Teams Dooray! Google Chat Swit
시작하기 이용법 FAQ About 긱배지 약관 개인정보
Lists Blog RSS X 긱뉴스봇