▲GN⁺ 2024-09-22 | parent | ★ favorite | on: ChatGPT는 잊어라: 연구자들이 이제 노트북에서 소형 AI를 실행하는 이유(nature.com)Hacker News 의견 로컬 모델 사용 권장 로컬 모델이 복잡하거나 컴퓨터 성능이 부족하다고 생각하는 사람들에게 Llamafile 다운로드를 권장함 Whisperfiles도 제공되어 실시간 음성 전사 가능 Twinny를 사용하여 로컬 전용 코드 자동 완성 및 채팅 가능 무료, 개인적, 오프라인 사용 가능 로컬 LLM 사용 경험 아침 산책 중 음성 메모를 기록하고 로컬에서 Whisper로 텍스트 변환 후 LLM으로 정리 개인 정보 보호를 위해 로컬 사용 선호 AMD Strix Halo APU 128GB 통합 메모리와 50 TOPS NPU를 갖춘 AMD Strix Halo APU 장치 출시 예정 MacBook Pro 모델의 대안으로 기대됨 Llama 3.1 라이선스 문제 Llama 3.1은 오픈 소스가 아님 라이선스 모델과 오픈 소스의 차이를 명확히 할 필요 있음 Docker와 Ollama 사용 Docker에서 Ollama를 사용하여 ChatGPT와 유사한 성능 경험 Obsidian 노트와 통합하여 노트 생성 및 퍼지 검색 사용 정신 건강 및 의료 질문에 대한 보조 도구로 사용 로컬 LLM 성능 M1 Max에서 Llama 8bn 사용 시 25 토큰/초 속도 Ryzen 5600h에서는 10 토큰/초로 느림 문제 해결 시 ChatGPT나 phind.com 사용 민감한 정보는 온라인 제공자 사용 불가 로컬 LLM 실험 Nvidia RTX 4060에서 Llama-3.1-8b-instruct 실행 실험 20k 토큰 컨텍스트를 GPU에 완전히 적재 가능 Gemini의 멀티모달 기능이 더 나은 품질을 제공하여 로컬 LLM 사용 가치가 낮음 대기업의 LLM 기반 제품 회로 설계 분야에서 로컬 모델 사용 필요 OpenAI와 같은 특정 공급업체에 종속되지 않기 위해 로컬 모델 선호 개인적으로도 로컬 모델 사용 선호 LLM 훈련 데이터 Microsoft가 LLM으로 생성된 콘텐츠로 LLM 훈련 초기 ChatGPT 버전과 유사한 성능을 모바일 폰에서 구현 소형 모델 실행 사양 추천 Llama3.1 또는 Mistral-Nemo와 같은 소형 모델 실행을 위한 사양 추천 요청 새로운 Mac, AMD, Nvidia 하드웨어 출시를 기다리는 것이 합리적인지 문의
Hacker News 의견
로컬 모델 사용 권장
로컬 LLM 사용 경험
AMD Strix Halo APU
Llama 3.1 라이선스 문제
Docker와 Ollama 사용
로컬 LLM 성능
로컬 LLM 실험
대기업의 LLM 기반 제품
LLM 훈련 데이터
소형 모델 실행 사양 추천