▲GN⁺ 2024-02-09 | parent | ★ favorite | on: OpenAI 호환성(ollama.ai)Hacker News 의견 최근 몇 달 동안 지역 호스팅 LLM의 사용 편의성이 놀랍게 향상되었음. Mozilla-Ocho의 llamafile이 얼마나 사용하기 쉬운지 몇 시간 전에 토로함. 어떤 LLM을 사용할지 결정하기 어려움을 겪음. OpenAI API 호환성이 커뮤니티 표준이 되는 것에 대해 개인적으로 불만을 가진 사람들이 있음. 데이터 구조의 불필요한 중첩 등 몇 가지 어색함이 있지만, 큰 불만은 없음. API가 표준이 되는 것에 대한 문제점과 대안 표준에 대한 시도가 있는지 궁금함. Copilot의 개선된 버전을 개발 중이며, 사용자가 자신의 LLM을 가져올 수 있도록 지원함. OpenAI 호환 백엔드를 추가하여, OpenAI 호환 API 엔드포인트를 제공하면 해당 모델의 의미에 따라 프롬프트 형식, 중단 시퀀스, 최대 토큰 등을 처리함. 로컬 개발 환경에서 테스트할 수 있는 이러한 기능이 필요했으며, Ollama가 이를 제공함으로써 다양한 LLM을 지원하는 테스트가 훨씬 쉬워짐. Ollama는 다른 도구들보다 더 잘 작동하며, 간단히 작동함. Raspberry pi 4에서 Dolphin Mixtral 7b를 실행하여 옥수수빵 레시피를 요청했고, 몇 시간 후에 두 캐릭터가 생성된 것을 발견함. Ollama의 Linux 설치 스크립트는 현재 표준 스타일로 작동함. 그러나 스크립트가 마지막으로 확인했을 때 sudo를 통해 루트 권한을 요청함. 도구를 원한다면 스크립트를 다운로드하여 확인하거나 필요에 따라 수정할 것을 권장함. OpenAI와의 호환성이 약간 오해의 소지가 있음. 역할과 내용 구현은 항상 비교적 간단했음. 에이전트를 호스팅할 때는 실제로 작업을 수행해야 함. 에이전트 시스템에 스크립팅 엔진을 포함시켰고, 보안과 권한 설정을 고려해야 할 필요성을 느낌. 호환성 계층은 라이브러리에서도 구축할 수 있음. 예를 들어, Langchain은 여러 LLM 백엔드와 작동하는 llm()을 가짐. 오픈소스(예: HF, VLLM) 및 상업 모델(OpenAI, Google, Anthropic, Together) 간에 쉽게 전환할 수 있는 프로젝트를 진행 중임. HTTP API 없이 Python에서 직접 사용하고 싶다면 사용하기 더 쉬움. Ollama의 사용 사례는 무엇이며, 왜 직접 llama.cpp를 사용하지 않아야 하는가에 대한 의문 제기. Ollama가 Dockerized HTTP 서버로서 llama.cpp를 직접 호출하는 것인지, 그리고 새로 추가된 OpenAI API를 제외하고는 어떤 차이가 있는지에 대한 질문.
Hacker News 의견
최근 몇 달 동안 지역 호스팅 LLM의 사용 편의성이 놀랍게 향상되었음.
OpenAI API 호환성이 커뮤니티 표준이 되는 것에 대해 개인적으로 불만을 가진 사람들이 있음.
Copilot의 개선된 버전을 개발 중이며, 사용자가 자신의 LLM을 가져올 수 있도록 지원함.
Ollama는 다른 도구들보다 더 잘 작동하며, 간단히 작동함.
Ollama의 Linux 설치 스크립트는 현재 표준 스타일로 작동함.
OpenAI와의 호환성이 약간 오해의 소지가 있음.
호환성 계층은 라이브러리에서도 구축할 수 있음.
오픈소스(예: HF, VLLM) 및 상업 모델(OpenAI, Google, Anthropic, Together) 간에 쉽게 전환할 수 있는 프로젝트를 진행 중임.
Ollama의 사용 사례는 무엇이며, 왜 직접 llama.cpp를 사용하지 않아야 하는가에 대한 의문 제기.
Ollama가 Dockerized HTTP 서버로서 llama.cpp를 직접 호출하는 것인지, 그리고 새로 추가된 OpenAI API를 제외하고는 어떤 차이가 있는지에 대한 질문.