▲woung717 6달전 | parent | ★ favorite | on: Shimmy - Ollama를 대체 가능한 개인 프라이버시 중심의 경량 OpenAI API 서버(github.com/Michael-A-Kuykendall)어차피 백엔드가 llama.cpp 이면 dependency free 라고 부를수 있는건지...
어차피 백엔드가 llama.cpp 이면 dependency free 라고 부를수 있는건지...