CPU만으로 LLM을 구동시킬 수 있는 때가 올까요?

20B 내외면 cpu만으로 구동 충분히 시킬 수 있습니다. 60b 부턴 힘들어하거나 잘 안되구요. (학습은 또 다른 영역) ollama 한 번 써보셔요.

요구 사양에 대해서 전혀 감이 안 왔었는데 조언 감사드립니다. 인텔 11세대 노트북으로는 아직 무리같고 가상화 서버에 올리던지 해야겠네요

lm studio 설치하시면 되요

제가 노트북에서 무리같다고 한 이유는 CPU 사용량이 올코어 100%를 치고 발열이 심해서 쾌적하지 않다고 느꼈기 때문입니다. LM studio에는 프롬프트 UI가 있어서 사용성이 좋긴 하지만 쾌적함은 충족시킬 수 없을 것 같습니다

에..? 이미 하는데요;;