4P by xguru 2023-03-09 | favorite | 댓글과 토론
  • 메타의 LLaMA모델을 CPU에서 실행
  • 설정은 거의 비슷
  • 7B 모델로 테스트 했을때, 로딩하기 위해서는 32GiB램에서도 스왑/zram 을 필요로 함
  • 실제로 추론할 때는 약 20GiB 이하의 램만 사용
  • Ryzen 7900X 에서 7B모델은 초당 몇 개의 단어 추론 가능