▲llama.cpp 에 전체 CUDA GPU 가속 추가 (github.com/ggerganov)8P by xguru 2023-06-14 | ★ favorite | 댓글과 토론 모든 남은 ggml 텐서들에 GPU 가속을 추가하는 PR RTX 3090에서 프롬프트 처리는 2배, 토큰 생성은 1.3~1.8배까지 가속 4090+i9에서 7B q4 모델의 경우 초당 109토큰 생성 함께 보면 좋은 글 β C++와 CUDA를 사용하여 처음부터 LLM 추론 엔진 만들기 llama.cpp - 페이스북의 LLaMA 모델을 순수 C/C++로 추론하기 Cerebras Inference에서 Llama 3.1 405B로 초당 969 토큰을 처리 가능 ntransformer - 싱글 RTX 3090에서 Llama 3.1 70B를 실행하는 NVMe-to-GPU 추론 엔진 4개의 4090 GPU로 나만의 LLM 모델을 훈련하는 방법 인증 이메일 클릭후 다시 체크박스를 눌러주세요