# LLaMA-rs - Rust로 구현한 LLaMA

> Clean Markdown view of GeekNews topic #8727. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=8727](https://news.hada.io/topic?id=8727)
- GeekNews Markdown: [https://news.hada.io/topic/8727.md](https://news.hada.io/topic/8727.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-03-17T14:14:34+09:00
- Updated: 2023-03-17T14:14:34+09:00
- Original source: [github.com/setzer22](https://github.com/setzer22/llama-rs)
- Points: 10
- Comments: 1

## Topic Body

- llama.cpp 를 Rust로 포팅한 프로젝트   
- f16 또는 4-bit quntized 버전 모델 지원   
- 원본과 같이 ggml 텐서 라이브러리를 그대로 이용해서 오리지널과 같은 퍼포먼스

## Comments



### Comment 15234

- Author: xguru
- Created: 2023-03-17T14:14:37+09:00
- Points: 2

LLaMA의 Rust 구현체는 [RLLaMA - Rust+OpenCL+AVX2](https://github.com/Noeda/rllama/) 도 있습니다.   
  
[llama.cpp - 페이스북의 LLaMA 모델을 순수 C/C++로 추론하기](https://news.hada.io/topic?id=8682)
