# Alpaca-LoRA : Low-Rank LLaMA Instruct-Tuning

> Clean Markdown view of GeekNews topic #8762. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=8762](https://news.hada.io/topic?id=8762)
- GeekNews Markdown: [https://news.hada.io/topic/8762.md](https://news.hada.io/topic/8762.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-03-22T10:17:02+09:00
- Updated: 2023-03-22T10:17:02+09:00
- Original source: [github.com/tloen](https://github.com/tloen/alpaca-lora)
- Points: 19
- Comments: 0

## Topic Body

- Low-Rank Adaptation을 이용 하여, 개인 하드웨어에서 LLaMA를 명령어 튜닝 해보기   
- 라즈베리 파이에서 동작가능 하면서도, text-davinci-003 과 비슷한 품질의 모델   
- 훈련 코드는 싱글 RTX 4090 에서 5시간 내에 수행 가능   
- 저렴/효율적인 파인 튜닝을 위해 Hugging Face의 PEFT(Parameter-Efficient Fine-Tuning) 와 Tim Dettmer의 bitsandbytes 를 사용

## Comments



_No public comments on this page._
