Alpaca-LoRA : Low-Rank LLaMA Instruct-Tuning
(github.com/tloen)- Low-Rank Adaptation을 이용 하여, 개인 하드웨어에서 LLaMA를 명령어 튜닝 해보기
- 라즈베리 파이에서 동작가능 하면서도, text-davinci-003 과 비슷한 품질의 모델
- 훈련 코드는 싱글 RTX 4090 에서 5시간 내에 수행 가능
- 저렴/효율적인 파인 튜닝을 위해 Hugging Face의 PEFT(Parameter-Efficient Fine-Tuning) 와 Tim Dettmer의 bitsandbytes 를 사용