# LLaMA-Adapter V2: LLaMA를 효율적으로 파인 튜닝하는 도구

> Clean Markdown view of GeekNews topic #9095. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=9095](https://news.hada.io/topic?id=9095)
- GeekNews Markdown: [https://news.hada.io/topic/9095.md](https://news.hada.io/topic/9095.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-05-03T10:18:01+09:00
- Updated: 2023-05-03T10:18:01+09:00
- Original source: [github.com/ZrrSkywalker](https://github.com/ZrrSkywalker/LLaMA-Adapter)
- Points: 7
- Comments: 1

## Topic Body

- 단 120만개의 학습가능한 파라미터를 통해서 LLaMA를 1시간만에 Instruction-Following & MultiModal 모델로 학습가능   
- Alpaca는 7B개의 파라미터와 13G 저장공간, 3시간이 필요하지만,   
LLaMA-Adapter는 1.2M개의 파라미터와 4.7M 저장공간, 1시간이면 됨

## Comments



### Comment 15914

- Author: bytebrawlers
- Created: 2023-05-03T10:54:06+09:00
- Points: 1

LoRA와 유사한 PEFT 방식을 이용했고 무엇보다 Visual Context를 지원한다는게 주요한 내용아닌가요? 이미 LLaMA의 PEFT 접근의 SFT (Instruction Fine Tune)은 너무 많아서...
