# Alpaca: GPT-3.5 수준의 강력한 오픈소스 Instruction-Following 모델

> Clean Markdown view of GeekNews topic #8692. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=8692](https://news.hada.io/topic?id=8692)
- GeekNews Markdown: [https://news.hada.io/topic/8692.md](https://news.hada.io/topic/8692.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-03-14T11:21:01+09:00
- Updated: 2023-03-14T11:21:01+09:00
- Original source: [crfm.stanford.edu](https://crfm.stanford.edu/2023/03/13/alpaca.html)
- Points: 19
- Comments: 1

## Topic Body

- 스탠포드 CRFM에서 메타의 LLaMA 7B를 52K Instruction-Following 데이터를 통해서 파인튜닝   
- OpenAI의 GPT-3.5(text-davinci-003)와 비슷하게 동작하지만, 매우 작고 저렴   
- 훈련 레시피와 데이터를 공개하며, 차후에는 모델 가중치도 릴리즈 예정   
- 연구목적으로만 공개하며, 상업적 이용은 금지   
- 파인튜닝하는데 8개의 80GB A100에서 3시간 걸렸으며, 클라우드에서 약 100달러 미만으로 가능

## Comments



### Comment 15179

- Author: xguru
- Created: 2023-03-14T11:22:02+09:00
- Points: 2

Repo : https://github.com/tatsu-lab/stanford_alpaca  
웹데모 : https://crfm.stanford.edu/alpaca/  
  
LLaMA의 공개는 정말 [Stable Diffusion Moment](https://news.hada.io/topic?id=8684)를 만들어내고 있네요. 정말 빠르게 변하고 있습니다.
