# Replit Code - 10일만에 훈련된 오픈소스 코드 생성 LLM

> Clean Markdown view of GeekNews topic #9107. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=9107](https://news.hada.io/topic?id=9107)
- GeekNews Markdown: [https://news.hada.io/topic/9107.md](https://news.hada.io/topic/9107.md)
- Type: news
- Author: [kuroneko](https://news.hada.io/@kuroneko)
- Published: 2023-05-04T11:25:55+09:00
- Updated: 2023-05-04T11:25:55+09:00
- Original source: [huggingface.co](https://huggingface.co/replit/replit-code-v1-3b)
- Points: 19
- Comments: 2

## Topic Body

- Replit이 새로운 코드 생성 LLM을 상업적 이용이 가능한 오픈소스로 공개.  
- 2.7B 매개변수로 가볍고 빠르며, 10일만에 훈련이 완료됨.  
- 동급 모델 대비 40%의 성능 향상, 파인튜닝된 모델은 Codex보다 성능이 좋음.  
- The Stack 데이터셋으로 훈련되었으며, 20여개 언어를 생성할 수 있음.  
- Hugging Face에서 바로 데모 사용 가능.

## Comments



### Comment 15928

- Author: kuroneko
- Created: 2023-05-04T11:30:23+09:00
- Points: 2

요즘 상업적 이용이 가능한 오픈 소스 LLM이 많이 늘어나는 느낌입니다. LLaMA에 자극된건지...  
  
그리고 모델 크기 대비 성능이 상당히 좋아진 부분이 마음에 드는군요.  
이 정도면 일반적인 (GPU 없는) 개발용 컴퓨터에서 로컬로 돌릴 수 있는 수준 아닐까 싶습니다.

### Comment 15927

- Author: kuroneko
- Created: 2023-05-04T11:26:52+09:00
- Points: 1

- [데모](https://huggingface.co/spaces/replit/replit-code-v1-3b-demo)  
- [팟캐스트](https://www.latent.space/p/reza-shabani)  
- [공개 트윗](https://twitter.com/Replit/status/1651344182425051136)  
- [저장소](https://github.com/replit/ReplitLM/tree/main/replit-code-v1-3b)  
- [HN 스레드](https://news.ycombinator.com/item?id=35803435)
