# OPT - Meta가 공개한 GPT-3 규모(175B)의 언어 모델

> Clean Markdown view of GeekNews topic #6491. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=6491](https://news.hada.io/topic?id=6491)
- GeekNews Markdown: [https://news.hada.io/topic/6491.md](https://news.hada.io/topic/6491.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2022-05-04T12:41:14+09:00
- Updated: 2022-05-04T12:41:14+09:00
- Original source: [arxiv.org](https://arxiv.org/abs/2205.01068)
- Points: 7
- Comments: 1

## Topic Body

"Open Pre-trained Transformer Language Model"  
- 이런 대규모 언어 모델은 상당한 자본이 들어야 구축이 가능하며, API 접근만 공개해서는 연구하기가 어려움  
- 관심있는 연구자들을 위해 전체 모델과 실험용 코드, 로그북을 모두 다운로드 가능하게 공개   
- GPT-3 보다 Carbon Footprint가 1/7만 필요함

## Comments



### Comment 9911

- Author: xguru
- Created: 2022-05-04T12:41:17+09:00
- Points: 1

https://github.com/facebookresearch/metaseq
