# YaLM 100B - 1000억개 파라미터의 GPT-like 언어 모델

> Clean Markdown view of GeekNews topic #6829. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=6829](https://news.hada.io/topic?id=6829)
- GeekNews Markdown: [https://news.hada.io/topic/6829.md](https://news.hada.io/topic/6829.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2022-06-24T10:10:11+09:00
- Updated: 2022-06-24T10:10:11+09:00
- Original source: [github.com/yandex](https://github.com/yandex/YaLM-100B)
- Points: 4
- Comments: 0

## Topic Body

- Yandex가 공개해서 개발자/연구자 누구나 무료로 사용 가능  
- 영어와 러시아어 1.7TB 텍스트를 800대의 A100 GPU로 65일간 훈련  
- 마이크로소프트의 Megatron-LM 코드 기반

## Comments



_No public comments on this page._
