# BloombergGPT - 금융을 위한 대규모 언어 모델

> Clean Markdown view of GeekNews topic #8858. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=8858](https://news.hada.io/topic?id=8858)
- GeekNews Markdown: [https://news.hada.io/topic/8858.md](https://news.hada.io/topic/8858.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-04-03T09:38:07+09:00
- Updated: 2023-04-03T09:38:07+09:00
- Original source: [arxiv.org](https://arxiv.org/abs/2303.17564)
- Points: 13
- Comments: 0

## Topic Body

- 광범위한 금융 데이터로 학습된 500억개(50B) 파라미터 언어 모델   
- 블룸버그의 데이터소스에 기반한 3630억개 토큰 데이터셋을 구성했고, 3450억개의 일반 데이터셋으로 보강   
- 일반 LLM 벤치마크에서 성능 저하가 없고, 금융 업무에서는 기존 모델 보다 훨씬 우수한 성능을 보임   
- 모델링 선택, 학습 과정 및 평가 방법론에 대해서도 설명   
- 다음 단계로는 BloombergGPT의 트레이닝 경험을 자세히 다룬 트레이닝 로그(크로니클)을 공개할 계획

## Comments



_No public comments on this page._
