7P by xguru 16일전 | favorite | 댓글 1개

"Open Pre-trained Transformer Language Model"

  • 이런 대규모 언어 모델은 상당한 자본이 들어야 구축이 가능하며, API 접근만 공개해서는 연구하기가 어려움
  • 관심있는 연구자들을 위해 전체 모델과 실험용 코드, 로그북을 모두 다운로드 가능하게 공개
  • GPT-3 보다 Carbon Footprint가 1/7만 필요함
xguru 16일전  [-]

https://github.com/facebookresearch/metaseq

답변달기