4P by xguru 8달전 | favorite | 댓글과 토론
  • 복잡한 프로세스 없이 대규모 모델을 허깅페이스의 클러스터에서 손쉽게 훈련하기 위한 서비스
  • 콤보박스에서 주요 값을 수정해서 가격 확인 가능
    I want to train a "7B/13B/30B/70B" parameters "text/multimodal" model on a "1.4T/3.5T/7T" tokens dataset, on "200/500/1000" "A100/H100 GPUs/Trainium Nodes"
  • 70B 파라미터 text 모델을 1.4T 토큰 데이터셋으로 500개의 H100 GPU를 가지고 훈련하겠다 선택하면
    총 57일 소요되며 가격은 $2,879,856