1P by neo 2달전 | favorite | 댓글과 토론
  • Mistral의 모델들을 메모리/성능 효율적으로 파인튜닝 하게 해주는 경량 코드 베이스
  • LoRA 기반으로 대부분의 가중치가 동결되고 Low-Rank Matrix Perturbation의 형태로 1~2%의 추가 가중치만 훈련
  • 효율성을 극대화하려면 A100 또는 H100 GPU를 사용하는 것이 좋으며, 코드베이스는 멀티 GPU 단일 노드 트레이닝 설정에 최적화되어 있지만 7B와 같은 소형 모델의 경우 단일 GPU로도 충분

노트 : 이 리포지토리의 목표는 미스트랄 모델을 미세 조정하기 위한 간단하고 안내에 따른 진입점을 제공하는 것. 따라서 (특히 데이터 서식과 관련하여) 상당히 의견이 분분하며, 여러 모델 아키텍처나 하드웨어 유형에 걸쳐 포괄적인 것을 목표로 하지 않음. 보다 일반적인 접근 방식에 대해서는 torchtune과 같은 다른 훌륭한 프로젝트를 확인해 볼 것