- 텍스트, 오디오, 임베딩, 비전 등 다양한 AI 모델의 로컬 실행과 학습을 하나의 인터페이스에서 지원하는 오픈소스 도구
- 맥/윈/리눅스에서 GGUF/safetensor 모델을 로컬 실행 가능하며, 학습 시 최대 2배 빠른 속도와 70% 적은 VRAM 사용을 달성
- llama.cpp + Hugging Face 기반으로 멀티 GPU 추론 및 대부분의 모델 지원
- Unsloth 커널이 LoRA, FP8, FFT, PT를 최적화하여 500개 이상의 텍스트, 비전, TTS/오디오, 임베딩 모델 지원
- Qwen3.5, NVIDIA Nemotron 3 등 최신 LLM의 파인튜닝이 가능하며, 멀티 GPU 자동 지원
- 풀 파인튜닝, 4bit/16bit/FP8 학습, 강화학습(GRPO) 등 폭넓은 학습 방식 지원
- MoE LLM을 12배 빠르게 학습시키거나, 80GB GPU에서 500K 이상의 컨텍스트 길이로 20B 모델을 학습하는 등 최적화 기술이 지속적으로 추가되는 중
- 파인튜닝된 모델 포함 모든 모델을 safetensors/GGUF로 내보내기하여 llama.cpp, vLLM, Ollama, LM Studio 등에서 사용 가능
- PDF, CSV, JSON 등 비정형 문서를 자동으로 데이터셋으로 변환하는 Data Recipes 기능과 자가 복구 도구 호출, 코드 실행 기능 내장
- 훈련 손실, GPU 사용률을 실시간 추적하는 관측 기능 포함
-
Model Arena에서 기본 모델과 파인튜닝 모델 등 2개 모델의 출력을 나란히 비교 가능
- 100% 오프라인 로컬 실행으로 프라이버시를 보장하며, Apple MLX·AMD·Intel 지원이 곧 추가될 예정
-
워크플로 :
Studio 실행 →
로컬 파일 또는 지원 통합에서 모델 로드 →
PDF, CSV, JSONL 등으로 훈련 데이터 가져오기 또는 처음부터 데이터셋 생성 →
Data Recipes에서 데이터셋 정제·확장 → 추천 프리셋 또는 커스텀 설정으로 훈련 시작 →
훈련된 모델과 기본 모델 출력 비교 →
기존 사용 스택으로 로컬 저장 또는 내보내기
- 라이선스
- 메인 Unsloth 패키지는 Apache 2.0 라이선스
- Unsloth Studio UI 등 일부 선택적 컴포넌트만 AGPL-3.0 오픈소스 라이선스 적용