- Microsoft에서 개발한 오픈 AI 모델 제품군인 Phi-3에 대한 매뉴얼
- Phi-3 모델은 현재 사용 가능한 소형 언어 모델(SLM) 중 가장 성능이 우수하고 비용 효율적임
- 언어, 추론, 코딩, 수학 등 다양한 벤치마크에서 동일한 크기와 다음 크기의 모델을 능가함
Phi-3 모델 종류와 성능
- Phi-3-mini (3.8B 언어 모델)는 Microsoft Azure AI Studio, Hugging Face, Ollama에서 사용 가능함
- Phi-3 모델은 주요 벤치마크에서 동일하거나 더 큰 크기의 언어 모델을 크게 능가함
- Phi-3-mini는 자신의 두 배 크기의 모델보다 성능이 우수함
- Phi-3-small과 Phi-3-medium은 GPT-3.5T를 포함한 훨씬 더 큰 모델의 성능을 능가함
- Phi-3-small (7B)은 GPT-3.5T를 다양한 언어, 추론, 코딩, 수학 벤치마크에서 능가함
- Phi-3-medium (14B)은 그 추세를 이어가며 Gemini 1.0 Pro의 성능을 능가함
- Phi-3-vision (4.2B)은 일반적인 시각적 추론 작업, OCR, 표와 차트 이해 작업에서 Claude-3 Haiku와 Gemini 1.0 Pro V와 같은 더 큰 모델의 성능을 능가함
Windows Copilot용 Phi Silica 모델 소개
- Phi 시리즈 모델을 기반으로 제작되었으며, Copilot+ PC의 NPU를 위해 특별히 설계됨
- Windows는 NPU를 위해 맞춤 제작된 최첨단 소형 언어 모델(SLM)이 inbox로 제공되는 최초의 플랫폼임
- Phi Silica API와 OCR, Studio Effects, Live Captions, Recall User Activity API는 6월에 Windows Copilot Library에서 제공될 예정임
- Vector Embedding, RAG API, Text Summarization 등의 API는 추후 제공될 예정임