오픈소스 모델 중 가장 인기 있는 알리바바 큐웬3(Qwen3)의 비밀은 바로 Mixture-of-Experts(MoE) 구조에 있습니다. 하지만 전문가의 선택이 항상 옳은 것도 아니고, 어떤 전문가는 거의 선택되지 않기 때문에 불필요합니다.

큐웬(Qwen)3 MoE를 포함하여 MoE 구조의 라우터를 튜닝하는 과정에서 단순히 빈도 높은 전문가만을 사용하는 기존 방식을 넘어, AI 출력 품질에 진정으로 기여하는 전문가를 정확히 평가하고 선택하는 여러 전략을 소개합니다. 이 전략을 사용하면 MoE 모델의 정확도와 그 속도를 높일 수 있습니다.