▲aqqnucs 12시간전 | parent | ★ favorite | on: Mixture of Experts(MoE)란 무엇인가 — DeepSeek이 왜 1.6조 파라미터인데 싸게 돌아가는지(app-place-tech.com)moe를 사용하는 주요 프론티어모델 중 gpt5.5는 moe를 쓰지 않는다는 말인가요?
moe를 사용하는 주요 프론티어모델 중 gpt5.5는 moe를 쓰지 않는다는 말인가요?