nextvine 30 karma 가입일 2026-03-13 최근 활동 최근 작성한 글 전체 보기 Mixture of Experts(MoE)란 무엇인가 — DeepSeek이 왜 1.6조 파라미터인데 싸게 돌아가는지 2026-04-27 · 5점 · 댓글 4개 스탠퍼드 AI 인덱스 2026 — AI는 질주 중이고, 우리는 따라가기 버겁다 2026-04-16 · 4점 · 댓글 0개 Show GN: 꽃 어디 - 전국 꽃 명소 지도 & 실시간 개화 정보 앱 2026-04-13 · 2점 · 댓글 0개 클로드 코드(Claude Code) 사칭 악성코드 급증 2026-04-04 · 3점 · 댓글 0개 AI 시대 개발자 수요 전망 분석 (제번스의 역설 관점 포함) 2026-03-23 · 9점 · 댓글 3개 최근 작성한 댓글 전체 보기 최신 모델의 경우 내부 구현 방식을 자세히 알려주지 않기 때문에 자료조사 단계에서 이전 모델들이 나온거같고 gpt 5 이후에 나온 모델들은 모두 MoE 구조를 이어받았을 가능성이 높습니다. 오픈소스 병렬모델들이 MoE 구조로 되어있기 때문입니다. 최근 closed 모델의 경우에는 아키텍쳐를 공개를 안해서 확정된 공식은 아닙니다. 넵 현재 두가지 관점이 부딪히고 있지요. 주로 이야기 되는건 대체론이고 가끔씩 올라오는게 이 글에서와 같은 낙관론입니다. 미래의 일은 누구도 알수는 없는 것이지만 대세적인 론이 대체론이라면 그 반대도 알아볼 필요는 있다고 생각합니다. 낙관론 중에 많은 논지가 있지만 오래된 이론 중 하나인 제번스의 역설을 들고와봤습니다. 현재 시장에선 개인 개발자의 1인 기업화로 실제 전체 배지 GeekAward 글 작성 레벨 추천받은 글 스페셜 더 많은 GeekBadge가 있습니다. 활동을 통해 모으거나, GeekGold로 구매해 보세요.