1P by princox 2시간전 | ★ favorite | 댓글과 토론
  • 일론 머스크가 5월 15~17일 X(트위터)에서 Grok 신규 모델의 훈련 현황을 직접 공개함
  • 현재 공개 버전(v4.3)은 0.5T 파라미터의 V8 파운데이션 모델 기반이며, 며칠 간격으로 개선 중
  • 내부에서 개발 중인 V9는 1.5T 파라미터로 "방금 훈련을 마쳤다"고 밝힘
    • 머스크는 이 단계를 흔히 "pre-training"이라 부르지만 "잘못된 용어"라고 지적
    • V8 대비 데이터 큐레이션, 훈련 레시피, 모델 규모 모두 대폭 업그레이드
    • Hopper에서 학습한 V8과 달리 V9는 Blackwell 아키텍처에 최적화
  • 다음 단계로 보강 훈련(supplemental training, 흔히 "mid-training"이라 부르는 단계)에 Cursor 데이터를 추가할 예정
  • 머스크는 "V9는 Cursor 데이터를 넣기 전에도 이미 매우 훌륭한 성능을 보인다"고 언급

▍배경: SpaceX-Cursor 딜

  • 2026년 4월, SpaceX(작년 2월 xAI와 합병)는 Cursor를 연내 600억 달러에 인수할 권리, 또는 협업 대가로 100억 달러를 지불하는 옵션 계약을 체결
  • 이 계약 직전, Cursor의 시니어 엔지니어 Andrew Milich, Jason Ginsberg가 xAI로 이직해 머스크에게 직접 보고하는 구조로 합류
  • xAI Colossus 슈퍼컴퓨터(H100 100만 장 등가 컴퓨트) + Cursor의 개발자 제품/배포망을 결합하는 구도
  • Cursor가 자체 모델(Composer) 학습에 xAI 칩 수만 장을 임대해 쓰던 흐름이 본 계약으로 공식화됨
  • 즉, 이번 Grok V9의 "Cursor 데이터 보강 훈련" 발언은 단순 협업이 아닌 인수 옵션 계약의 데이터 시너지가 실제 모델 훈련 파이프라인에 들어가기 시작했다는 의미

▍읽을거리

  • 머스크가 "pre-training"이라는 업계 표준 용어를 공개적으로 부정하고 "supplemental training" / "mid-training"이라는 단계 구분을 강조한 점이 흥미로움
  • Cursor가 보유한 것은 단순 코드가 아니라, 수백만 개발자의 실시간 편집 행동·테스트 결과·로그·스크린샷 등 "코딩 행동 데이터" → 코딩 에이전트 학습에 가장 비싼 자산
  • Anthropic Claude, OpenAI Codex가 코딩 시장을 지배하는 상황에서 xAI가 격차를 메우기 위한 가장 직접적인 카드로 해석됨

출처:

댓글과 토론