일론 머스크, Cursor 인수 계약 후 "Cursor 데이터로 Grok V9 보강 훈련 예정"
(x.com/elonmusk)- 일론 머스크가 5월 15~17일 X(트위터)에서 Grok 신규 모델의 훈련 현황을 직접 공개함
- 현재 공개 버전(v4.3)은 0.5T 파라미터의 V8 파운데이션 모델 기반이며, 며칠 간격으로 개선 중
- 내부에서 개발 중인 V9는 1.5T 파라미터로 "방금 훈련을 마쳤다"고 밝힘
- 머스크는 이 단계를 흔히 "pre-training"이라 부르지만 "잘못된 용어"라고 지적
- V8 대비 데이터 큐레이션, 훈련 레시피, 모델 규모 모두 대폭 업그레이드
- Hopper에서 학습한 V8과 달리 V9는 Blackwell 아키텍처에 최적화
- 다음 단계로 보강 훈련(supplemental training, 흔히 "mid-training"이라 부르는 단계)에 Cursor 데이터를 추가할 예정
- 머스크는 "V9는 Cursor 데이터를 넣기 전에도 이미 매우 훌륭한 성능을 보인다"고 언급
▍배경: SpaceX-Cursor 딜
- 2026년 4월, SpaceX(작년 2월 xAI와 합병)는 Cursor를 연내 600억 달러에 인수할 권리, 또는 협업 대가로 100억 달러를 지불하는 옵션 계약을 체결
- 이 계약 직전, Cursor의 시니어 엔지니어 Andrew Milich, Jason Ginsberg가 xAI로 이직해 머스크에게 직접 보고하는 구조로 합류
- xAI Colossus 슈퍼컴퓨터(H100 100만 장 등가 컴퓨트) + Cursor의 개발자 제품/배포망을 결합하는 구도
- Cursor가 자체 모델(Composer) 학습에 xAI 칩 수만 장을 임대해 쓰던 흐름이 본 계약으로 공식화됨
- 즉, 이번 Grok V9의 "Cursor 데이터 보강 훈련" 발언은 단순 협업이 아닌 인수 옵션 계약의 데이터 시너지가 실제 모델 훈련 파이프라인에 들어가기 시작했다는 의미
▍읽을거리
- 머스크가 "pre-training"이라는 업계 표준 용어를 공개적으로 부정하고 "supplemental training" / "mid-training"이라는 단계 구분을 강조한 점이 흥미로움
- Cursor가 보유한 것은 단순 코드가 아니라, 수백만 개발자의 실시간 편집 행동·테스트 결과·로그·스크린샷 등 "코딩 행동 데이터" → 코딩 에이전트 학습에 가장 비싼 자산
- Anthropic Claude, OpenAI Codex가 코딩 시장을 지배하는 상황에서 xAI가 격차를 메우기 위한 가장 직접적인 카드로 해석됨
출처:
- https://x.com/elonmusk (May 15, May 17 reply)
- https://cnbc.com/2026/04/…
- https://techcrunch.com/2026/04/…