# xAI 개발자, SpaceX·Tesla 내부 LLM 접근 가능한 API 키 깃허브에 유출

> Clean Markdown view of GeekNews topic #20664. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=20664](https://news.hada.io/topic?id=20664)
- GeekNews Markdown: [https://news.hada.io/topic/20664.md](https://news.hada.io/topic/20664.md)
- Type: GN+
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2025-05-03T09:28:49+09:00
- Updated: 2025-05-03T09:28:49+09:00
- Original source: [krebsonsecurity.com](https://krebsonsecurity.com/2025/05/xai-dev-leaks-api-key-for-private-spacex-tesla-llms/)
- Points: 4
- Comments: 1

## Topic Body

- **xAI 개발자**가 깃허브에 **비공개 LLM API 키를 유출**하여 두 달간 누구나 내부 모델에 접근 가능했던 상황이 드러남  
- 이 키는 **Grok 개발 버전, SpaceX, Tesla 데이터로 학습된 모델** 포함 **60개 이상 LLM**에 접근 권한을 가짐  
- **GitGuardian**은 두 달 전 경고했지만 키는 여전히 유효했으며, 보안팀이 확인 후에야 깃허브에서 제거됨  
- 이러한 **자격증명 관리 부실**은 내부 개발 정보 노출 위험뿐 아니라 **공급망 공격이나 프롬프트 인젝션의 가능성**도 내포함  
- 동시에 **DOGE 조직이 연방 정부 데이터를 AI에 투입**하는 정황도 드러나면서, Musk 계열 AI 보안에 대한 우려가 커지고 있음  
  
---  
  
### xAI의 내부 LLM API 키, 깃허브에 유출  
  
- Elon Musk의 AI 회사인 **xAI**의 개발자가 깃허브에 **내부 LLM 접근용 API 키**를 실수로 공개함  
- 해당 키는 **SpaceX, Tesla, Twitter/X용으로 특화된 LLM들**에 접근할 수 있는 권한을 가지고 있었음  
  
### 키 유출 경로 및 경고 무시  
  
- 보안 컨설팅 기업 **Seralys**의 Philippe Caturegli가 해당 키 유출을 최초로 **LinkedIn에 공개적으로 알림**  
- **GitGuardian**은 이 게시글을 통해 키를 인지하고, 깃허브를 지속적으로 모니터링해 온 결과로 경고 이메일을 발송함  
- **3월 2일**에 경고했음에도 **4월 30일까지 키는 여전히 유효**했으며, 보안팀이 인지한 후에야 저장소가 삭제됨  
  
### 유출된 키의 영향  
  
- GitGuardian은 해당 키가 **Grok의 공개 및 비공개 모델**들에 접근 가능하다고 보고  
  - 예: `grok-2.5V`, `research-grok-2p5v-1018`, `grok-spacex-2024-11-04`, `tweet-rejector` 등  
- 키는 최소 **60개 이상의 미공개 및 파인튜닝된 LLM들**에 접근할 수 있었음  
  
### 보안 전문가들의 경고  
  
- GitGuardian의 CMO **Carole Winqwist**는 공격자가 키를 통해  
  - **프롬프트 인젝션**  
  - **LLM 조작**  
  - **공급망 공격 유도**  
  등의 위협을 실행할 수 있다고 경고함  
- 이 유출은 xAI 내부 보안에 대한 **감시 부족과 키 수명 관리 실패**를 보여주는 사례로 평가됨  
  
### 정부 기관 연관성 및 더 큰 우려  
  
- 유출된 키가 직접적으로 **정부 데이터에 연결되었다는 증거는 없지만**, 관련 모델들이 **SpaceX, Twitter, Tesla의 내부 데이터**로 학습되었을 가능성이 높음  
- 한편 Musk가 주도하는 **DOGE(Department of Government Efficiency)** 는 이미 미 연방 정부 데이터들을 AI에 공급 중  
  - **교육부 데이터를 AI로 분석**  
  - **GSAi 챗봇을 연방 공무원에게 배포**  
  - **트럼프 행정부 지지 여부 감시용으로 AI 사용 정황**  
- 이는 AI 시스템 운영자가 **민감 데이터를 통제할 수 있는 구조**를 강화함을 의미하며, 유출 리스크를 증가시킴  
  
### 결론 및 보안 경고  
  
- **장기간 노출된 내부 자격증명**은 개발자 접근 통제와 내부 보안 운영의 허점을 보여주는 사례임  
- Caturegli는 이 사건이 **운영 보안에 대한 보다 엄격한 관리 필요성**을 환기시키는 경고라고 평가함

## Comments



### Comment 38131

- Author: neo
- Created: 2025-05-03T09:28:49+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=43865097) 
- GitGuardian이 xAI 직원에게 API 키 노출을 경고한 지 거의 두 달이 지났음에도 불구하고, 해당 키는 여전히 유효했음
  - xAI는 GitGuardian에게 HackerOne의 버그 바운티 프로그램을 통해 문제를 보고하라고 했으나, 몇 시간 후 GitHub에서 API 키가 포함된 저장소가 제거되었음
  - 보안 팀이 보고를 HackerOne 프로그램으로 돌린 것은 놀라운 일임
  - 결국 문제를 해결할 수 있는 사람에게 전달한 것은 다행스러운 일임

- SpaceX 데이터 LLM의 노출은 ITAR 위반의 큰 원인이 될 가능성이 있음

- 절대적인 무능함임
  - 개발자뿐만 아니라 모든 조직은 API 키 유출을 지속적으로 스캔해야 함
  - 하나의 실패는 여러 개의 실패임

- Elon이 '능력'에 기반하여 채용한다는 것은 당연한 일임

- 개인 모델 "tweet-rejector"의 사용 용도가 더 궁금함

- 가장 놀라운 점은 정부 관리들이 일부 미국 정부 직원들에게 DOGE가 AI를 사용하여 적어도 하나의 연방 기관의 통신을 감시하고 있다고 말했다는 것임
  - 직장에서 사생활을 기대할 수 없다는 것은 이해하지만, 고용주가 본질적으로 사상범죄를 감시하는 것은 끔찍함
  - 의견 불일치는 건강한 것 아닌가?

- 기자들이 LLM의 API 키를 가지고 있으면 데이터를 주입할 수 있다고 잘못 가정하는 것이 눈에 띔
  - 사람들은 여전히 LLM이 어떻게 작동하는지 모르고 API 수준에서 상호작용하여 훈련할 수 있다고 생각함

- ex-AI 개발자를 의미하는 것임

- [삭제됨]

- [삭제됨]

- [신고됨]
