# 일리야 수츠케버의 AI 스타트업 SSI, $1B(1.3조원) 투자 유치

> Clean Markdown view of GeekNews topic #16608. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=16608](https://news.hada.io/topic?id=16608)
- GeekNews Markdown: [https://news.hada.io/topic/16608.md](https://news.hada.io/topic/16608.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2024-09-05T09:45:18+09:00
- Updated: 2024-09-05T09:45:18+09:00
- Original source: [reuters.com](https://www.reuters.com/technology/artificial-intelligence/openai-co-founder-sutskevers-new-safety-focused-ai-startup-ssi-raises-1-billion-2024-09-04/)
- Points: 3
- Comments: 3

## Summary

일리야 수츠케버가 공동 설립한 Safe Superintelligence(SSI)는 인간의 능력을 뛰어넘는 안전한 AI 시스템 개발을 목표로 10억 달러를 모금했습니다. 이제 AI쪽에서는 1조원 투자가 당연한 것 처럼 느껴지네요.   
  
- xAI — $6B Series B (2024/03)  
- Anthropic — $2.75B Series D (2024/03)   
- G42 — $1.5B corporate minority (2024/04)  
- Anduril — $1.5B Series F (2024/08)  
- CoreWeave — $1.1B Series C (2024/05)  
- Wayve — $1.05B Series C (2024/05)  
- Moonshot AI — $1B Series B (2024/02)  
- Scale — $1B Series B (2024/05)  
- SSI — $1B "Seed"(2024/09)

## Topic Body

- OpenAI의 전 최고 과학자 Ilya Sutskever가 새로 공동 설립한 Safe Superintelligence (SSI)는 인간의 능력을 훨씬 뛰어넘는 안전한 AI 시스템 개발에 도움을 주기 위해 현금 10억 달러를 모금  
- SSI는 현재 직원이 10명이며, 이 자금을 사용하여 컴퓨팅 파워를 확보하고 최고의 인재를 채용할 계획임  
  - 캘리포니아 팔로알토와 이스라엘 텔아비브에 있는 신뢰할 수 있는 소규모 연구자 및 엔지니어 팀 구축에 주력할 예정  
- 회사는 가치평가를 공유하지 않았지만, 관련 소식통에 따르면 50억 달러로 평가되었음  
  - 이번 자금 조달은 기초 AI 연구에 집중하는 탁월한 인재에 대해 일부 투자자들이 여전히 과감한 베팅을 할 의향이 있음을 보여줌   
  - 투자자로는 Andreessen Horowitz, Sequoia Capital, DST Global, SV Angel 등 최고의 벤처캐피털 회사들이 참여했음  
  - Nat Friedman이 운영하는 투자 파트너십 NFDG와 SSI의 CEO인 Daniel Gross도 참여했음  
- AI 안전은 AI가 인류의 이익에 반하는 행동을 하거나 인류 멸종을 초래할 수 있다는 우려 속에 뜨거운 주제임  
  - 캘리포니아의 법안은 기업에 대한 안전 규제를 추진하고 있으며, 업계를 분열시키고 있음  
  - OpenAI와 Google은 반대하고, Anthropic과 Elon Musk의 xAI는 지지하고 있음  
- Sutskever는 AI 분야에서 가장 영향력 있는 기술자 중 한 명임  
  - 6월에 Daniel Gross 및 Daniel Levy와 함께 SSI를 공동 설립했음  
  - 수츠케버는 수석 과학자, 레비는 수석 과학자, 그로스는 컴퓨팅 파워와 기금 모금을 담당  
  
### New Mountain  
- 수츠케버는 "내가 하던 일과는 조금 다른 산을 발견했기 때문에" 새로운 사업을 시작하게 되었다고 말함  
  - 작년에 OpenAI의 비영리 모회사 이사회 일원으로서 "의사소통 단절"을 이유로 OpenAI CEO인 Sam Altman을 축출하는 데 투표했음  
  - 며칠 후, 그는 결정을 번복하고 Altman의 복귀와 이사회의 사임을 요구하는 서한에 OpenAI 직원 거의 모두와 함께 서명했음  
  - 그러나 이 사건으로 그의 역할은 축소되었고, 이사회에서 제명되었으며 5월에 회사를 떠났음   
- 수츠케버가 떠난 후, 회사는 AI가 인간의 지능을 능가하는 날을 대비하기 위해 AI가 인간의 가치에 부합하도록 하는 '슈퍼얼라인먼트' 팀을 해체했음  
- AI의 안전을 위해 도입되었지만, 알트먼의 축출을 가능하게 한 OpenAI의 비정상적인 기업 구조와 달리, SSI는 일반적인 영리 구조를 가지고 있음  
- SSI는 현재 회사 문화에 맞는 사람을 채용하는 데 매우 집중하고 있음   
  - 후보자들이 "좋은 성품"을 가지고 있는지 시간을 들여 검증하고, 자격 증명과 분야 경험을 지나치게 강조하기보다는 비범한 능력을 가진 사람을 찾고 있음  
  - "일에는 관심이 있지만 주변 상황이나 과장된 선전에는 관심이 없는 사람을 발견하는 것이 우리를 흥분시킨다"고 Gross는 덧붙였음  
- SSI는 클라우드 제공업체 및 칩 회사와 협력하여 컴퓨팅 파워 필요성을 충족시킬 계획이지만, 아직 어떤 회사와 협력할지는 결정하지 않았음   
  - AI 스타트업은 인프라 필요성을 해결하기 위해 Microsoft나 Nvidia와 같은 회사와 협력하는 경우가 많음  
- Sutskever는 방대한 양의 컴퓨팅 파워가 주어지면 AI 모델의 성능이 향상될 것이라는 스케일링 가설의 초기 지지자였음  
  - 이 아이디어와 실행은 칩, 데이터 센터, 에너지에 대한 AI 투자의 물결을 일으켰고, ChatGPT와 같은 발전적인 AI의 토대를 마련  
  - 그는 전 직장과는 다른 방식으로 스케일링에 접근할 것이라고 했지만, 세부 사항은 공유하지 않았음   
  - "모두가 그저 스케일링 가설만 이야기 한다. 우리가 무엇을 스케일링하고 있는지 묻지는 않는다"고 그는 말했음  
- > "어떤 사람들은 정말 오랜 시간 일해도 같은 길을 더 빨리 갈 수 있습니다. 그건 우리 스타일이 아니죠. 하지만 뭔가 다른 것을 하면 특별한 것을 할 수 있습니다."  
  
### GN⁺의 의견  
- 이번 투자는 기초 AI 연구의 중요성과 인재의 가치를 보여주는 사례임. 많은 AI 스타트업이 대규모 자금 유치에 어려움을 겪고 있음에도 불구하고, SSI는 설립자들의 역량을 인정받아 거액을 투자 받았음  
- AI 안전 문제는 ChatGPT 등 생성형 AI의 급속한 발전으로 인해 중요한 이슈로 떠오르고 있음. 그러나 안전을 위해 AI 개발을 지나치게 규제하는 것은 혁신을 저해할 수 있어 균형 잡힌 접근이 필요함  
- SSI는 기존의 접근 방식과는 차별화된 스케일링 전략을 추구하겠다고 밝혔는데, 구체적인 내용은 공개되지 않아 귀추가 주목됨. 새로운 방식의 AI 모델 개발이 기대됨   
- Sutskever와 OpenAI의 갈등은 안타깝지만, 그의 재능과 비전을 활용할 수 있는 새로운 플랫폼이 마련된 것으로 보임. SSI가 향후 AI 발전에 어떤 영향을 미칠지 지켜볼 필요가 있음  
- 신생 스타트업이지만 SSI의 인재 채용 전략은 흥미로움. 학력이나 경력보다는 실력과 가치관을 중시하는 것은 바람직한 방향임. 그러나 AI 인재 확보 경쟁이 치열한 상황에서 이러한 방식이 효과적일지는 미지수임

## Comments



### Comment 28658

- Author: choijaekyu
- Created: 2024-09-06T16:07:43+09:00
- Points: 1

크흐 1억달러의 사나이!!!

### Comment 28593

- Author: xguru
- Created: 2024-09-05T09:56:36+09:00
- Points: 1

창업한지 두달만에 1.3조원 펀딩.. 시장이 무섭네요.  
[OpenAI를 퇴사한 일리야 수츠케버, Safe Superintelligence Inc. 창업](https://news.hada.io/topic?id=15420)

### Comment 28585

- Author: neo
- Created: 2024-09-05T09:45:18+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=41445413) 
- AI 분야에 투자된 회사들이 어떻게 수익을 낼지 궁금함
  - 오픈 소스 LLM이 존재하고 발전할 것임
  - OpenAI가 AI 분야에서 상당한 수익을 올리고 있음
  - VC 수준의 자금이 없어서 10배 또는 100배 수익을 기대하기 어려움

- CFO로서 $1B의 현금을 단기 및 중기적으로 어떻게 관리할지 궁금함
  - 현금이 머니 마켓이나 국채에 묶여 있는지 궁금함
  - SV 은행이 제공했던 서비스가 필요함

- OpenAI와 같은 자금 조달, 그러나 SSI는 초지능이 도달할 때까지 단일 제품을 출시하지 않을 것임
  - 현대의 맨해튼 프로젝트와 비슷함

- $1,000,000,000의 투자가 SafeAI의 안전한 비전을 왜곡할 수 있음
  - 투자가 회사의 미션을 수익 창출로 변형시킬 수 있음

- a16z의 자금 지원은 해당 분야가 더 이상 뜨겁지 않다는 신호일 수 있음

- 많은 사람들이 매우 큰 LLM이 목표라고 가정하고 있음
  - 5년 전에는 트랜스포머 모델이 AI에서 가장 큰 화제가 아니었음
  - 10년 계획을 가지고 있으며, 트랜스포머 모델 발명과 같은 큰 단계를 발명하려고 함
  - "SSI"는 GPT와 다를 수 있음

- Sam Bankman-Fried가 더 높은 배수로 자금을 모았음
  - Ilya가 투자자들에게 큰 인상을 주지 못했을 수 있음
  - 그럼에도 불구하고 많은 사람들이 그에게 투자하고 싶어 함
  - 그는 작은 투자자 그룹을 선호할 수 있음

- AGI를 구축할 수 있을지 확신이 없음
  - LLM을 확장하는 것만으로는 충분하지 않음
  - VCs는 사람들이 초지능을 구축할 수 있다고 가장하기 때문에 자금을 계속 지원함
  - 향후 5년 내에 AGI가 실현될 가능성이 낮음

- "안전한" AI가 많은 자금을 모을 수 있는 이유를 이해하지 못함
  - 상업적으로 출시하기 전에 두 배의 시간을 소모할 것임
  - "안전하지 않은" AI가 더 수익성이 높아 보임

- 빠르게 10억 달러 이상의 평가를 받은 사례 중 하나임
  - 자금을 효과적으로 사용할 수 있을지 의문임
