3P by neo 3달전 | favorite | 댓글 3개
  • OpenAI의 전 최고 과학자 Ilya Sutskever가 새로 공동 설립한 Safe Superintelligence (SSI)는 인간의 능력을 훨씬 뛰어넘는 안전한 AI 시스템 개발에 도움을 주기 위해 현금 10억 달러를 모금
  • SSI는 현재 직원이 10명이며, 이 자금을 사용하여 컴퓨팅 파워를 확보하고 최고의 인재를 채용할 계획임
    • 캘리포니아 팔로알토와 이스라엘 텔아비브에 있는 신뢰할 수 있는 소규모 연구자 및 엔지니어 팀 구축에 주력할 예정
  • 회사는 가치평가를 공유하지 않았지만, 관련 소식통에 따르면 50억 달러로 평가되었음
    • 이번 자금 조달은 기초 AI 연구에 집중하는 탁월한 인재에 대해 일부 투자자들이 여전히 과감한 베팅을 할 의향이 있음을 보여줌
    • 투자자로는 Andreessen Horowitz, Sequoia Capital, DST Global, SV Angel 등 최고의 벤처캐피털 회사들이 참여했음
    • Nat Friedman이 운영하는 투자 파트너십 NFDG와 SSI의 CEO인 Daniel Gross도 참여했음
  • AI 안전은 AI가 인류의 이익에 반하는 행동을 하거나 인류 멸종을 초래할 수 있다는 우려 속에 뜨거운 주제임
    • 캘리포니아의 법안은 기업에 대한 안전 규제를 추진하고 있으며, 업계를 분열시키고 있음
    • OpenAI와 Google은 반대하고, Anthropic과 Elon Musk의 xAI는 지지하고 있음
  • Sutskever는 AI 분야에서 가장 영향력 있는 기술자 중 한 명임
    • 6월에 Daniel Gross 및 Daniel Levy와 함께 SSI를 공동 설립했음
    • 수츠케버는 수석 과학자, 레비는 수석 과학자, 그로스는 컴퓨팅 파워와 기금 모금을 담당

New Mountain

  • 수츠케버는 "내가 하던 일과는 조금 다른 산을 발견했기 때문에" 새로운 사업을 시작하게 되었다고 말함
    • 작년에 OpenAI의 비영리 모회사 이사회 일원으로서 "의사소통 단절"을 이유로 OpenAI CEO인 Sam Altman을 축출하는 데 투표했음
    • 며칠 후, 그는 결정을 번복하고 Altman의 복귀와 이사회의 사임을 요구하는 서한에 OpenAI 직원 거의 모두와 함께 서명했음
    • 그러나 이 사건으로 그의 역할은 축소되었고, 이사회에서 제명되었으며 5월에 회사를 떠났음
  • 수츠케버가 떠난 후, 회사는 AI가 인간의 지능을 능가하는 날을 대비하기 위해 AI가 인간의 가치에 부합하도록 하는 '슈퍼얼라인먼트' 팀을 해체했음
  • AI의 안전을 위해 도입되었지만, 알트먼의 축출을 가능하게 한 OpenAI의 비정상적인 기업 구조와 달리, SSI는 일반적인 영리 구조를 가지고 있음
  • SSI는 현재 회사 문화에 맞는 사람을 채용하는 데 매우 집중하고 있음
    • 후보자들이 "좋은 성품"을 가지고 있는지 시간을 들여 검증하고, 자격 증명과 분야 경험을 지나치게 강조하기보다는 비범한 능력을 가진 사람을 찾고 있음
    • "일에는 관심이 있지만 주변 상황이나 과장된 선전에는 관심이 없는 사람을 발견하는 것이 우리를 흥분시킨다"고 Gross는 덧붙였음
  • SSI는 클라우드 제공업체 및 칩 회사와 협력하여 컴퓨팅 파워 필요성을 충족시킬 계획이지만, 아직 어떤 회사와 협력할지는 결정하지 않았음
    • AI 스타트업은 인프라 필요성을 해결하기 위해 Microsoft나 Nvidia와 같은 회사와 협력하는 경우가 많음
  • Sutskever는 방대한 양의 컴퓨팅 파워가 주어지면 AI 모델의 성능이 향상될 것이라는 스케일링 가설의 초기 지지자였음
    • 이 아이디어와 실행은 칩, 데이터 센터, 에너지에 대한 AI 투자의 물결을 일으켰고, ChatGPT와 같은 발전적인 AI의 토대를 마련
    • 그는 전 직장과는 다른 방식으로 스케일링에 접근할 것이라고 했지만, 세부 사항은 공유하지 않았음
    • "모두가 그저 스케일링 가설만 이야기 한다. 우리가 무엇을 스케일링하고 있는지 묻지는 않는다"고 그는 말했음
  • "어떤 사람들은 정말 오랜 시간 일해도 같은 길을 더 빨리 갈 수 있습니다. 그건 우리 스타일이 아니죠. 하지만 뭔가 다른 것을 하면 특별한 것을 할 수 있습니다."

GN⁺의 의견

  • 이번 투자는 기초 AI 연구의 중요성과 인재의 가치를 보여주는 사례임. 많은 AI 스타트업이 대규모 자금 유치에 어려움을 겪고 있음에도 불구하고, SSI는 설립자들의 역량을 인정받아 거액을 투자 받았음
  • AI 안전 문제는 ChatGPT 등 생성형 AI의 급속한 발전으로 인해 중요한 이슈로 떠오르고 있음. 그러나 안전을 위해 AI 개발을 지나치게 규제하는 것은 혁신을 저해할 수 있어 균형 잡힌 접근이 필요함
  • SSI는 기존의 접근 방식과는 차별화된 스케일링 전략을 추구하겠다고 밝혔는데, 구체적인 내용은 공개되지 않아 귀추가 주목됨. 새로운 방식의 AI 모델 개발이 기대됨
  • Sutskever와 OpenAI의 갈등은 안타깝지만, 그의 재능과 비전을 활용할 수 있는 새로운 플랫폼이 마련된 것으로 보임. SSI가 향후 AI 발전에 어떤 영향을 미칠지 지켜볼 필요가 있음
  • 신생 스타트업이지만 SSI의 인재 채용 전략은 흥미로움. 학력이나 경력보다는 실력과 가치관을 중시하는 것은 바람직한 방향임. 그러나 AI 인재 확보 경쟁이 치열한 상황에서 이러한 방식이 효과적일지는 미지수임

크흐 1억달러의 사나이!!!

창업한지 두달만에 1.3조원 펀딩.. 시장이 무섭네요.
OpenAI를 퇴사한 일리야 수츠케버, Safe Superintelligence Inc. 창업

Hacker News 의견
  • AI 분야에 투자된 회사들이 어떻게 수익을 낼지 궁금함

    • 오픈 소스 LLM이 존재하고 발전할 것임
    • OpenAI가 AI 분야에서 상당한 수익을 올리고 있음
    • VC 수준의 자금이 없어서 10배 또는 100배 수익을 기대하기 어려움
  • CFO로서 $1B의 현금을 단기 및 중기적으로 어떻게 관리할지 궁금함

    • 현금이 머니 마켓이나 국채에 묶여 있는지 궁금함
    • SV 은행이 제공했던 서비스가 필요함
  • OpenAI와 같은 자금 조달, 그러나 SSI는 초지능이 도달할 때까지 단일 제품을 출시하지 않을 것임

    • 현대의 맨해튼 프로젝트와 비슷함
  • $1,000,000,000의 투자가 SafeAI의 안전한 비전을 왜곡할 수 있음

    • 투자가 회사의 미션을 수익 창출로 변형시킬 수 있음
  • a16z의 자금 지원은 해당 분야가 더 이상 뜨겁지 않다는 신호일 수 있음

  • 많은 사람들이 매우 큰 LLM이 목표라고 가정하고 있음

    • 5년 전에는 트랜스포머 모델이 AI에서 가장 큰 화제가 아니었음
    • 10년 계획을 가지고 있으며, 트랜스포머 모델 발명과 같은 큰 단계를 발명하려고 함
    • "SSI"는 GPT와 다를 수 있음
  • Sam Bankman-Fried가 더 높은 배수로 자금을 모았음

    • Ilya가 투자자들에게 큰 인상을 주지 못했을 수 있음
    • 그럼에도 불구하고 많은 사람들이 그에게 투자하고 싶어 함
    • 그는 작은 투자자 그룹을 선호할 수 있음
  • AGI를 구축할 수 있을지 확신이 없음

    • LLM을 확장하는 것만으로는 충분하지 않음
    • VCs는 사람들이 초지능을 구축할 수 있다고 가장하기 때문에 자금을 계속 지원함
    • 향후 5년 내에 AGI가 실현될 가능성이 낮음
  • "안전한" AI가 많은 자금을 모을 수 있는 이유를 이해하지 못함

    • 상업적으로 출시하기 전에 두 배의 시간을 소모할 것임
    • "안전하지 않은" AI가 더 수익성이 높아 보임
  • 빠르게 10억 달러 이상의 평가를 받은 사례 중 하나임

    • 자금을 효과적으로 사용할 수 있을지 의문임