1P by GN⁺ 2시간전 | ★ favorite | 댓글 1개
  • 애플이 구글의 Gemini와 클라우드 기술을 활용해 올해 말 공개 예정인 Siri 업그레이드를 추진
  • 양사는 다년간의 파트너십을 체결했으며, Gemini가 Apple Foundation Models의 기반이 될 예정
  • 모델은 애플 기기와 프라이빗 클라우드 컴퓨트에서 계속 실행되며, 계약 조건은 비공개
  • 이번 협력은 구글이 OpenAI와의 경쟁에서 회복세를 보이며 시장 신뢰를 얻고 있음을 보여줌
  • AI 경쟁이 치열해지는 가운데, 애플이 Siri 개선을 통해 주요 빅테크와의 격차를 좁히려는 움직임

애플과 구글의 AI 협력

  • 애플은 구글과 협력해 인공지능 기능을 강화하고, 올해 말 대규모 Siri 업그레이드를 계획
    • CNBC가 입수한 공동 성명에 따르면, 애플은 구글의 Gemini 모델과 클라우드 기술을 자사 Foundation Models의 기반으로 채택
    • 애플은 “신중한 평가 끝에 구글의 기술이 가장 강력한 기반을 제공한다”고 밝혔음
  • 모델은 애플 기기 및 프라이빗 클라우드 컴퓨트 환경에서 계속 실행
    • 계약 조건은 공개되지 않았으며, 구글은 CNBC의 질의에 공동 성명을 참조하라고만 언급

협력 배경과 이전 논의

  • 2025년 8월 Bloomberg는 애플이 구글 Gemini를 Siri에 적용하는 방안을 논의 중이라고 보도
    • 같은 해 11월에는 애플이 연간 약 10억 달러를 지불해 구글 AI를 활용할 계획이라고 전함
  • 이번 계약은 구글의 AI 전략 가속화와 OpenAI에 대한 반격을 보여주는 사례로 평가됨
    • 구글은 2025년에 2009년 이후 최고의 실적을 기록했고, 2026년 1월에는 시가총액이 애플을 처음으로 추월

구글의 시장 지위와 법적 환경

  • 구글은 이미 iPhone의 기본 검색 엔진으로 지정되기 위해 매년 수십억 달러를 애플에 지급
    • 그러나 2023년 구글이 불법 인터넷 검색 독점을 보유한 것으로 판결되며 파트너십이 일시적으로 위협받음
  • 2025년 9월 판결에서 법원은 Chrome 사업 분리 명령을 피할 수 있도록 허용, 구글이 애플과 같은 거래를 지속할 수 있게 됨
  • 협력 발표 후 구글 주가는 상승했으며, 시가총액이 일시적으로 4조 달러를 돌파

애플의 AI 전략 현황

  • 애플은 2022년 말 OpenAI의 ChatGPT 출시 이후 이어진 AI 열풍에서 상대적으로 소극적 행보를 보여왔음
    • Amazon, Meta, Microsoft 등은 AI 제품과 인프라에 수십억 달러를 투자
  • 이에 따라 애플은 Siri의 AI 음성 업그레이드를 추진했으나, 2025년 계획을 2026년으로 연기
    • 당시 애플은 “예상보다 시간이 더 걸릴 것”이라며 기능을 내년에 출시할 것이라고 발표

OpenAI와의 기존 협력 관계

  • 애플은 현재 ChatGPT를 Siri와 Apple Intelligence에 통합해 복잡한 질의 처리에 활용
    • 이번 구글 협력이 향후 ChatGPT 통합에 어떤 영향을 미칠지는 불분명
  • 애플은 CNBC에 기존 OpenAI 협정에 변경이 없다고 확인, OpenAI는 논평 요청에 즉각 응답하지 않음

구글의 Gemini 발전

  • 구글은 2025년 말 업그레이드된 Gemini 3 모델을 공개하며 AI 역량을 강화
    • CEO 순다 피차이는 2025년 3분기까지 10억 달러 이상 규모의 클라우드 계약을 체결했다고 발표
  • 이러한 성과는 구글이 AI 및 클라우드 시장에서 영향력을 확대하고 있음을 보여줌
Hacker News 의견들
  • Apple이 서버 측 AI 학습 인프라 구축을 포기한 시점부터 이런 결과가 예견되었음
    Neural Engine 덕분에 엣지 추론 성능은 최고지만, TPU pod나 H100 클러스터 같은 대규모 학습 인프라는 전무함
    결국 Apple은 ‘지능의 원가 구조’ 를 인정하고, 학습은 남에게 맡기고 자신들은 프리미엄 ‘라스트 마일’ 전달망 역할로 전환한 것 같음
    Google이 전력과 자본을 태워 초거대 모델을 학습하면, Apple은 그걸 경량화·양자화해 자체 클라우드에서 돌리는 식임
    즉, iPhone이 Google의 두뇌를 감싼 ‘프라이버시 극장’의 단말기로 바뀌는 셈임

    • LLM은 이제 상품화된 기술이라 Apple이 구축 중인 지능 시스템의 핵심은 아님
      Apple은 App Intents, Core Spotlight, Siri Shortcuts 등을 통해 모든 앱의 데이터와 기능을 맥락과 스킬로 노출하고 있음
      Google 의존은 임시일 뿐, 언제든 다른 모델로 교체할 수 있게 설계되어 있음
      Apple이 공개적으로 말하는 건 단기 전략일 뿐, 실제 5~20년 계획은 훨씬 깊음
    • Apple이 자체 LLM을 만들어도 SOTA 수준에는 못 미쳤을 것임
      비밀주의 문화와 관료적 조직 탓에 인재 유입이 어렵고, 내부 AI 조직 운영도 엉망이었다는 평이 많음
      이번 협력은 오히려 그들의 ‘Not-Invented-Here’ 병을 극복하게 만든 계기라 생각함
    • 학습 비용이 정말 그렇게 큰지도 의문임
      비영리 기관 Allen Institute가 공개 데이터로 Molmo 2, Olmo 3를 학습해 Gemini와 견줄 성능을 냈고,
      AMD도 OLMo 모델을 자체 하드웨어로 재현했음
      이런 사례를 보면 ‘10년치 현금흐름을 태워야 한다’는 말은 과장된 것 같음
    • 나도 이 전략이 현명한 선택이라 봄
      이미 막대한 비용을 들여 학습한 모델들이 많고, Apple은 그중 최고를 선택해 계약만 하면 됨
      새 돌파구가 나오면 언제든 교체 가능함
    • 오히려 안도감이 듦
      대규모 AI 학습은 Apple의 DNA와 맞지 않고, 회사의 핵심 성공 요인도 아님
      굳이 불확실한 시장으로 급선회할 이유가 없음
  • Google이 가장 안정적인 AI 연구소이기 때문에 Apple이 선택한 것 같음
    Gemini는 충분히 좋은 모델이고, Google은 자본력·인프라·기업용 이해도가 모두 높음
    Anthropic이나 OpenAI는 재정적으로 불안하고, 위험 감수 성향이 커서 Apple 입장에선 리스크가 큼

    • 지금 Apple은 일단 무언가를 출시해야 하는 시점임
      2년 전부터 예고했던 기능들이 아직도 미출시 상태라, 이번엔 결과물을 보여줄 필요가 있음
    • Google이 Apple에 매년 200억 달러를 검색 기본값 대가로 지불하는데,
      이번 협력으로 AI 엔진까지 덤으로 얻는 셈이라 생각함
    • OpenAI는 Altman이 해고됐다가 스스로 복귀할 정도로 조직 통제 문제가 심각함
      Anthropic은 자체 데이터센터도 없고, AWS·Microsoft·Google에 의존함
    • Anthropic은 GPU 부족으로 성능 문제가 잦고, OpenAI는 내부 정치와 Altman 이슈로 너무 혼란스러움
    • OpenAI는 겉보기엔 깨끗해 보여도 실제론 전혀 그렇지 않음
  • Apple은 Gemini 모델을 Private Cloud Compute 환경에서 돌릴 예정이라,
    Google이 Siri 데이터를 직접 접근하진 못할 것으로 보임
    관련 링크

    • 다만 발표문 어디에도 Siri가 Gemini를 직접 사용한다는 말은 없음
      “Google의 기술이 Apple Foundation Models의 가장 강력한 기반을 제공한다”는 모호한 문구만 있음
      아마 계약상의 미묘한 표현일 가능성이 큼
  • Siri 관련 이슈는 층층이 쌓인 문제

    1. 이미 ‘Siri는 나쁘다’는 인식이 굳어져 있어, 개선돼도 부정적 평가가 이어질 것임
    2. Google의 Gemini를 기반으로 하면 이런 평판 일부를 완화할 수 있음
    3. 하지만 모바일 기기에서의 온디바이스 AI 한계 때문에 서버 기반 ChatGPT 수준의 성능은 기대하기 어려움
      John Gruber 같은 블로거도 이런 기술적 제약을 이해하지 못한 채 비교하곤 함
    • Siri가 나쁜 건 단순한 평판 문제가 아님
      핵심 기능조차 작동하지 않는 경우가 많음
      예를 들어, 내가 넘어졌을 때 “911에 전화해 달라”고 했지만 인식조차 못 했음
      수년간 서버 기반으로 동작했는데도 여전히 형편없었음
    • 나도 Siri가 형편없다고 생각하지만, 개선되면 기꺼이 인정할 준비가 되어 있음
      엉뚱한 사람에게 전화를 거는 수준에서 ‘꽤 괜찮음’으로만 올라가도 환영임
    • Google이 모델 가중치를 Apple에 넘겨 온디바이스 실행을 허용할 가능성은 낮다고 봄
  • 이번 협력으로 올해 안에 새로운 Siri가 출시되길 기대함
    이미 OS 차원에서 Gemini 통합을 진행해왔을 가능성이 높음

  • Apple 입장에선 리스크 최소화 전략
    자체 AI 엔진 구축에 필요한 자본지출을 피하고, Google과의 계약 관계를 유지함으로써 법적 분쟁 가능성도 줄임
    Apple은 AGI 과장론을 믿지 않지만, AI 서비스의 가치는 인정함
    지금은 ‘직접 소유보다 구매가 낫다’ 는 판단을 내린 것 같음
    다만 장기적으로는 VLSI 비전과 IPR 전략을 통해 결국 자체 기술로 회귀할 것임

  • 관련 기사: Apple nears $1B Google deal for custom Gemini model to power Siri
    뉴스 링크

    • 이번 발표의 핵심은 ‘화이트라벨이 아니다’ 는 점임
      Apple이 공식적으로 Google 모델을 Siri의 기반으로 인정했음
      이는 향후 자체 모델로 전환하기 어렵게 만드는 결정임
    • 혹시 이번 계약도 실제로 돈이 오가지 않는 상계 거래일 수 있음
      Google이 검색 기본값 대가로 지불하는 금액 일부를 AI 협력으로 돌렸을 가능성이 있음
  • OpenAI는 작년에 Siri 통합으로 기회를 잡았지만, 그 이후 완전히 놓쳐버림

    • Jony Ive를 하드웨어 디자인에 끌어들인 것도 별 도움이 안 됐을 것임
    • iPhone 16/iOS 18 발표 당시의 협력 이후로 양측 모두 침묵이었음
      반면 Google은 안정성과 충분한 성능을 제공하니 Apple이 그쪽으로 선회한 듯함
    • 실망스럽지만, 이 추세라면 나도 Gemini로 완전히 옮길지도 모르겠음
  • 소비자 입장에서는 이번 발표가 가장 반가운 소식
    우리 집은 아이가 8살이 되면 HomePod를 첫 기기로 주는데, 6년 동안 Siri는 전혀 발전이 없었음
    아이들이 팟캐스트나 정보 검색을 원하지만 Siri는 쓸모가 없고 오히려 짜증나는 수준

    • “Siri, 내 오디오북 틀어줘”라고 해도 마지막에 듣던 오디오북을 이어서 재생하지 못함
      이건 정말 말이 안 됨
    • 기존 HomePod가 새 Siri를 지원할지도 미지수임
      새 하드웨어가 준비 중인데, 아마 Siri 업데이트를 기다리는 듯함
    • “앨범 XY 재생해줘”라고 하면 동명 단일곡만 재생하는 버그가 여전함
      정말 웃기지만 슬픈 현실임
  • “Google의 기술이 Apple Foundation Models의 가장 강력한 기반을 제공한다”는 문구를 보면,
    Apple의 Foundation Models가 진짜 ‘기반’은 아닌 듯한 인상을 줌