GN⁺ 3시간전 | parent | ★ favorite | on: GPT‑5.5 Instant(openai.com)
Hacker News 의견들
  • 즉시성을 보고 싶으면 chatjimmy.ai를 한번 보라. 관련자는 아니지만, 내가 만드는 제품에서 열리는 가능성이 꽤 충격적임
    훨씬 오래된 모델에서도 밀리초 단위 추론이 가능하면 판이 완전히 바뀜. 거의 모든 API 호출마다 추론을 돌려도 눈에 띄는 지연이 없을 정도라서 정말 엄청남

    • 이거에 대해 더 정보가 있나? Groq도 빠르다고 생각했는데 이건 말이 안 되게 빠름
      수정: 이 회사였음 https://taalas.com/products/
    • gpt-4.1에서 두 자릿수 밀리초 지연시간이 나오면 정말 게임 체인저가 될 듯
  • GPT-5.3-instant는 전혀 즉시적이지 않았음. 최소 추론 노력으로도 최선의 경우 TTFT가 GPT-4.1보다 3~4배쯤 느림
    물론 이름을 “instant”라고 붙인 건 그들이니 하는 말임. 데이터센터의 일꾼인 GPT-4.1을 새로 갱신할 실제 필요가 있음
    그리고 “instant” 모델을 내놓으면서 지연시간 특성을 전혀 언급하지 않는 건 대체 무슨 일인가 싶음

  • 이게 GPT 5.5 thinking에서 추론 노력을 0으로 둔 것과 뭐가 다른지 궁금함. 서로 다른 모델로 나누는 제품 결정이 흥미로움

    • 좋은 질문임. GPT-5.5 thinking은 간단한 질문에 대해 생각하지 않는 능력이 아주 좋아서, 빠른 질의응답에서도 instant 모델을 쓸 필요를 느낀 적이 없음
      그렇다면 instant 모델은 완전히 다른 더 작은 모델이고, 주로 ChatGPT 무료 티어를 담당하는 용도일 것 같음
  • 이게 API에서도 쓸 수 있나? instant는 안 보이고 chat만 보임

    • GPT‑5.5 Instant is rolling out starting today to all ChatGPT users, replacing GPT‑5.3 Instant as the default model, and in the API as chat-latest.

  • 답변이 더 읽기 쉬워 보이고 실제로도 그러면 좋겠음. 지금 일반 무료 ChatGPT 모델은 너무 견디기 힘듦

  • 가장 싼 가격대에서 지능이 크게 올라간 셈임

    • 싼 게 맞나? https://developers.openai.com/api/docs/pricingchat-latest는 입력/출력 $5/$30으로 나오는데, gpt-5.5와 같은 가격임
    • 가격이 어디에 나와 있나? 아직 모델 페이지에도 안 올라온 것 같음
  • 왜 버전 번호마다 Instant와 Thinking 모델을 더 일관되게 동시에 내지 못하는 걸까? 왜 이렇게 중복된 소동을 만드는지 모르겠음

    • 아마 thinking 모델을 수정한 버전일 가능성이 큼. 그렇다면 동시에 출시하려면 thinking 모델 출시를 늦춰야 했을 것임
  • 좋네. 실제로 쓸 만하고 감당 가능한 가격의 무언가가 나왔음