즉시성을 보고 싶으면 chatjimmy.ai를 한번 보라. 관련자는 아니지만, 내가 만드는 제품에서 열리는 가능성이 꽤 충격적임
훨씬 오래된 모델에서도 밀리초 단위 추론이 가능하면 판이 완전히 바뀜. 거의 모든 API 호출마다 추론을 돌려도 눈에 띄는 지연이 없을 정도라서 정말 엄청남
GPT-5.3-instant는 전혀 즉시적이지 않았음. 최소 추론 노력으로도 최선의 경우 TTFT가 GPT-4.1보다 3~4배쯤 느림
물론 이름을 “instant”라고 붙인 건 그들이니 하는 말임. 데이터센터의 일꾼인 GPT-4.1을 새로 갱신할 실제 필요가 있음
그리고 “instant” 모델을 내놓으면서 지연시간 특성을 전혀 언급하지 않는 건 대체 무슨 일인가 싶음
이게 GPT 5.5 thinking에서 추론 노력을 0으로 둔 것과 뭐가 다른지 궁금함. 서로 다른 모델로 나누는 제품 결정이 흥미로움
좋은 질문임. GPT-5.5 thinking은 간단한 질문에 대해 생각하지 않는 능력이 아주 좋아서, 빠른 질의응답에서도 instant 모델을 쓸 필요를 느낀 적이 없음
그렇다면 instant 모델은 완전히 다른 더 작은 모델이고, 주로 ChatGPT 무료 티어를 담당하는 용도일 것 같음
이게 API에서도 쓸 수 있나? instant는 안 보이고 chat만 보임
GPT‑5.5 Instant is rolling out starting today to all ChatGPT users, replacing GPT‑5.3 Instant as the default model, and in the API as chat-latest.
답변이 더 읽기 쉬워 보이고 실제로도 그러면 좋겠음. 지금 일반 무료 ChatGPT 모델은 너무 견디기 힘듦
Hacker News 의견들
즉시성을 보고 싶으면 chatjimmy.ai를 한번 보라. 관련자는 아니지만, 내가 만드는 제품에서 열리는 가능성이 꽤 충격적임
훨씬 오래된 모델에서도 밀리초 단위 추론이 가능하면 판이 완전히 바뀜. 거의 모든 API 호출마다 추론을 돌려도 눈에 띄는 지연이 없을 정도라서 정말 엄청남
수정: 이 회사였음 https://taalas.com/products/
GPT-5.3-instant는 전혀 즉시적이지 않았음. 최소 추론 노력으로도 최선의 경우 TTFT가 GPT-4.1보다 3~4배쯤 느림
물론 이름을 “instant”라고 붙인 건 그들이니 하는 말임. 데이터센터의 일꾼인 GPT-4.1을 새로 갱신할 실제 필요가 있음
그리고 “instant” 모델을 내놓으면서 지연시간 특성을 전혀 언급하지 않는 건 대체 무슨 일인가 싶음
이게 GPT 5.5 thinking에서 추론 노력을 0으로 둔 것과 뭐가 다른지 궁금함. 서로 다른 모델로 나누는 제품 결정이 흥미로움
그렇다면 instant 모델은 완전히 다른 더 작은 모델이고, 주로 ChatGPT 무료 티어를 담당하는 용도일 것 같음
이게 API에서도 쓸 수 있나? instant는 안 보이고 chat만 보임
답변이 더 읽기 쉬워 보이고 실제로도 그러면 좋겠음. 지금 일반 무료 ChatGPT 모델은 너무 견디기 힘듦
가장 싼 가격대에서 지능이 크게 올라간 셈임
chat-latest는 입력/출력 $5/$30으로 나오는데, gpt-5.5와 같은 가격임왜 버전 번호마다 Instant와 Thinking 모델을 더 일관되게 동시에 내지 못하는 걸까? 왜 이렇게 중복된 소동을 만드는지 모르겠음
좋네. 실제로 쓸 만하고 감당 가능한 가격의 무언가가 나왔음