GN⁺ 2025-02-04 | parent | ★ favorite | on: OpenAI, Deep Research 공개(openai.com)

Hacker News 의견

  • 한 사용자는 자신에 대한 보고서를 작성해 보았으나, 여러 오류가 발생했음을 언급함. 예를 들어, Stack Overflow에서의 명성을 잘못 인식했으며, 인터뷰 인용도 잘못된 사람으로부터 가져왔음.

  • 또 다른 사용자는 언어 모델이 완전히 정확한 답변을 제공하지 못하는 경우가 10% 정도 발생하며, 이는 신뢰를 저하시킬 수 있음을 지적함. 답변의 정확성을 확인하는 데 걸리는 시간도 중요한 요소임을 강조함.

  • 한 사용자는 최근 Standard에서 출시한 보고서 생성 프로젝트와 유사하다고 언급함.

  • Gemini가 "Deep Research"라는 이름으로 몇 달 전부터 이 기능을 제공하고 있음을 언급함. AI 세계에서의 이름 중복 현상에 대한 의문을 제기함.

  • 한 사용자는 오류와 환각 문제를 인정하더라도, 많은 사람들이 이를 간과하고 결과를 자신의 파워포인트에 삽입할 것이라고 우려함. 이러한 도구가 강력해질수록 정보의 왜곡이 더 심해질 것이라고 경고함.

  • unreleased o3 모델이 이 기능을 지원하고 있으며, 이는 상당히 인상적인 모델임을 언급함. Google, DeepSeek, Perplexity에서 선도적인 모델임을 강조함.

  • 학계에서 일하는 사람들에게 흥미로운 도구임을 언급하며, 테스트해 보고 싶지만 비용이 부담스러움을 토로함. 특정 프롬프트를 사용하여 테스트해 줄 것을 요청함.

  • AGI와 ASI의 전제 조건으로서의 능력에 대한 의문을 제기함. 연구의 중요성에 대해 회의적이며, 실행 결과가 아닌 답변에 의존하는 것에 대해 우려함.

  • 내부 테스트에서 20%의 통과율만 달성했음을 언급하며, 많은 양의 부정확한 텍스트를 검토하는 데 시간이 많이 걸린다고 지적함. 더 반복적인 과정이 필요하다고 주장함.

  • 블로그에서 유명한 전문가들이나 노출을 원하는 사람들이 계속 글을 쓸지에 대한 의문을 제기함. 독자가 모두 봇이 되는 상황을 우려함.