▲GN⁺ 2025-01-26 | parent | ★ favorite | on: DeepSeek-R1: 강화학습을 통한 대형 언어 모델의 추론 능력 향상(arxiv.org)Hacker News 의견 DeepSeek V3 논문은 필수 사전 읽기 자료로 간주됨 R1 + Sonnet 조합이 다른 조합보다 우수함 독립적인 재현 연구들이 여러 곳에서 진행됨 R1 증류는 매우 쉬워서 자주 발생할 것임 DeepSeek-R1이 실리콘밸리에서 큰 반향을 일으킴 Ollama의 r1-14b 모델을 사용해 본 결과, 모델이 실시간으로 다양한 접근 방식을 시도하고 대안을 선택하는 모습이 인간의 행동을 연상시킴 DeepSeek V3는 Claude Sonnet이 문제가 생긴 시점에 적절하게 등장함 DeepSeek의 가격이 매우 저렴하여 큰 이점이 됨 Aider와 Cursor에서 DeepSeek으로 완전히 전환함 DeepSeek의 채팅 기능이 ChatGPT Pro보다 사용하기 쉬움 모델의 사고 과정을 읽을 수 있어 디버깅이 용이함 GPT-O1 모델의 사고 과정이 모델 내부에서 이루어지는 것에 놀람 OpenAI가 O1의 사고 과정을 공개할지 궁금함 DeepSeek R1의 성능뿐만 아니라 작은 증류 모델들도 인상적임 Qwen 기반 7b 증류 모델도 훌륭함 32b 증류 모델이 가정 서버의 기본 모델로 사용됨 Larry Ellison과 Masayoshi Son은 ASI를 통해 불로장생을 목표로 함 ASI 개발을 위해 막대한 투자를 감행함 Arxiv에 100명 이상의 저자가 팀 이름으로 논문을 발표함 팀워크와 사기를 높이는 데 기여함
Hacker News 의견
DeepSeek V3 논문은 필수 사전 읽기 자료로 간주됨
Ollama의 r1-14b 모델을 사용해 본 결과, 모델이 실시간으로 다양한 접근 방식을 시도하고 대안을 선택하는 모습이 인간의 행동을 연상시킴
DeepSeek V3는 Claude Sonnet이 문제가 생긴 시점에 적절하게 등장함
DeepSeek의 채팅 기능이 ChatGPT Pro보다 사용하기 쉬움
GPT-O1 모델의 사고 과정이 모델 내부에서 이루어지는 것에 놀람
DeepSeek R1의 성능뿐만 아니라 작은 증류 모델들도 인상적임
Larry Ellison과 Masayoshi Son은 ASI를 통해 불로장생을 목표로 함
Arxiv에 100명 이상의 저자가 팀 이름으로 논문을 발표함