▲GN⁺ 2025-01-29 | parent | ★ favorite | on: 코딩에서 DeepSeek R1이 유망한 결과를 냄(simonwillison.net)Hacker News 의견 DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성했음. AI가 코딩에 큰 기여를 할 수 있음을 보여주는 사례임 Aider는 각 릴리스에서 새 코드의 약 70%를 작성하며, Sonnet 이후 AI 생성 코드 비율이 50% 이상으로 증가했음 최근 몇 달 동안 Aider가 작성한 새 코드 비율은 70%이며, 기록은 82%임 Sonnet에서 DeepSeek V3로 코딩을 점점 더 많이 전환하고 있으며, R1을 실험 중이나 최근 API 중단으로 어려움을 겪고 있음 DeepSeek-R1-Distill-Qwen-32B를 Ollama를 통해 노트북에서 실행 중이며, 약 20GB의 RAM이 필요함 코드 리팩토링에 유용하며, 코드의 실수를 발견하는 데 도움을 줌 DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성한 것은 주목할 만한 이정표임 DeepSeek가 ARM SIMD 코드를 WASM 코드로 변환하도록 요청했으며, 이는 코드 최적화에 도움이 됨 SIMD 명령어를 다루는 것은 고급 코드 최적화보다 더 어려운 작업임 LLM이 코딩에 유용하지 않다는 주장은 잘못된 것임 AI가 개발자를 대체할 수 있다는 주장은 완전히 허풍이 아님 더 많은 애플리케이션에 대한 수요가 없다면 일자리가 줄어들 수 있음 o1 Pro와 Deepseek R1을 사용하여 e2e 테스트를 작성했으며, Deepseek가 더 나은 테스트를 작성했음 테스트는 통과하지 못했음 Xuan-Son은 ARM NEON을 SIMD로 변환하는 것 외에도 새로운 접근 방식을 개발하도록 요청했음 주말 프로젝트로 wllama를 최적화하려 했으며, LLM을 사용하여 성공적으로 작업을 완료했음 DeepSeek R1을 사용하여 llm_groq.py 플러그인을 재작성했으며, 이는 Llama 모델을 미세 조정한 deepseek-r1-distill-llama-70b로 수행됨 AGI가 몇 달 내에 도래할 가능성이 있으며, 훈련은 세 단계로 진행될 것임 다양한 모델을 훈련하여 장기적인 생존을 위한 다양성을 확보하는 것이 중요함
Hacker News 의견
DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성했음. AI가 코딩에 큰 기여를 할 수 있음을 보여주는 사례임
DeepSeek-R1-Distill-Qwen-32B를 Ollama를 통해 노트북에서 실행 중이며, 약 20GB의 RAM이 필요함
DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성한 것은 주목할 만한 이정표임
DeepSeek가 ARM SIMD 코드를 WASM 코드로 변환하도록 요청했으며, 이는 코드 최적화에 도움이 됨
LLM이 코딩에 유용하지 않다는 주장은 잘못된 것임
o1 Pro와 Deepseek R1을 사용하여 e2e 테스트를 작성했으며, Deepseek가 더 나은 테스트를 작성했음
Xuan-Son은 ARM NEON을 SIMD로 변환하는 것 외에도 새로운 접근 방식을 개발하도록 요청했음
DeepSeek R1을 사용하여 llm_groq.py 플러그인을 재작성했으며, 이는 Llama 모델을 미세 조정한 deepseek-r1-distill-llama-70b로 수행됨
AGI가 몇 달 내에 도래할 가능성이 있으며, 훈련은 세 단계로 진행될 것임