Hacker News 의견
  • DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성했음. AI가 코딩에 큰 기여를 할 수 있음을 보여주는 사례임

    • Aider는 각 릴리스에서 새 코드의 약 70%를 작성하며, Sonnet 이후 AI 생성 코드 비율이 50% 이상으로 증가했음
    • 최근 몇 달 동안 Aider가 작성한 새 코드 비율은 70%이며, 기록은 82%임
    • Sonnet에서 DeepSeek V3로 코딩을 점점 더 많이 전환하고 있으며, R1을 실험 중이나 최근 API 중단으로 어려움을 겪고 있음
  • DeepSeek-R1-Distill-Qwen-32B를 Ollama를 통해 노트북에서 실행 중이며, 약 20GB의 RAM이 필요함

    • 코드 리팩토링에 유용하며, 코드의 실수를 발견하는 데 도움을 줌
  • DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성한 것은 주목할 만한 이정표임

  • DeepSeek가 ARM SIMD 코드를 WASM 코드로 변환하도록 요청했으며, 이는 코드 최적화에 도움이 됨

    • SIMD 명령어를 다루는 것은 고급 코드 최적화보다 더 어려운 작업임
  • LLM이 코딩에 유용하지 않다는 주장은 잘못된 것임

    • AI가 개발자를 대체할 수 있다는 주장은 완전히 허풍이 아님
    • 더 많은 애플리케이션에 대한 수요가 없다면 일자리가 줄어들 수 있음
  • o1 Pro와 Deepseek R1을 사용하여 e2e 테스트를 작성했으며, Deepseek가 더 나은 테스트를 작성했음

    • 테스트는 통과하지 못했음
  • Xuan-Son은 ARM NEON을 SIMD로 변환하는 것 외에도 새로운 접근 방식을 개발하도록 요청했음

    • 주말 프로젝트로 wllama를 최적화하려 했으며, LLM을 사용하여 성공적으로 작업을 완료했음
  • DeepSeek R1을 사용하여 llm_groq.py 플러그인을 재작성했으며, 이는 Llama 모델을 미세 조정한 deepseek-r1-distill-llama-70b로 수행됨

  • AGI가 몇 달 내에 도래할 가능성이 있으며, 훈련은 세 단계로 진행될 것임

    • 다양한 모델을 훈련하여 장기적인 생존을 위한 다양성을 확보하는 것이 중요함