GN⁺: 코딩에서 DeepSeek R1이 유망한 결과를 냄
(simonwillison.net)-
llama.cpp
프로젝트에서 "WASM 속도를 2배 향상"시키는 PR이 공개됨- SIMD 명령어를 활용하여
qX_K_q8_K
및qX_0_q8_0
내적(dot product) 함수를 최적화 - 대부분의 코드(99%)가 "DeepSeek-R1"에 의해 자동 생성됨
- DeepSeek-R1이 프롬프트를 처리하는 데 3~5분이 소요됨
- SIMD 명령어를 활용하여
DeepSeek-R1의 코드 생성 성능
- PR 작성자는 DeepSeek-R1을 사용하여 최적화 코드 생성 및 개선했고, 본인은 테스트 코드 및 프롬프트 작성만 직접 수행
- 사용된 프롬프트에서 확인 가능
- DeepSeek-R1이
llm_groq.py
를 최적화하는 과정에서 뛰어난 사고 체인을 보여줌
DeepSeek-R1 vs OpenAI o1 성능 비교
- 같은 작업을 OpenAI o1에도 수행했지만, DeepSeek-R1의 결과가 더 뛰어남
- 예시 코드에서
model_map
을 최적화하는 사고 과정:- 처음에는
model_map
이 필요하다고 판단 - 이후 API 응답을 기반으로 동적으로 구성할 수 있다고 고민
- 결국
model_map
을 제거하는 것이 최적의 해결책이라고 결정
- 처음에는
결론
- DeepSeek-R1이 자동 코드 생성 및 최적화에서 뛰어난 성능을 보임
- WASM에서 SIMD를 활용한 최적화로 llama.cpp 성능이 크게 향상됨
- PR이 적용되면 WebAssembly 기반 애플리케이션의 실행 속도가 대폭 개선될 것으로 기대됨
Hacker News 의견
-
DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성했음. AI가 코딩에 큰 기여를 할 수 있음을 보여주는 사례임
- Aider는 각 릴리스에서 새 코드의 약 70%를 작성하며, Sonnet 이후 AI 생성 코드 비율이 50% 이상으로 증가했음
- 최근 몇 달 동안 Aider가 작성한 새 코드 비율은 70%이며, 기록은 82%임
- Sonnet에서 DeepSeek V3로 코딩을 점점 더 많이 전환하고 있으며, R1을 실험 중이나 최근 API 중단으로 어려움을 겪고 있음
-
DeepSeek-R1-Distill-Qwen-32B를 Ollama를 통해 노트북에서 실행 중이며, 약 20GB의 RAM이 필요함
- 코드 리팩토링에 유용하며, 코드의 실수를 발견하는 데 도움을 줌
-
DeekSeek-R1이 llama.cpp PR의 99% 코드를 작성한 것은 주목할 만한 이정표임
-
DeepSeek가 ARM SIMD 코드를 WASM 코드로 변환하도록 요청했으며, 이는 코드 최적화에 도움이 됨
- SIMD 명령어를 다루는 것은 고급 코드 최적화보다 더 어려운 작업임
-
LLM이 코딩에 유용하지 않다는 주장은 잘못된 것임
- AI가 개발자를 대체할 수 있다는 주장은 완전히 허풍이 아님
- 더 많은 애플리케이션에 대한 수요가 없다면 일자리가 줄어들 수 있음
-
o1 Pro와 Deepseek R1을 사용하여 e2e 테스트를 작성했으며, Deepseek가 더 나은 테스트를 작성했음
- 테스트는 통과하지 못했음
-
Xuan-Son은 ARM NEON을 SIMD로 변환하는 것 외에도 새로운 접근 방식을 개발하도록 요청했음
- 주말 프로젝트로 wllama를 최적화하려 했으며, LLM을 사용하여 성공적으로 작업을 완료했음
-
DeepSeek R1을 사용하여 llm_groq.py 플러그인을 재작성했으며, 이는 Llama 모델을 미세 조정한 deepseek-r1-distill-llama-70b로 수행됨
-
AGI가 몇 달 내에 도래할 가능성이 있으며, 훈련은 세 단계로 진행될 것임
- 다양한 모델을 훈련하여 장기적인 생존을 위한 다양성을 확보하는 것이 중요함