▲GN⁺ 2025-04-18 | parent | ★ favorite | on: Microsoft, CPU에서 실행가능한 초고효율 AI 모델 BitNet 개발(techcrunch.com)Hacker News 의견 Microsoft의 BitNet은 FP16 또는 BF16과 같은 정밀도를 가진 Transformer LLM과 동일한 모델 크기와 학습 토큰을 사용하면서도 지연 시간, 메모리, 처리량, 에너지 소비 측면에서 비용 효율적임 GitHub 링크와 arXiv 논문을 통해 더 많은 정보를 얻을 수 있음 AI 모델의 "파라미터 수"는 AI 모델의 "GHz"와 같음 비교된 모든 모델은 10-20억 개의 파라미터를 가지고 있지만 실제 크기는 10배 이상 차이가 날 수 있음 대부분의 무료 LLM은 CPU에서 실행 가능함 이 모델이 CPU에서 유용하게 빠르게 실행된다는 주장임 GPU에서의 실행 속도를 알 수 없어 이 주장에 대한 정확성을 확신할 수 없음 BitNet b1.58 2B4T 모델은 동일한 크기의 다른 모델보다 빠르며, 메모리 사용량이 적음 모델 크기는 1GB 이상이며, 현대적인 CPU에서도 잘 작동하는 1-2GB 모델이 많음 NVidia는 CUDA를 통해 소프트웨어 수준의 잠금을 서두르고 있음 그렇지 않으면 주식이 Zoom과 같은 길을 갈 수 있음 "1-bit"이라고 부르지만 실제로는 {-1, 0, 1}을 사용함 이 부분에 대해 혼란스러울 수 있음 더 큰 모델을 BitNet으로 증류할 수 있는 라이브러리가 있는지 궁금함 MIT 라이선스 하에 공개적으로 사용 가능하며, Apple의 M2를 포함한 CPU에서 실행 가능함 M2는 이미 7GB 또는 13GB의 LLama 및 Mistral 모델을 쉽게 실행함 M 시리즈와 MacBook이 널리 퍼져 있어 평균 CPU(i3 또는 i5)가 얼마나 약한지 잊고 있을 수 있음 가격 전쟁은 계속해서 바닥을 칠 것임 1년 이상 지난 기술로, 모든 사람이 이 기술로 전환하지 않았음 이유를 살펴보면, 이 기술이 실제로 지표에 영향을 미치며, 일부는 다른 것보다 더 큰 영향을 미침 만능 해결책은 아님 ▲cartwheel8815 2025-04-21 [-]4번째 줄 비교된 모든 모델은 1-2억 개의 -> 비교된 모든 모델은 10-20억 개의 AI의 billion 번역이 이상하네요. 답변달기
Hacker News 의견