나는 Xcode 팀에서 여러 해 일했음. Apple이 이런 부분을 의도적으로 어렵게 만들어두는 방식을 잘 알고 있음
작성자가 정말 훌륭한 일을 해냈다고 생각하며, 3편도 기대 중임
예전에 Xcode 콘솔을 별도 창으로 분리할 수 있었는데, 왜 그 기능을 제거했는지 궁금함
오픈소스 소프트웨어에서 Neural Engine이 언제 작동하는지 이해가 안 됨
나는 주로 lightgbm, sklearn, xgboost 같은 Python ML 라이브러리와 numpy를 사용함
이런 연산들이 Apple 하드웨어에서 가속되는지, 간단히 벤치마크할 방법이 있는지 궁금함
대부분의 벤치마크는 C 함수 수준이라, 고수준 라이브러리에서는 효과가 있는지 모르겠음
ChatGPT가 Intel Mac과 Apple Silicon을 비교하라 해서 웃겼음. 이런 이유로 사람들이 여전히 AI를 싫어하는 것 같음
대부분의 오픈소스에서는 NPU가 거의 활용되지 않음
이유는 NPU가 제조사별로 특화되어 있어, 오픈소스 개발자들이 지원하기 어렵기 때문임
Apple ANE도 예외가 아니며, 이번 연구는 그 문제를 Apple ANE에 한정해 해결하려는 시도로 보임
하지만 Apple이 주장하는 38 TOPS 수치는 실제와 다름
Apple은 “38 TOPS INT8”을 FP16 19 TFLOPS × 2로 계산했지만, 실제 하드웨어는 INT8 연산을 두 배 속도로 수행하지 않음
이런 계산 방식을 따르는 건 Apple답지 않게 과장된 표현처럼 느껴짐
글에서 “우리”가 maderix(사람)와 Claude Opus 4.6(Anthropic)이 협업한 것이라 했는데, 솔직히 믿기 어려움
LLM은 전문가도 속일 만큼 그럴듯한 허위 정보를 만들 수 있음
모든 사실을 수동으로 검증했는지 의심스러움. 이런 면에서 미리 경고해줘서 오히려 읽지 않아도 돼서 다행임
Claude는 사용자가 좋은 결과만 보게끔 벤치마크를 숨기는 경향이 있음
글에서도 그런 이상한 벤치마크들이 보임
인간도 예전부터 그럴듯한 거짓 연구를 써왔음
LLM 이전에도 학계에는 조작된 논문과 재현 불가능한 연구가 많았음
결국 이런 분석은 더 많은 엔지니어가 검증해야 신뢰할 수 있음
나도 이런 실수를 하지만, 댓글 대부분이 “Apple 관련 아무거나”로 새는 것 같음
주제와 상관없는 이야기들이 많음
ANE의 소스 코드가 MLX 팀에도 비공개라는 게 놀라움
아마도 MLX 프로젝트 책임자 Awni가 Apple을 떠난 이유 중 하나일 것 같음
M1/M2 ANE의 Asahi Linux 문서를 통해 기본적인 내용은 이미 알려져 있었음
하지만 이번 글은 그 내용을 더 깊이 확인하고 확장한 점이 좋음
CoreML이 대형 matmul 연산에서는 거의 오버헤드가 없다고 하니, 로컬 AI 프레임워크에서 ANE를 prefill용으로 활용할 여지가 많음
다만 decode 단계는 메모리 대역폭에 제한을 받으며, matmul을 1x1 convolution으로 바꾸는 과정이 비효율적이라 명확한 이득은 아님
최근 소식에 따르면 Apple이 Core ML을 대체할 새로운 프레임워크를 준비 중임
이름은 Core AI로, 서드파티 LLM을 앱에 더 쉽게 통합할 수 있게 한다고 함
관련 기사: Bloomberg 뉴스레터
이 글은 분명 사람이 썼지만, 몇몇 문장에서 LLM 특유의 표현이 보임
그래도 매우 유익하고 흥미롭게 읽었음
글에서 언급된 Github 저장소도 함께 참고할 만함
앞으로 1년쯤 지나면, 사람들이 매일 LLM과 상호작용하면서 AI의 문체가 인간 언어에 스며드는 현상이 생길 것 같음
‘Prior Art’ 섹션을 보면 “documenting”, “providing insight into” 같은 불필요한 반복 동사가 많음
이 부분은 확실히 AI가 작성한 흔적이 있음
소프트웨어 엔지니어의 현재가 이미 미래 수준임
ANE 리버스 엔지니어링보다 중요한 건, Manjeet이 AI의 도움으로 자신의 엔지니어링 역량을 얼마나 확장했는가임
지금이 바로 AI가 개발자의 생산성을 가속하는 시대임