-
Apple이 비전-언어 AI 모델(AFN, Apple Foundation Models)과 개발자용 Foundation Models 프레임워크(API) 를 새롭게 공개하며, 온디바이스·클라우드 모델 모두 성능과 효율성을 크게 개선
-
AFM 온디바이스 모델은 3B 파라미터 트랜스포머와 3억 파라미터 비전 트랜스포머로, 텍스트·이미지 입력 및 다국어·비전 기능 지원, 서버 모델은 커스텀 MoE 아키텍처 적용
-
모델 경량화(양자화 및 LoRA), 15개 언어 지원, 이미지 이해, 툴 사용 등 강력한 기능과 개발자 접근성을 제공함
-
온디바이스 모델은 비미국권 영어·이미지 이해에서 경쟁 모델보다 강점을 보였으나, 서버 모델은 GPT-4o 등 최신 모델에 비해 성능이 미흡함
- 최근 논란이 된 Apple 논문, Siri AI 업그레이드 지연 등 Apple의 AI 전략 전환과 iOS 생태계 내 영향력이 주목받고 있음
Apple Foundation Models(AFM) 대대적 업데이트
- Apple은 온디바이스(모바일 탑재형)와 서버 호스팅형 AI 모델(AFM)을 모두 업그레이드했으며, 속도·효율·성능이 대폭 개선됨
-
개발자 API(Foundation Models framework) 를 새롭게 제공해, Apple Intelligence 기능이 활성화된 기기에서 온디바이스 AI 호출이 가능해짐
핵심 아키텍처 및 기능
-
입력/출력: 텍스트, 이미지(최대 65,000 토큰 입력), 출력은 텍스트
-
아키텍처:
- AFM-on-Device: 30억 파라미터 트랜스포머, 3억 파라미터 비전 트랜스포머
- AFM-Server: 커스텀 Mixture-of-Experts(MoE) 트랜스포머(파라미터수 비공개), 10억 파라미터 비전 트랜스포머
-
성능: 비미국권 영어·이미지 이해에서 강점,
- 가용성: AFM-on-Device는 파운데이션 모델 프레임워크로 이용 가능. AFM-Server는 공개 사용 불가
- 15개 언어 지원, 툴 사용 등 제공
-
미공개 정보: 서버 모델 파라미터 수, 토큰 제한, 학습 데이터셋 상세 등은 비공개
기술적 차별점 및 최적화
-
양자화(Quantization):
- 온디바이스 모델은 대부분 가중치를 2비트, 임베딩 레이어는 4비트로 압축(양자화 인지 학습 활용)
- 서버 모델은 ASTC(그래픽스용 압축) 적용, 평균 3.56비트(임베딩 4비트)로 압축
-
LoRA 어댑터로 압축에 따른 성능 저하를 보완하며, 요약·교정·질의응답 등 특정 업무에 맞게 적응함
-
커스텀 MoE 아키텍처로 하드웨어 간 통신 오버헤드를 최소화해 효율성 향상
성능 평가
-
온디바이스 모델: 비미국권 영어·이미지 이해에서 Qwen2.5-VL-3B 등 경쟁 모델 대비 우위
-
서버 모델: Qwen3-23B에 비해 소폭 앞서기도 하나, GPT-4o 등 최신 모델에는 미치지 못함
최근 논란 및 AI 전략의 변화
- Apple은 최근 5가지 최신 AI 모델의 추론력 한계를 실험한 논문으로 논란을 일으켰으며, 반박 논문도 곧이어 등장함
-
Siri AI 업그레이드가 무기한 연기되고, 신형 iPhone에 AI 기능이 부족하다는 집단 소송도 제기됨
- Google/Android 진영이 빠르게 AI 경쟁에서 앞서가는 상황에서, Apple은 Foundation Models 등으로 AI 전략을 전환 중임
향후 전망 및 영향
- iOS가 기본 탑재 모델로 앱 개발자 생태계에 막대한 영향력을 행사할 가능성이 높음
-
메모리 제한과 모델 용량 문제로, 앱 개발자들이 직접 AI 모델을 번들링하기보다 Apple이 제공하는 모델 활용이 급증할 전망
- Apple의 AI 플랫폼화 전략이 앱 혁신 및 온디바이스 AI 활용 확장을 촉진할지 주목받고 있음