# Ask GN: Expo + React Native 환경에서 Gemma-4-E2B-it 온디바이스로 사용하는 방법이 궁금합니다

> Clean Markdown view of GeekNews topic #29226. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=29226](https://news.hada.io/topic?id=29226)
- GeekNews Markdown: [https://news.hada.io/topic/29226.md](https://news.hada.io/topic/29226.md)
- Type: ask
- Author: [minsoo010](https://news.hada.io/@minsoo010)
- Published: 2026-05-06T22:15:12+09:00
- Updated: 2026-05-06T22:15:12+09:00
- Points: 1
- Comments: 0

## Topic Body

현재 Expo + React Native로 앱을 개발 중인데, Gemma-4-E2B-it 모델을 핸드폰에 직접 설치해서 온디바이스로 돌리고 싶습니다.  
  
찾아보니 아래와 같은 선택지가 있는 것 같은데, 실제로 어떤 방식을 많이 사용하는지 감이 잘 안 옵니다.  
- llama.rn  
- llama.cpp  
- GGUF  
- LiteRT / AI Edge  
- MLC LLM  
  
제가 하고 싶은 건 아래와 같은데  
- 앱에서 모델 다운로드/설치  
- 로컬 추론 (가능하면 완전 오프라인)  
- Expo/RN 앱 내부에서 사용  
  
현재 가장 많이 사용하는 런타임/라이브러리는 뭔가요?  
혹시 구현해보신 분들의 구조나 예시 레포, 경험 공유해주시면 정말 감사하겠습니다.

## Comments



_No public comments on this page._
