# Nebullvm - AI Inference(추론)를 5~20배 가속하는 오픈소스 라이브러리

> Clean Markdown view of GeekNews topic #6225. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=6225](https://news.hada.io/topic?id=6225)
- GeekNews Markdown: [https://news.hada.io/topic/6225.md](https://news.hada.io/topic/6225.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2022-03-25T09:41:18+09:00
- Updated: 2022-03-25T09:41:18+09:00
- Original source: [github.com/nebuly-ai](https://github.com/nebuly-ai/nebullvm)
- Points: 10
- Comments: 1

## Topic Body

- AI 모델을 입력 받아 빠르게 실행하는 최적화 버전을 만들어 줌  
- 여러개의 딥러닝 컴파일러를 테스트하여 특정 하드웨어에 최적의 방법을 찾아냄   
  - 딥러닝 모델 Agnostic : 트랜스포머, LSTM, CNN, FCN 등 딥러닝 모델 상관없음  
  - 하드웨어 Agnostic : 대부분의 CPU와 GPU 지원. 곧 TPU 및 딥러닝 전용 ASIC 도 지원 예정   
  - 프레임워크 Agnostic : PyTorch, TensorFlow, HuggingFace 및 다른 것들도 곧 더 지원   
- 모든 것은 로컬에서 실행되어 안전함   
- 몇 줄의 코드만으로 사용 가능해서 쉬움

## Comments



### Comment 9395

- Author: emilec
- Created: 2022-03-26T18:50:43+09:00
- Points: 1

(도서관 저자) 공유해주셔서 감사합니다! 즐겁게 작업하셨다니 다행입니다.  
계속 진화하고 성능이 향상될 것입니다... 행복한 가속!
