# Distil-Whisper - 6배 빠르고, 49% 작은 버전의 Whisper

> Clean Markdown view of GeekNews topic #11675. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=11675](https://news.hada.io/topic?id=11675)
- GeekNews Markdown: [https://news.hada.io/topic/11675.md](https://news.hada.io/topic/11675.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-11-04T10:03:02+09:00
- Updated: 2023-11-04T10:03:02+09:00
- Original source: [github.com/huggingface](https://github.com/huggingface/distil-whisper)
- Points: 12
- Comments: 1

## Topic Body

- OpenAI Whisper 음성인식 모델을 정제(Distill)하여 더 작고 빠르게 만든 모델   
- 6배 더 빠르고 49% 더 작으며 1% WER(Word Error Rate) 이내의 성능을 발휘  
- 영어 음성 인식에서 Whisper를 대체 가능한 드롭인 방식으로 설계됨

## Comments



### Comment 20371

- Author: haebom
- Created: 2023-11-05T18:38:36+09:00
- Points: 1

확실히 손실이 적네요. (빠른건 거의 안느껴지지만)
