# minbpe - LLM 토큰화에 사용하는 Byte Pair Encoding 구현체

> Clean Markdown view of GeekNews topic #13460. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=13460](https://news.hada.io/topic?id=13460)
- GeekNews Markdown: [https://news.hada.io/topic/13460.md](https://news.hada.io/topic/13460.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2024-02-21T11:06:01+09:00
- Updated: 2024-02-21T11:06:01+09:00
- Original source: [github.com/karpathy](https://github.com/karpathy/minbpe)
- Points: 13
- Comments: 1

## Topic Body

- OpenAI를 그만둔 Andrej Karpathy가 새로 공개한 코드   
- LLM 토큰화에 일반적으로 사용되는 (Byte Level) 바이트 쌍 인코딩(BPE) 알고리듬을 위한 미니멀/클린 코드   
  - Byte Level : UTF-8 인코딩된 문자열에 대해서 동작하기 때문  
- BPE는 GPT-2 논문과 OpenAI의 관련 GPT-2 코드 릴리스에 의해 LLM에 대중화되었음   
- 오늘날 모든 최신 LLM(예: GPT, Llama, Mistral)은 이 알고리듬을 사용하여 Tokenizer를 훈련함   
- Repo에는 2개의 토크나이저가 있음. 두개 다 3가지 주요 동작을 실행   
  - 1) 주어진 텍스트에 대해 Tokenizer의 어휘 및 병합 훈련  
  - 2) 텍스트에서 토큰으로 인코딩  
  - 3) 토큰에서 텍스트로 디코딩  
- Tokenizer 베이스 클래스 와 가장 간단한 구현체인 BasicTokenizer, 입력 문자열을 정규식으로 분할하는 RegexTokenizer  
- RegexTokenizer의 래퍼인 GPT4Tokenizer는 tiktoken 라이브러에서 GPT-4의 토큰화를 정확히 재현

## Comments



### Comment 23209

- Author: xguru
- Created: 2024-02-21T11:07:02+09:00
- Points: 1

이와 관련해서 GPT Tokenizer 구축하기 영상도 올라왔습니다.   
[GPT 토크나이저 구축하기 by Andrej Karpathy [동영상]](https://news.hada.io/topic?id=13459)
