20P by xguru 11달전 | favorite | 댓글 1개
  • 다른 용도의 이용이 가능하도록 아파치 라이센스로 만들어진 LLaMA의 복제본
  • Together가 릴리즈한 RedPajama 데이터셋을 활용
  • JAX 기반의 파이프라인인 EasyLM을 통해 훈련
  • 200B/300B 토큰 기반의 OpenLLAMA 7B를 공개

HN댓글에 "llama.cpp + 8GB RAM에서 OpenLLaMA 사용하기" 코맨드를 올려놨네요
https://news.ycombinator.com/item?id=35798888

  git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && cmake -B build && cmake --build build  
  python3 -m pip install -r requirements.txt  
  
  cd models && git clone https://huggingface.co/openlm-research/open_llama_7b_preview_200bt/ && cd -  
  python3 convert-pth-to-ggml.py models/open_llama_7b_preview_200bt/open_llama_7b_preview_200bt_transformers_weights 1  
  ./build/bin/quantize models/open_llama_7b_preview_200bt/open_llama_7b_preview_200bt_transformers_weights/ggml-model-f16.bin models/open_llama_7b_preview_200bt_q5_0.ggml q5_0  
  ./build/bin/main -m models/open_llama_7b_preview_200bt_q5_0.ggml --ignore-eos -n 1280 -p "Building a website can be done in 10 simple steps:" --mlock