GN⁺: 자신만의 Llama 2를 세밀하게 조정하여 GPT-3.5/4를 대체하다
(news.ycombinator.com)- HN에서 오픈소스 LLM의 미세 조정에 대한 관심이 많이 증가하고 있음 (예: Anyscale의 게시물)
- 모델 미세 조정에 대한 몇 년간의 경험과 통찰, 그리고 실용적인 코드 공유
- 데이터 라벨링, 미세 조정, 효율적인 추론 실행, 비용/성능 평가 등을 다루는 노트북 세트 제공
- 테스트 세트에서 GPT-4의 라벨을 95% 일치시키는 7B 모델 훈련
- 미세 조정이란 무엇인가? 텍스트로 지시사항을 작성하는 것보다 더 강력한 형태의 프롬프팅
- 미세 조정 모델의 학습을 위한 예제 입력/출력 쌍에 기존 모델을 훈련시킴
- 프롬프팅과 미세 조정의 장단점
- 미세 조정의 큰 장점: 모델의 행동을 지시하는 데 훨씬 효과적이어서 훨씬 작은 모델로도 충분히 처리 가능
- 미세 조정된 Llama 7B 모델은 GPT-3.5보다 토큰당 50배 저렴하고, 많은 사용 사례에서 동일하거나 더 나은 결과를 제공
- 예시: GPT-4로 2M 레시피 분류는 $23k의 비용이 들지만, 우리가 미세 조정한 모델은 GPT-4와 유사한 성능을 보이며 전체 데이터셋을 실행하는 데 단지 $19의 비용이 듦
- OpenPipe라는 오픈소스 제품 개발 중
- 엔지니어들이 가능한 한 간단하게 미세 조정을 채택할 수 있도록 돕는 OpenPipe 제품
- 미세 조정에 대해 배운 정보를 공유하기 위한 현재의 게시물
Hacker News 의견
- Llama 2의 모델 미세조정 사용에 대한 기사, GPT-3.5/4 대안으로서
- 일부 사용자들은 번역 작업에서 GPT-3.5가 Llama 2보다 100배 저렴하다고 발견, Llama 7B는 불량한 번역을 제공
- OpenAI의 GPT-3.5에 대한 공격적인 가격 전략, 다른 공급업체보다 그들의 모델에 의존하도록 격려하는 움직임으로 추측
- GPT 및 기타 LLM의 출력을 내부 대체 모델 훈련에 사용하는 가능성 논의, 이는 생산 규모에서 정규 API를 사용하는 사람들에게 비용 효과적인 해결책이 될 수 있음
- 미세조정된 Llama 7B 모델이 GPT-3.5보다 50배 저렴하다는 주장에 대한 의문 제기, 일부 사용자들은 이것이 자체 호스팅을 통해서만 달성될 수 있다고 제안
- 미세조정의 효과성 대비 저 순위 적응에 대한 의문 제기
- 미세조정된 Llama 모델과 GPT-3.5 간의 비교가 오해를 불러일으킨다는 일부 사용자들의 주장, 적절한 추론 지연 시간 달성과 확장성 문제를 인용
- 미세조정된 Llama 2 모델의 품질이 반드시 ChatGPT보다 뛰어나지 않음, 미세조정은 고품질 데이터셋을 필요로 하는데 이는 쉽게 구축하기 어려움
- GPT 함수 호출의 일관성과 오류율에 대한 의문 제기
- 사용자들은 자신의 모델을 미세조정하기 위한 최고의 오픈소스 LLM에 대해 궁금해함
- 미세조정 데이터셋이 입력/출력 쌍이어야 하는지, 아니면 자동 회귀 가능한지에 대한 명확성 요청
- 사용자들은 이러한 모델을 미세조정하는 방법을 배우는 자료에 관심, 특히 초보자들을 위한 것
- 이 기사는 ML/LLM 분야에서 시작하는 사람들에게 가치있는 자료로 간주됨.