1P by unohee 15시간전 | ★ favorite | 댓글 2개

한국 증시(KOSPI+KOSDAQ) 특화 언어 모델 VELA를 공개합니다.

Qwen2.5-7B-Instruct를 베이스로 SFT + DPO 파이프라인으로 파인튜닝했습니다.

만든 이유
기존 금융 LLM은 한국 시장 용어에서 할루시네이션이 심하거나,
응답 중간에 중국어/영어로 전환되는 language leak 문제가 있었습니다.
VELA는 이 두 문제를 DPO로 집중 교정했습니다.

학습 데이터

  • SFT: 36,713 샘플 / 2,135 종목 (뉴스 분류, 급등락 시그널, 증권사 리포트, 툴콜링, 섹터/매크로 분석 등)
  • DPO: 24,779 페어 (중국어·영어 leak 제거, Reasoning Trace 형식 정렬)

출력 포맷

  1. Reasoning Trace – JSON 형식의 단계별 사고 과정 (search → analyze → confidence)
  2. Synthesis Report – 7섹션 리서치 리포트 (요약, 지표, 수급, 뉴스 영향, 리스크, 투자 의견)

성능 (RTX 3060 12GB 기준)

포맷 속도 용량 Chinese Leak
Q4_K_M 36 tok/s 4.4GB 0/5 CLEAN
Q8_0 25 tok/s 7.6GB 0/5 CLEAN

주의: 실제 사용시엔 제대로된 뉴스 출처 및 데이터를 모델에게 제공해주셔야 합니다. 정확한 출처가 없는 경우 환각이 발생할 수 있습니다. https://github.com/unohee/vela-framework 와 함께 사용되도록 설계되어 있습니다.

지원 인터페이스
llama-cpp-python / Ollama / vLLM / Transformers / MLX

라이선스: Apache 2.0

🤗 https://huggingface.co/intrect/VELA

실시간 시세는 외부 API로 공급하고, VELA는 그 위의 추론 레이어로 설계됐습니다.
투자 조언이 아닌 정보 제공 목적입니다.

멋지네요! 7B 로도 안정적인가요?

모델 사이즈에 비해서 기본적인 업무들은 base 모델보다 확실히 낫습니다. 벤치마크도 같이 올려야겠네요!