GeekNews 최신글 예전글 쓰레드 댓글 Ask Show GN⁺ Weekly | 글등록 | woonsa
로그인

woonsa

1 karma 가입일 2026-03-22

최근 활동

최근 작성한 댓글

전체 보기
메모리 안정성을 위해 기능을 추가 할게 아니라 댕글링포인터 나 가변참조 만 못하게 해도 메모리 안정성은 높아 지는대 오히려 기능 추가로 코드의 복잡성만 높이고 있네요
조금더 팁을 드리자면 소형 llm 모델을 sft(ntr) 튜닝을 통해서 특정 도메인 특화로 만드는 것입이나 그것들은 로컬에서 돌리고 api 는 대형 언어모델 하나만 사용 하고요! 7B 나 3B 정도 되는 것들 특정 분석용 으로 특화하면 좀더 좋은 결과가 나옵니다. 아! sft(ntr) 할땨 ai hub 적극 이용하시면 데이터셋 만들기 편합니다. ( 저도 비슷한걸 만들어 본적이 있어서요 ^^;
아참 꼭 한두달 은 꼭 백테스팅 이 필요 합니다. 안그러면 llm 이 이상한짓 해서 자산 날리는걸 목격 할수도 있습니다.(저점에 매수 고점에 매도)
LLM 은 추론 시간이 있기에 실시간 매매나 HFT 같은 고빈도 매매 에는 대응이 느립니다. 최소 5분봉 기준으로만 가능 합니다. 거기에 LLM 모델을 여러개 엮어도 능력이 더 뛰어 나거나 하지 않습니다. 차라리 5개 정도의 LLM 으로 로직이나 LSTM 모델에서는 캐치 하지 못하는 시장이나 커뮤니티 의 분석 환희 인지 공포인지 같은 감정적 분석을 맡기고 어드밴스드ppo cnn lstm(과

전체 배지

스페셜
First Comment

더 많은 GeekBadge가 있습니다. 활동을 통해 모으거나, GeekGold로 구매해 보세요.

처음 오셨나요 사이트 이용법 FAQ About 긱배지 이용약관 개인정보 처리방침   | Blog Lists RSS   | Bookmarklet
X (Twitter) Facebook   |   긱뉴스봇 : Slack 잔디 Discord Teams Dooray! Google Chat Swit
시작하기 이용법 FAQ About 긱배지 약관 개인정보
Lists Blog RSS X 긱뉴스봇