▲chcv0313 2달전 | parent | ★ favorite | on: 알리바바의 오픈소스 Qwen3.5-Medium 모델, 로컬에서 Sonnet 4.5 수준 성능 제공(venturebeat.com)RTX Pro 6000(96GB, 실질적으로 94GB) 을 보유중인데, ollama 로 122B 모델이 안올라갑니다. 비전 모델이라서 비전 트랜스포머 들어있는 부분 때문인가 합니다. GPT OSS 120b 모델은 넉넉하게 올라간ㄴ데말이죠 ▲ng0301 2달전 [-]맞아요.. 비전 인코더 사용되면 1B모델도 9G VRAM 먹더라구요 답변달기
RTX Pro 6000(96GB, 실질적으로 94GB) 을 보유중인데, ollama 로 122B 모델이 안올라갑니다. 비전 모델이라서 비전 트랜스포머 들어있는 부분 때문인가 합니다. GPT OSS 120b 모델은 넉넉하게 올라간ㄴ데말이죠