Codex로 gemma4 31b 로컬 모델을 codex 에서 사용가능하도록 한 뒤 (멀티턴까지 알아서 체크하는 꼼꼼함!) ChatGPT Pro 말고 다른 구독 다 끊었어요. codex-app-linux 하고 이 둘 합치니까 인지 가능한 최대 병렬로 작업 돌려도 사용량이 남네요

하드웨어 스펙좀 알려주세요 !
4090으로 돌리니 똑똑은한데 장기사용으로는 부족하더라구요

저도 gemma4 로컬에 돌리려고하는데 혹시 하드웨어 스펙이 어느정도이신가요?