있습니다. 다만 대부분은 논문 보고 0부터 만들기보단, 오픈소스 레퍼런스 구현을 타고 들어가는 경우가 많더라고요.
요즘 AI 쪽은 핫한 논문 뜨면 POC도 우수수 올라오는데, 막상 프로덕션에선 데이터/인프라/튜닝 때문에 “돌긴 도는데 기대한 맛”이 안 나는 경우가 많은 것 같습니다.
그래서 요즘은 vLLM, Ollama 같은 패키징된 스택 등으로 몰리는 느낌입니다.