제가 만들면서 가장 놀란 건, "답 안 주는 AI"를 만드려고 system prompt에 넣은 제약([MASTERY] 토큰 기반 마스터리 판정)을 LLM이 자꾸 깨뜨리려해서 프롬프트 엔지니어링에 생각보다 많은 시간을 썼다는 점입니다.

Claude Haiku보다 Gemini Flash가 이 제약을 더 잘 지켰는데, 반대로 질문의 깊이는 Claude가 좋았어요. 지금은 Claude + prompt 정밀화 조합입니다.

혹시 비슷한 "LLM을 억제하는" 프롬프트 설계 경험 있으신 분 계시면 노하우 공유 부탁드려요 🙏