hmmhmmhm | 2일전 | parent | on: Cursor Camp (neal.fun)

인트로 보려고 들어갔다가 바로 커서 압수 당하고 게임으로 빨려들어갈뻔...

진짜 올인원 db

이제 BYOL 처럼 개인 키를 쓸수있겠네요

에러가 너무 많이 나니 급하게 아예 공지를 한거군요.
근데 너무 늦은거 아닌가 하는 생각이..
이미 에러가 너무 많이 나서 다들 이탈한다고 얘기중인데요 ㅠ

사람들은 중국산이라고 못믿는다고 이런식으로 말하긴 하지만 저는 Deepseek가 연구하고 오픈하는 방향으로 시행착오도 공개하는 것 만큼은 정말 고맙다고 생각합니다.

AI한테 프론트 맡길 때 좋겠네요 공유 감사합니다.

저희는 둘 다 사용하는 쪽으로 정착했습니다.

슬래시 커맨드 흐름 안에 Codex 교차 리뷰 페이즈를 넣어두고(/ship 안에 기획 → 구현 → 검증 → Codex 리뷰 → 보고 식으로), 동시에 pre-push hook에도 같은 리뷰를 걸어둡니다. 슬래시 커맨드만 두면 급할 때 그냥 push해서 리뷰가 빠지고, hook만 두면 push 직전에야 결과가 나와 늦습니다.

두 경로 모두 Codex CLI를 직접 부르지 않고, 한 번 감싼 bash 스크립트(codex-review.sh) 한 개를 양쪽에서 똑같이 호출합니다. 그 스크립트가 타임아웃, 인증 체크, 시크릿 체크, 출력 포맷을 한 곳에서 처리해줘서 슬래시 커맨드든 hook이든 호출 측이 깔끔해집니다.

핵심은 Codex 리뷰 결과로는 절대 차단하지 않는다는 점입니다. CLI가 죽었거나 CRITICAL이 나와도 push는 그대로 통과시키고 결과만 출력해요. 한 번이라도 차단으로 만들면, Codex가 실제로는 문제없는 코드를 잘못 잡았을 때 사용자가 push를 하려고 hook을 우회하는 옵션(git push --no-verify)을 쓰게 되고, 이게 습관이 되면 hook이 걸려 있어도 안 도는 것과 똑같은 상태가 됩니다. 그래서 차단이 필요한 검사(린트·타입·테스트, 시크릿 파일 push)는 별도 게이트로 분리하고, 모델 의견은 참고용으로만 둡니다.

스크립트·슬래시 커맨드·hook 본문은 트랙 4~6챕터에 그대로 들어 있으니 참고하셔도 좋을 것 같습니다.

이렇게 하시는 분들 있다고 하는데, 어떤 방식일지가 궁금하네요.
두 도구를 별도의 에이전트로 묶지 않고, 개발자가 직접 필요할 때마다 각각 호출하는 건지,
Git Hook 할 때 자동으로 Codex가 리뷰를 하게 만드는 설정으로 조치하는 지 궁금하네요.

Oracle OCI 가 4CPU 24GB ram 50GB storage 로 무료로 돌리세요.

습관적으로 runnable로 접속하려고 3번 정도 시도하다가 n이 하나 더 붙은걸 깨달아버렸ㅜㅜ

댓글까지.. 제가 더 감사해요! UI에서 한국어도 됩니다 i18 기반 다국어입니다. 앞으로 더 열심히 깎아보겠습니다!

요즘 메타가 좀 덜 역겨워 보이고 있었는데 메타에 대한 분노를 충전하고 갑니다.
조금 다른 얘기지만 요즘 OS lockdown들도 Meta가 로비한거라는 얘기도 있긴 했지만서도... 창업 스토리부터 행보 하나하나 정말 윤리의식따위는 엿바꿔먹었나봐요

버그 맞고, 수정 했습니다. 제보 감사합니다!

정식 버전 출시 전 문구가 남아있었습니다~ 이제는 클라우드에 안전하게 저장됩니다 😆

LLM 사업자들은 일반 사용자들이 무료나 구독 방식으로 쓰는 '소비자용 서비스'의 데이터는 모델 개선을 위해 기본적으로 수집·학습하는 경향이 있습니다. 반면, 기업이나 개발자들이 비용을 지불하고 사용하는 API나 기업용 서비스의 데이터는 대부분 계약을 통해 학습에 사용하지 않도록 보호해줍니다.

여기서 한 가지 중요한 문제를 짚고 넘어가야 합니다. 바로 "유료 제품은 정말 내 데이터를 학습에 전혀 사용하지 않을까?" 라는 근본적인 의문입니다.

OpenAI의 기업용 서비스는 계약상 데이터를 학습에 사용하지 않는다고 명시되어 있지만, 그 '약속'을 기술적으로 어떻게 검증하고, 법적/제도적으로 어떻게 보장받을 수 있을까요? 현재로서는 우리가 직접 OpenAI의 학습 파이프라인을 감시할 수 없기 때문에, 이는 전적으로 사업자의 윤리 의식과 계약서에 의존할 수밖에 없는 영역입니다.

"내 데이터가 모델의 지식으로 녹아들 위험은 없는가?"라는 동일한 질문은 비단 DeepSeek만의 문제가 아니며, 예산과 필요에 따라 더 안전한 계약 조건(예: API, 기업용 플랜)을 '구매'하거나, 아니면 기술적 완전성을 위해 직접 모델을 호스팅하는 것 외에는 완벽한 해결책이 없다는 숙제를 안고 있습니다.

"중국 LLM이라서 자동으로 개인정보를 턴다"는 과장된 표현이며, 데이터 활용에 대한 구조적 위험은 미국 LLM도 크게 다르지 않습니다. 중요한 것은 서비스의 유형과 계약 조건을 꼼꼼히 살펴, 우리 데이터를 지키기 위해 비용을 지불하거나 기술적 대안(자체 호스팅 등)을 선택하는 것입니다.