10P by flowkater 1일전 | ★ favorite | 댓글 4개
  • 15년차 CTO 경험에서 시작해 AI 시대 코드 리뷰 담론을 정-반-합으로 정리한 에세이
  • 코드 리뷰는 항상 문제였다 — 시간, 사람, 프로세스 전부 부족
  • AI가 코드 생산량을 폭증시켰지만 리뷰 역량은 그대로 → 병목이 더 커짐

정 — 인간 리뷰 필수론

  • Simon Willison: "검토하지 않은 코드를 협업자에게 떠넘기지 마라"
  • Kent Beck: 생성 비용이 0에 가까워질수록, 가치는 생성이 아니라 검증으로 이동
  • Addy Osmani: "미해결 문제는 생성이 아니라 검증"
  • AI가 아무리 잘해도 책임은 사람에게 → 검증해야 → 리뷰해야

반 — 사람 리뷰 시대 종료론

  • Bryan Finster: 나이퀴스트-섀넌 정리 적용 — 생산 주파수만 높이고 피드백 주파수는 그대로면 체계적으로 놓침
  • SmartBear 데이터: 400줄 넘으면 결함 감지율 급락, AI 한 번에 600줄 생성
  • StrongDM "소프트웨어 팩토리": 인간이 코드 안 쓰고 안 읽음. 의도 정의 + 시나리오 큐레이션만
  • Stanford CodeX: "에이전트가 만들고 테스트하면, 누가 믿을 수 있는가?"
  • Salesforce Prizm: diff 중심 리뷰 모델 자체가 AI 시대에 작동 안 함 → 의도 재구성

합 — 무엇을 리뷰해야 하는가

  • latent.space: 코드 리뷰 → 의도 리뷰(Intent Review)로 전환
  • 스펙이 진실의 원천, 코드는 산출물
  • 신뢰를 5겹 레이어로 쌓기 (스위스 치즈 모델)
  • Qodo 패턴: 컨텍스트 우선, 심각도 기반, 전문가 에이전트 리뷰
  • Bryan Finster: 인간 블로킹은 부족 지식 + 규제 경로 두 가지뿐

나가며

  • 저자는 AI 코드를 직접 리뷰하지 않음 → QA 역할로 전환
  • AI 네이티브 엔지니어 = 이전 시대 PM 역할을 스스로 해야
  • "당신은 당신의 코드에 책임을 질 수 있는가?"

https://app.devin.ai/review

중간지점의 오류 처럼 또 하나의 스쳐지나가는 방법일지는 아직 모르겠지만
AI와 함께 PR review 하면서 코드 이해와 버그 수정이 가능한 도구가 있어 공유합니다.

사이드 프로젝트 하면서 AI가 진행한 코드 수정이 이해가 안될 때 이용합니다.

중간 지점의 오류 (Argument to Moderation): 두 극단적인 주장(A와 Z)이 있을 때, 그 중간 지점(M)이 진실이거나 최선의 해결책일 것이라고 단정 짓는 논리입니다.

반의 입장에서는 인간의 검토가 결국 병목현상

반, 합은 아직은 비현실적이라는 생각이 드네요. 코드는 계속 사용되는 것이고, LLM은 확률적이기 때문에 사람이 자기가 짠 코드를 (아직은) 모두 읽을 필요가 있습니다. 리뷰를 용이하기 위해 맥락, 의도 같은걸 이해하기 위해서 PR을 자동 탬플릿으로 써주거나, ADR로 쓸 필요는 있습니다.