# AI는 코드를 쓴다. 결정도 한다. 책임만 못 진다.

> Clean Markdown view of GeekNews topic #29220. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=29220](https://news.hada.io/topic?id=29220)
- GeekNews Markdown: [https://news.hada.io/topic/29220.md](https://news.hada.io/topic/29220.md)
- Type: news
- Author: [flowkater](https://news.hada.io/@flowkater)
- Published: 2026-05-06T13:33:56+09:00
- Updated: 2026-05-06T13:33:56+09:00
- Original source: [flowkater.io](https://flowkater.io/posts/2026-05-04-ai-era-responsibility/)
- Points: 3
- Comments: 0

## Topic Body

**"그건 제 R&R이 아닌데요"의 종말**  
  
- **R&R은 책임을 명확히 하기 위한 도구이지, 책임을 피하기 위한 방패가 아니다** — 구조조정 책임은 경영진의 사업 판단에 있지만, 커리어의 안전을 그 판단과 회사의 선의에 맡겨두는 것도 더 이상 안전하지 않다는 게 글의 출발점  
  
**지금의 채용 한파 = AI가 아니라 2023년에 이미 시작된 정상화**  
  
- 2021~2022년 코로나 유동성 과잉 → 개발자 초봉 6,000만 원, 부트캠프 출신 즉시 입사 → 과채용 시기. 자금 마르자 망한 회사 출신과 과채용 인력이 시장에 쏟아짐  
- [금융위 자료](https://www.fsc.go.kr/no010101/80547)로 2023년 상반기 국내 벤처투자 전년 동기 대비 **42% 감소**. [스타트업얼라이언스](https://platum.kr/archives/221689)로는 2023년 전체 투자금 **52% 감소**  
- "AI가 개발자 시장을 갑자기 망가뜨린 게 아니다. AI는 이미 무너지고 있던 고용 계약의 민낯을 더 빨리 드러낸 것뿐이다"  
- 가장 안일했던 사람은 당시 회사 경영진. 시장이 얼자마자 그들의 사업 실패가 고스란히 개인 직원의 대가로 전가된 것  
  
**AI가 흡수하는 것은 코드가 아니라 스페셜리즘 그 자체**  
  
- Google: [2024 Q3 어닝콜](https://blog.google/company-news/inside-google/message-ceo/alphabet-earnings-q3-2024/)에서 새 코드의 25%가 AI 생성 → [2026-04 Cloud Next](https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/cloud-next-2026-sundar-pichai/)에서 **75%까지 상승**. 1년 반 만에 3배. 핵심 표현은 "AI-generated and approved by engineers" — 작성은 AI, 승인과 책임은 엔지니어  
- Meta Mark Zuckerberg, [Q4 2025 어닝콜](https://s21.q4cdn.com/399680738/files/doc_financials/2025/q4/META-Q4-2025-Earnings-Call-Transcript.pdf): "예전에는 큰 팀이 필요했던 프로젝트가 이제는 정말로 뛰어난 한 명에 의해 끝나는 모습이 보이기 시작했다"  
- 10명이 하던 일을 한 명이 한다는 건 효율 문제가 아니라, 큰 팀이 나눠 갖던 판단·조율·검증·배포 이후의 책임까지 그 한 사람에게 압축된다는 뜻. 채용 기준이 quantity → quality로 이동  
- **AI는 전문성을 없애는 게 아니라, 전문성만 가진 사람의 안전지대를 없애고 있다.** 시장이 얼면 자기 직무 안에 머무르는 사람부터 사라진다  
  
**Taste·결정 능력도 안전지대가 아니다**  
  
- "AI가 이런 걸 하니까 사람은 Taste·결정 능력에 집중해야 한다"는 프레임은 AI와 사람을 동일선상에서 비교하는 함정. 그 말은 곧 어느 레벨/섹터에선 Taste·결정도 충분히 대체될 수 있다는 뜻  
- ThePrimeagen(20년차, [I suck 발표 2026-05-02](https://www.youtube.com/watch?v=V-ZvAw_VNk4)): 6개월 슬럼프에서 두 가설을 차례로 지웠다. 취향(taste)? 아니다. 코드 양? 아니다. 결론: "한 줄 코드의 비용이 극적으로 떨어졌다면, 올바른 한 줄 코드의 비용은 극적으로 상승한다"  
- 양쪽 데이터: [GitHub Copilot 실험(arXiv 2302.06590)](https://arxiv.org/abs/2302.06590)에서는 **55.8% 빠른 완료**. 반대로 [METR 2025 연구](https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/)에서는 숙련된 오픈소스 개발자가 자기가 잘 아는 코드베이스에서 AI 썼더니 오히려 **19% 더 느림**. AI는 산출 비용은 낮추지만 맥락 이해와 올바른 선택의 비용까지 자동으로 낮춰주지 않는다  
- 디자인 시안, 코드 1차 리뷰, 아키텍처 트레이드오프 정리 — 필자 워크플로우에서도 "내가 결정하든 AI가 결정하든 결과 차이가 미미한" 영역이 늘어나는 중. 그 차원에서 Taste가 흡수되고 있다는 신호  
- **AI가 못하는 것은 더 예쁜 선택이 아니라, 선택의 결과를 책임지는 것이다**  
  
**AI는 책임을 못 진다 — 본질적 차이**  
  
- [Air Canada 챗봇 사건(2024)](https://www.americanbar.org/groups/business_law/resources/business-law-today/2024-february/bc-tribunal-confirms-companies-remain-liable-information-provided-ai-chatbot/): 챗봇이 고객에게 잘못된 환불 정보 제공 → 회사는 챗봇을 별도 주체로 보려 했으나 캐나다 분쟁조정기관은 "정보가 정적 페이지에서 나오든 챗봇에서 나오든 책임은 회사에 있다"고 판단. AI가 답변을 만들 수는 있지만 그 답변을 노출하기로 결정하는 책임은 사람과 조직에 있다  
- 필자 자기 폭로: CTO 2년차에 회사가 투자 유치에 어려움을 겪자 그제서야 재무팀에 매달 자료를 보내달라고 요청. "CTO가 왜 이걸 이제 와서 보냐"는 재무팀장 표정이 기억에 남음. **무지가 무책임의 다른 이름이라는 걸 그때 깨달았다**  
- Anthropic [Careers 페이지](https://www.anthropic.com/careers)에 박힌 채용 기준: "When it comes to our mission, none of us are bystanders. We each take personal ownership over making our mission successful." AI를 가장 잘 만드는 회사가 직접 박은 채용 기준이 ownership  
- 책임지는 사람 vs 회피하는 사람의 행동 패턴이 정반대. 한쪽은 "결과가 고객에게 어떤 가치로 도달하는지, 회사의 어떤 지표와 연결되는지"를 묻고 잘 안 됐을 때 "제가 무엇을 놓쳤는지"를 설명한다. 다른 쪽은 R&R 안에 머물고 outcome이 나빠도 자기 output을 포기하지 못한다  
- Taste, 결정, 원리 이해, 커뮤니케이션은 **책임을 수행하기 위한 능력이지 책임의 대체물이 아니다**  
  
**개인이 던져야 할 5가지 질문**  
  
- ① 내가 지금 하는 일이 어떤 고객 문제를 해결하는가 — 답을 못하면 외부 시장 가치와 끊긴 일  
- ② 이 일이 어떤 비즈니스 KPI(매출/비용/리텐션)와 어떻게 연결되는가 — 한 줄 설명 못하면 회사가 내 자리를 어떻게 평가할지 모른다는 뜻  
- ③ 내가 만든 결과가 실제로 쓰였는가, 실패했을 때 원인을 3문장으로 설명할 수 있는가 — 배포 ≠ 사용, 만든 것 ≠ 도달한 것  
- ④ AI를 써서 더 많이 만드는 게 아니라 더 빨리 검증하고 있는가 — AI 시대 가장 큰 함정. 책임지는 사람은 양이 아니라 검증 속도에 자원을 쓴다  
- ⑤ "내 R&R이 아닌데"의 변종 — 결과에 중요한데 직무 경계 밖이라는 이유로 손을 떼면 책임도 같이 떨어져 나간다  
  
**기업도 보상 체계를 바꿔야 한다 — 일방적 글이 아니다**  
  
- 글이 개인에게만 책임을 묻는 방향으로 가지 않도록 후반부에서 명시: "기업에서 그만큼 직원에게 책임을 지우려면 그만큼의 보상도 지불해야 한다"  
- 제너럴리스트로 일하면서 책임지고 고객 가치를 챙기던 사람들은 그동안 제대로 평가받지 못한 영역. 스페셜리즘이 AI에게 흡수되는 시대에 그들의 가치는 그 어느 때보다 높다  
- [Jasmine Sun, NYT Opinion 2026-04-30](https://www.nytimes.com/2026/04/30/opinion/ai-labor-work-force-silicon-valley.html): "내가 아는 AI 업계 사람들 대부분은 평범한 사람은 망했다고 생각한다. 그리고 어떻게 해야 할지 전혀 모른다." 실리콘 밸리가 마주한 진짜 악몽은 rogue AI가 아니라 평범한 사람이 자동화로 경제적 레버리지를 잃는 시나리오  
- 마무리 한 줄: **"AI는 우리의 일을 대신할 수 있다. 하지만 우리의 책임까지 대신해주지는 않는다. 그래서 AI 시대에 가장 귀한 사람은 더 많이 만드는 사람이 아니라, 끝까지 책임지는 사람이다."**

## Comments



_No public comments on this page._
