# 바이브 코딩의 환상과 AI 코드 수준 그리고 미래

> Clean Markdown view of GeekNews topic #29036. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=29036](https://news.hada.io/topic?id=29036)
- GeekNews Markdown: [https://news.hada.io/topic/29036.md](https://news.hada.io/topic/29036.md)
- Type: news
- Author: [brainer](https://news.hada.io/@brainer)
- Published: 2026-04-30T11:52:40+09:00
- Updated: 2026-04-30T11:52:40+09:00
- Original source: [medium.com](https://medium.com/p/78cd0fa76f81?postPublishedType=initial)
- Points: 3
- Comments: 1

## Topic Body

* 최근 AI 코딩은 “실행되는 코드”를 빠르게 만들지만, 사용자가 기대한 “좋은 제품”까지 자동으로 만들지는 못한다는 주장  
* 저자는 그 원인을 크게 2가지로 봄  
  
  * AI의 상식/암묵지 부족  
  * RLVR 기반 학습에서 “좋은 코드/제품”보다 “코드 실행 성공”이 보상되기 쉬운 구조  
* 예시로 세종대왕 맥북 프로 환각, 세차장 테스트, 한국 교실/학생 이미지 생성 실패를 들며, 최신 모델도 인간이 즉시 알아차리는 이상함을 놓칠 수 있다고 지적  
* 코딩 RLVR의 보상이 실행 여부에 치우치면, LLM은 과도한 `try-except`, fallback, 방어 로직을 만들어 기술 부채를 쌓을 수 있음  
* 바둑은 이기면 되지만, 소프트웨어는 “대충 돌아감”이 아니라 “사람이 원하고 돈을 낼 제품”이어야 한다는 점이 핵심  
* Karpathy의 AJI(Artificial Jagged Intelligence) 관점에서 보면, 현재 AI의 약한 부분은 “taste”, 제품 감각, 암묵적 상식 영역  
* Anthropic도 디자인/taste 영역은 아직 인간이 많이 담당하지만, 모델 개선에 따라 경계가 재협상되고 있다고 봄  
* 저자는 GPT-5.4 → GPT-5.5처럼 모델이 개선되며 이 간극은 점점 줄어들 것으로 전망  
* 궁극적으로 인간과 구분하기 어려운 수준의 감각과 판단을 갖추면 튜링 테스트를 통과하고, 그 시점을 AGI로 볼 수 있다고 주장  
  
**요약:**  
AI 코딩의 문제는 “코드를 못 짠다”가 아니라, “사람이 원하는 제품이 무엇인지 모른 채 실행 가능한 결과물에 최적화된다”는 것. 현재 인간의 역할은 AI가 부족한 상식, taste, 제품 판단을 보완하는 데 있음.

## Comments



### Comment 56607

- Author: kimujinyogi
- Created: 2026-04-30T16:26:25+09:00
- Points: 1

AI가 언젠가 지시문에도 없는 내용에관해서 의문을 가지고 의견을 낼수있는 날이오면  
정말 인간이 대채될수도있겠지만  
돈많은 사람이 자동운전이아니라 운전수를 대리고다니는것과 비슷하게  
뭐 하라고 하면 일일히 확인을 대신해주는 사람이 미래의 엔지니어(나의모습) 이 되는걸까여
