1P by GN⁺ 8시간전 | ★ favorite | 댓글 1개
  • AI를 자율적 동료로 보는 관점은 실망을 낳지만, 인간 능력을 증폭하는 도구로 보는 접근은 변혁적 성과를 창출함
  • 제조·군사·의료·러닝 분야의 외골격(exoskeleton) 사례처럼, AI도 인간의 판단을 대체하지 않고 지속 가능성과 효율을 높이는 보조 장치로 작동해야 함
  • Kasava는 ‘제품 그래프(Product Graph)’ 를 통해 코드, 이슈, 전략 정보를 통합해 AI와 인간 판단의 결합 구조를 구현함
  • ‘마이크로 에이전트(Micro-Agent)’ 구조로 작업을 세분화해, 반복적 업무는 AI가 증폭하고 결정권은 인간이 유지하도록 설계함
  • 미래의 생산성 향상은 완전 자율화가 아닌 인간 증폭(amplification) 에서 비롯되며, AI는 인간의 자연스러운 확장체로 자리 잡게 됨

잘못된 AI 인식과 ‘외골격’ 모델의 제안

  • 기업들이 AI를 자율적 에이전트로 취급할 때 실망을 겪는 반면, 인간 역량의 확장 도구로 활용하는 기업은 실질적 변화를 경험함
  • AI는 독립적 판단 주체가 아니라 인간 의사결정의 연장선으로 작동해야 함
  • “AI는 동료가 아니라 외골격”이라는 비유는 AI의 역할을 인간 중심의 증폭 장치로 재정의함

외골격의 실제 사례

  • 제조업: Ford는 7개국 15개 공장에 EksoVest를 도입해 부상률을 83% 감소시켰으며, BMW는 근로자 노력 30~40% 감소를 보고함
    • German Bionic의 Cray X는 66파운드의 리프트 지원을 제공, BMW·IKEA 등 고객사에서 병가 25% 감소
  • 군사 분야: Sarcos Guardian XO Max는 20:1 근력 증폭을 제공, 100파운드가 5파운드처럼 느껴짐
    • Lockheed Martin HULC는 200파운드 하중을 시속 7마일로 운반 가능, 근골격계 부상 예방에 기여
  • 의료 재활: 척수 손상 환자의 76%가 외골격 착용 시 보조 없이 보행 가능
  • 러닝 연구: Stanford의 발목 외골격은 에너지 소모 15% 감소, Harvard의 소프트 슈트는 대사 비용 5.4% 절감
  • 공통점은 인간을 대체하지 않고 능력을 증폭한다는 점임

‘AI 에이전트’ 개념의 한계

  • 자율적 AI는 맥락 부족으로 인해 오판·환각(hallucination) 문제를 일으킴
  • 인간의 판단과 맥락을 이해하지 못한 채 독립적 결정을 시도하면 실패 확률이 높음
  • Kasava는 AI가 깊이 있는 분석을 수행하되, 결정은 인간이 내리는 구조를 채택함

Kasava의 제품 그래프(Product Graph)

  • 첫 번째 계층: 코드베이스, 커밋, 이슈, PR, 프로젝트 데이터를 자동 수집해 제품의 실제 구조와 진화 상태를 모델링
  • 두 번째 계층: 사용자가 제공한 전략적 판단·우선순위를 반영해 자동화된 데이터와 인간 판단을 결합
  • 이 결합을 통해 AI는 제품의 실제 맥락과 팀의 의도를 함께 고려한 분석 수행
  • 결과적으로 Kasava는 AI와 인간의 공생적 증폭 구조를 구현함

마이크로 에이전트 아키텍처

  • 작업을 역할이 아닌 세부 과업 단위로 분해해 AI가 증폭 가능한 부분을 식별
    • 예: 커밋 메시지 작성, 코드 패턴 탐색, 보일러플레이트 코드 작성, 보안 검토, 문서 자동 갱신 등은 AI가 수행
    • 기능 결정·복잡한 디버깅·아키텍처 판단은 인간이 주도
  • 각 마이크로 에이전트는 하나의 기능에 집중하며, 입력·출력 경계를 명확히 함
  • 인간이 결정 루프 내에 남아야 외골격 모델이 유지됨

생산성 효과와 증폭의 의미

  • 외골격 연구에서 보듯, 15% 에너지 절감은 단순 효율 향상을 넘어 지속성과 회복력 향상으로 이어짐
  • 소프트웨어에서도 반복 업무를 줄이면 인지 자원을 창의적 작업에 재투입 가능
  • Kasava는 문서 자동 갱신, 커밋 메시지 자동 작성, 워크플로우 통합을 통해 복합적 생산성 상승을 실현함
  • 이는 자율적 AI가 아닌 증폭형 AI 접근의 누적 효과임

미래 전망: 자율이 아닌 증폭

  • 조직은 “AI가 자율적으로 일하게 하려면?”이 아니라 “어떤 부분의 피로와 오류를 줄일 수 있는가”를 물어야 함
  • 외골격 산업이 2030년까지 연 20% 성장, 20억 달러 규모로 예상되는 이유는 인간을 대체하지 않고 강화하기 때문임
  • AI도 마찬가지로, 인간 워크플로우에 자연스럽게 통합된 증폭형 도구가 지속적 가치를 창출함
Hacker News 의견들
  • 나는 “AI가 나를 활용할 것이지 대체하지는 않을 것”이라는 자기 위안식 생각에는 동의하지 않음
    결국 사용자가 점토처럼 형식적 시스템을 빚게 될 것임
    중기적으로는 “AI는 동료가 아니다”라는 말이 정확함
    인간 협업은 본질적으로 비효율적이며, 소프트웨어 개발은 개인 스포츠로 빠르게 전환될 것임
    나는 미적 감각이 좋은 한 명의 설계자와 수많은 에이전트가 함께 일하는 구조가 더 낫다고 생각함

    • 지금 세대의 AI는 단순한 텍스트 예측기일 뿐이라 코드의 논리적 결함을 실제로 찾지 못함
    • 모든 개인이 AI에게 명확히 요구사항을 전달할 수 있다고 가정하는 건 무리임
      또한 플랫폼과 라이브러리가 바뀔 때 AI가 이를 유지할 수 있을지도 의문임
    • Jensen Huang이 “이제 세상 모든 사람이 프로그래머가 되었다”고 말했음
      관련 기사: Nvidia CEO predicts the death of coding
    • 인력 추가로 인한 커뮤니케이션 비용 문제는 50년 전 Brooks가 이미 지적했음
      사람을 더 투입하든, 봇을 더 투입하든 본질은 같음
    • “AI가 나를 leverage한다”는 표현은 마치 AI가 나를 밟고 올라서는 것처럼 들림
      어쩌면 그게 정확한 비유일지도 모름
  • 엑소스켈레톤 비유는 멋지지만 현실적이지 않음
    실제로는 더 실용적인 접근이 많음 — 차량, 로봇 팔, 원격 조종 등
    인간형 거대 로봇은 상업적으로 비효율적임

  • “AI에 대해 잘못 생각하고 있다”는 주장에 공감함
    Anthropic과 OpenAI CEO들이 이미 의도를 명확히 밝혔음 — SWE 90% 감소를 목표로 함

    • 하지만 진지하게 믿는 사람은 거의 없음
      과거에도 UML, 오프쇼어 개발자, 노코드 등으로 대체될 거라 했지만 결국 AI는 도구일 뿐임
      CEO들의 발언은 주가 부양용 메시지에 불과함
    • SWE 수요를 줄이려면 AI가 아니라 조직 효율성 문제부터 해결해야 함
      실제로 많은 개발자가 가치가 불분명한 프로젝트에 시간을 낭비함
    • 큰 돌파구 없이는 불가능함
      아이러니하게도 이런 도구를 만드는 개발자들이 가장 먼저 일자리를 잃을 수도 있음
    • 에이전트형 AI에 집착하지 않는다면 훨씬 나을 것 같음
      IDE 내 AI 도구가 훨씬 정확하고 빠름
      하지만 Claude는 맥락을 최소화한 채 “한 번에 완성하라”고 유도함
      이는 사용자보다 회사의 이익을 위한 설계로 보임
    • SWE 수요가 90% 줄어든다는 말은 현실적이지 않음
      효율이 높아질수록 더 복잡한 소프트웨어를 만들게 되고, 오히려 수요가 늘어남
  • 엑소스켈레톤 비유는 위안이지만, 진짜 변화는 ‘취향의 확장성’
    예전엔 뛰어난 판단력을 가진 사람도 팀이 없으면 실행이 어려웠지만
    이제는 한 사람의 좋은 감각과 설계력으로 팀 규모의 결과물을 낼 수 있음
    병목은 “코드를 쓸 수 있느냐”에서 “무엇을 만들 가치가 있느냐”로 이동했음

    • “완전히 다른 게임”이라는 표현이 흥미로움
    • 프로토타입은 빠르게 만들 수 있지만, 제품 수준으로 가려면 여전히 숙련이 필요함
    • 사실상 그게 증강(augmentation) 의 정의임 — 한 사람의 능력을 증폭시키는 도구이기 때문임
    • “팀이 필요했던 소프트웨어를 한 명이 배포한다”는 말은 다소 과장처럼 들림
  • AI는 이미 동료(co-worker) 처럼 작동하고 있음
    과거엔 사람에게 맡겼던 일을 이제 AI에게 위임함

    • 실제로 위임 가능한 업무의 범위는 훨씬 넓음
      대부분의 산업이 아직 그 잠재력을 거의 활용하지 못하고 있음
    • 하지만 AI가 만든 결과물을 수정하느라 스트레스를 받는 경우도 있음
  • Lenny’s Podcast에서 Claude Code의 저자 Boris가 “코드 작성은 이미 해결된 문제”라고 말했음
    만약 엔지니어들이 오픈소스 기여를 멈춘다면, AI는 여전히 학습할 수 있을까 하는 의문이 듦

    • 그 발언은 너무 단정적임
      이런 도구를 만든 사람들의 말은 이해 상충(conflict of interest) 이 있음
    • 아마도 그는 테스트가 잘 갖춰진 깨끗한 코드베이스에서 일하고 있을 것임
      그런 환경에서는 코드 작성이 단순해 보이지만, 대부분의 프로젝트는 그렇지 않음
    • “코드 작성”이 아니라 “소프트웨어 공학”의 문제임
      이 분야는 아직 정체되지 않았음
      패턴들이 직교하지 않기 때문에 단순한 선형 조합으로 설명할 수도 없음
    • “시가 이미 완성된 예술이라면 더 이상 시인을 필요로 하지 않는다”는 식의 논리와 비슷함
      여전히 창의적 엔지니어는 필요함
    • Boris가 Excalidraw의 오픈 이슈를 Claude 에이전트로 해결하는 시연을 봤음
      직접 코드를 한 줄도 쓰지 않았는데 문제를 해결했음
      그의 말이 완전히 틀린 건 아닐 수도 있음
  • 엑소스켈레톤을 입는다고 해서 10배 빠르게 달리거나 손을 더 빨리 움직일 수는 없음
    비유가 맞지 않음

  • AI가 “Not X, but Y” 같은 문장을 자주 생성하는 걸 보면 템플릿 기반으로 보임

    • “It’s not X, it’s Y” 패턴이 또 탐지됨
  • 지금의 AI는 나에게 증폭기(amplifier) 같은 존재임
    코딩과 특정 작업에서 나를 강화해줌
    완전한 대체가 일어나기 전까지는 걱정하지 않음

    • 하지만 증폭은 결국 적은 인원으로 더 많은 일을 한다는 뜻임
      이는 노동 수요와 급여 감소로 이어질 수 있음
    • 결과적으로 같은 산출을 위해 필요한 개발자 수가 줄어드는 방향으로 갈 가능성이 큼