1P by GN⁺ 9시간전 | ★ favorite | 댓글 1개
  • AI가 가장 많이 위협하는 건 저소득층이 아니라 고학력·고임금 직군: AI 피해는 "쉬운 일자리"가 아닌 "좋은 일자리"에 먼저 닥침
  • 프로그래머가 가장 많이 노출된 직업 1위. 커버리지 75%로 전체 직군 중 최상위인데, 정작 코딩 에이전트를 가장 많이 쓰는 사람도 개발자 본인이라는 역설적 상황
  • AI 때문에 해고되는 사람은 아직 없지만, 신입 채용 문이 조용히 닫히는 중: 기존 직원을 자르는 게 아니라 새로 뽑지 않는 방식으로 AI가 사람을 대체
  • 이론상 AI가 대체할 수 있는 업무의 대부분은 아직 대체되지 않고 있음: 컴퓨터&수학 직군의 경우 이론적 커버리지는 94%지만 실제는 33%에 불과. 앞으로 채워질 공간이 그만큼 크다는 경고
  • 여성과 고학력자가 AI 대체 위험에 더 많이 노출되어 여성 비율이 16%p 높음. 흔히 AI가 "남성 블루칼라 일자리"를 위협한다고 생각하지만, 데이터는 정반대를 가리킴

주요 발견 (Key Findings)

  • ‘관측 노출도(observed exposure)’ 는 LLM의 이론적 가능성과 실제 사용 데이터를 결합해 자동화 중심의 업무 활용 정도를 측정하는 지표
    • 자동화된 사용과 업무 관련 사용에 더 높은 가중치를 부여
  • 실제 AI 사용은 이론적 가능성의 일부에 불과하며, AI가 수행 가능한 작업 중 실제로 사용되는 비율은 낮음
  • 노출도가 높은 직업일수록 미국 노동통계국(BLS)의 2034년까지 고용 성장률 예측이 낮게 나타남
  • 고노출 직업군 종사자는 평균적으로 여성 비중이 높고, 학력이 높으며, 임금 수준이 높고, 연령이 많음
  • 2022년 말 이후 실업률의 체계적 증가 증거는 없으나, 청년층 신규 채용 둔화가 관측됨

연구 배경 및 목적

  • AI의 노동시장 영향을 측정·예측하려는 연구가 급증하고 있으나, 과거 접근 방식의 예측 정확도에는 한계가 있었음
    • 오프쇼어링 취약 직업으로 분류된 일자리의 약 25%가 10년 후에도 견조한 고용 성장을 유지한 사례가 대표적
    • 산업용 로봇의 고용 영향 연구들은 상반된 결론을 내리고 있으며, 중국 무역 충격의 일자리 손실 규모도 여전히 논쟁 중
  • 이 연구의 목표는 AI가 고용에 미치는 영향을 측정하는 접근 방식을 확립하고, 새 데이터가 생길 때마다 주기적으로 분석을 갱신하는 것
  • AI의 영향이 명확해지기 전에 프레임워크를 구축함으로써, 사후 분석보다 경제적 혼란을 더 신뢰성 있게 식별할 수 있음

인과 추론과 비교 기준(Counterfactuals)

  • COVID-19처럼 효과가 크고 급격한 경우 인과 추론이 쉽지만, AI의 영향은 인터넷 확산이나 중국 무역 충격처럼 집계 데이터에서 즉각 드러나지 않을 가능성
  • 일반적 접근법은 AI 노출 수준이 높은 직군과 낮은 직군의 결과를 비교해 혼재 변수로부터 AI 효과를 분리하는 것
  • 이 연구도 태스크 기반 접근법을 따르며, 이론적 AI 능력 측정과 실제 사용 데이터를 결합해 직업 단위로 집계

노출도 측정 방법

  • 세 가지 데이터 소스를 결합:
    • O*NET 데이터베이스: 미국 약 800개 직업의 업무 태스크 목록
    • Anthropic Economic Index 기반 실제 Claude 사용 데이터
    • Eloundou et al.(2023)의 태스크별 이론적 노출도 추정치(β): LLM이 태스크 속도를 2배 이상 높일 수 있으면 1, 추가 도구 필요 시 0.5, 불가능 시 0
  • 이론적으로 가능한 태스크도 실제 사용에 나타나지 않는 이유로는 모델 한계, 법적 제약, 소프트웨어 요건, 인간 검증 단계 등이 있음
    • 예: "약국에 처방 정보를 전달하고 약 재처방을 승인"은 이론적 노출도 β=1이지만 실제 Claude 사용에서는 관측되지 않음
  • 이론적 노출도와 실제 사용은 높은 상관관계를 보이며, 이전 4개 Economic Index 보고서에서 관측된 태스크의 97% 가 β=0.5 또는 β=1 범주에 해당

관측 노출도(Observed Exposure) 지표

  • 관측 노출도는 LLM이 이론적으로 속도를 높일 수 있는 태스크 중, 실제 업무 환경에서 자동화된 형태로 사용되는 비율을 정량화
  • 직업의 노출도가 높아지는 조건:
    • 해당 태스크가 AI로 이론적으로 가능하고 Anthropic Economic Index에서 유의미한 사용 빈도를 보일 때
    • 업무 관련 맥락에서 사용될 때
    • 자동화 비율이 높거나 API 구현 방식일 때 (자동화는 full weight, 증강적 사용은 half weight)
    • AI 영향 태스크가 전체 직무에서 차지하는 비중이 클 때
  • 이론적 커버리지(파란색)와 실제 관측 노출도(빨간색)의 차이는 크며, AI는 이론적 능력에 훨씬 미치지 못하는 상태
    • Computer & Math 직군: 이론적 커버리지 94%, 실제 커버리지 33%
    • Office & Admin 직군: 이론적 커버리지 90%

가장 높은 노출도 직업군

  • 관측 노출도 기준 상위 10개 직업 중 상위 3개:
    • Computer Programmers: 커버리지 75% (코딩에 Claude가 광범위하게 사용됨)
    • Customer Service Representatives: 1st-party API 트래픽에서 주요 태스크가 증가 추세
    • Data Entry Keyers: 소스 문서를 읽고 데이터를 입력하는 주요 태스크에서 자동화가 두드러지며, 커버리지 67%
  • 전체 노동자의 30%는 커버리지 0으로, 태스크가 최소 임계치에 미치지 못함
    • 해당 그룹 예시: 요리사, 오토바이 정비사, 라이프가드, 바텐더, 식기세척원, 탈의실 직원

노출도와 BLS 고용 전망의 관계

  • BLS의 2024~2034 직업별 고용 성장 전망과 관측 노출도를 비교한 결과, 노출도가 높을수록 성장 전망이 약함
  • 커버리지 10%p 증가 시 BLS 성장 전망이 0.6%p 하락 (고용 수준 가중 회귀 기준)
  • Eloundou et al.의 이론적 β 지표만으로는 이 상관관계가 나타나지 않음 → 관측 노출도가 독립적으로 더 유효한 예측 지표임을 시사

고노출 직군 종사자의 인구통계적 특성

  • ChatGPT 출시 직전(2022년 8~10월) 기준, 노출도 상위 25%와 노출도 0% 그룹을 비교:
    • 고노출 그룹이 여성일 확률 16%p 높음
    • 백인일 확률 11%p 높음, 아시아계일 확률은 약 2배
    • 평균 임금이 47% 높음
    • 대학원 졸업자 비율: 비노출 그룹 4.5% vs 고노출 그룹 17.4% (약 4배 차이)

실업률 분석 결과

  • 분석의 우선 지표로 실업률을 선택한 이유: 취업 의사가 있으나 일자리를 찾지 못한 상태를 가장 직접적으로 포착하기 때문
  • 2016년 이후 실업률 추세를 보면, COVID-19 시기에는 비노출(대면 직업 비중 높은) 그룹의 실업률이 훨씬 크게 상승
  • ChatGPT 출시 이후 고노출 그룹의 실업률 변화는 통계적으로 유의미하지 않음 (소폭 증가하였으나 0과 구별 불가 수준)
  • 이 프레임워크로 감지 가능한 시나리오 예시:
    • 상위 10%가 전부 해고될 경우, 해당 그룹 실업률 3% → 43%, 전체 실업률 4% → 13%
    • "화이트칼라 대침체" 시나리오(상위 25%의 실업률이 3% → 6%로 두 배)도 이 분석으로 감지 가능

청년층 채용 둔화 징후

  • Brynjolfsson et al.(2025)은 22~25세 노동자의 고노출 직군 고용이 6~16% 감소했으며, 이는 주로 해고 증가보다 채용 감소 때문이라고 분석
  • 이 연구에서 고노출 직군 청년층의 실업률 자체는 평탄하게 유지됨
    • 채용 감소는 실업률로 나타나지 않을 수 있음: 많은 청년 신규 진입자가 CPS에 직업을 등록하지 않거나 노동시장 자체를 이탈할 수 있기 때문
  • CPS 패널 데이터를 활용해 22~25세의 신규 취업률을 고노출/저노출 직군으로 분리해 추적
    • 2024년부터 고노출 직군 진입률이 시각적으로 하락하기 시작
    • 저노출 직군의 월 취업률은 2%로 안정적이나, 고노출 직군 진입률은 약 0.5%p 감소
    • ChatGPT 이후 시기 평균 추정치: 2022년 대비 고노출 직군 취업률 14% 하락 (통계적으로 겨우 유의미한 수준)
    • 25세 초과 노동자에게서는 이 같은 감소가 관측되지 않음
  • 다만 대안적 해석도 존재: 채용되지 않은 청년층이 기존 직장에 머물거나, 다른 직업을 택하거나, 학업으로 복귀했을 가능성

연구의 한계 및 향후 계획

  • 현재 사용된 Eloundou et al. 지표는 2023년 초 LLM 능력 기준으로 업데이트 필요
  • 향후 Claude 사용 데이터를 지속적으로 반영해 태스크·직업별 커버리지 추이를 업데이트할 계획
  • 고노출 분야 학위를 가진 최근 졸업생이 노동시장에서 어떻게 대응하는지 추적하는 것이 핵심 후속 과제
  • 이 프레임워크는 다른 사용 데이터와 타국의 컨텍스트로 확장 적용 가능
Hacker News 의견들
  • 지난 10년간 Big Tech에서 일하다가 한 달 전에 퇴사했음
    회사 밖에서 일하니 생산성이 50배는 오른 느낌임
    AI가 생산성에 미치는 영향을 보면, LLM은 (1) 보일러플레이트 코드 작성, (2) 언어 간 코드 변환, (3) 새로운 개념 학습과 요약, (4) 문서화 같은 단순 작업에 강함
    하지만 대기업에서는 이런 일이 자주 일어나지 않음. 대부분은 회의와 시스템 통합에 시간을 씀
    AI가 진짜 도움이 된 건 해커톤 때뿐이었음. 그 외에는 오히려 일이 늘었음
    반면 독립적으로 일할 때는 네 가지 모두에서 큰 생산성 향상을 체감함. 법적 문제나 배포 버그 걱정도 덜함
    결국 “누가 쓰느냐”에 따라 AI는 게임 체인저일 수도, 아닐 수도 있음

    • 우리 회사는 거의 모든 내부 업무에 AI를 씀
      하지만 AI에게 인생의 root access를 주면 실망만 남음. AI는 항상 아키텍트의 통제가 필요함
      나는 AI가 이메일을 작성하게 하지만, 전송은 내가 직접 함. 데이터 접근은 허용하되 최종 결정은 내가 내림
      MongoDB 시절의 교훈 덕분에 신기술에 신중하게 접근함. 지금은 Elixir로 직접 래퍼를 만들고, Ash framework와 Phoenix로 자동화를 구축했음
      여러 모델을 병렬로 써서 한 회사가 내 데이터를 전부 알 수 없게 함. 진짜 과제는 프라이버시
    • 스타트업 창업자이자 초기 멤버로 일해본 입장에서, FAANG 출신만 경험한 사람들은 작은 팀의 소유 기반 생산성을 잘 모름
    • 나도 (1)과 (3)에 가장 많이 의존함. LLM은 일종의 강화된 Stack Overflow 같음
      하지만 대기업에서는 코드 작성이 전체 업무의 20% 정도라, 나머지 80%가 여전히 병목임
    • 결국 조직 규모가 커질수록 병목은 조율 비용에서 생김
    • 흥미로운데, 수익을 내고 있는지 궁금함. 수익이 없다면 그건 취미 생산성일 뿐, 노동 시장의 생산성이라 부르긴 어려움
  • AI로 생산성 향상을 못 느낀다는 사람들에게 묻고 싶음, 어디서 막히는지?
    나는 이전 댓글에 워크플로우를 설명했는데, 레거시 코드베이스에서도 절반의 단계를 줄였음
    이제는 거의 코드를 직접 안 쓰고, LLM이 제안한 변경을 검토만 함. 결과가 무섭게 좋음

    • 해고하는 회사들은 비전이 없음. 우리 비영리 조직은 오히려 채용 중
      일이 빨라졌다면 더 많은 일을 하면 됨. 수익을 지역사회에 환원하며 실질적 가치를 만들어냄
    • LLM은 보일러플레이트 코드나 낯선 코드베이스에서 시작점을 잡을 때 유용함
      하지만 복잡한 코드에서는 오히려 품질 저하로 이어짐. 유지보수 가능한 코드를 원하면 직접 하는 게 낫음
    • 이번 릴리스에서 Claude Code와 Codex로 기능을 구현했는데, 버그 폭발로 이어짐
      초기 구현은 빨랐지만, 디버깅 단계가 훨씬 오래 걸릴 듯함
    • AI에게 feature flag 정리 작업을 맡겼는데, 사람이 3분 걸리는 일을 15분에 끝냄
      지시를 무시하고 코드 정리를 엉망으로 해서 오히려 비용이 5배로 늘었음
      그래도 12월 이후 개선됐다는 말이 있어 다시 시도해볼 예정
    • 실패율이 너무 높음. 단순 CRUD 수준을 넘어서면 환각과 과잉 코드 작성이 심함
      Stack Overflow 대체 수준에 머물러 있음
  • 나는 코드 작성보다는 운영과 유지보수를 담당함
    지금까지 AI는 내 업무에 거의 영향을 주지 못했음. 오히려 Docker가 훨씬 큰 변화를 줬음

    • AI는 예전의 좋았던 검색엔진 수준임. 게임 개발에서는 거의 쓸모없음
      기본 함수도 잘못 만들고, 논리 오류가 잦음
    • 운영 쪽에서도 비슷함. 이메일은 AI가 써주지만, 전체 프로세스는 그대로임
      클라우드, Terraform, Ansible 같은 기술들이 훨씬 더 큰 변화를 줬음
    • 이건 80년대 생산성 역설(Productivity Paradox) 과 비슷함
      위키 문서처럼, 기술은 보이지만 통계에는 안 나타나는 시기임
    • 우리 회사는 AI 도입으로 6개월 로드맵을 몇 주 만에 끝내는 수준임
      이제는 PM과 엔지니어링 매니저 감축까지 검토 중임. 35년 커리어 중 가장 큰 변화임
    • 나도 생산성은 올랐지만 피로감이 커졌음
      작은 NGO라서 AI 덕분에 더 많은 일을 같은 자금으로 처리함. 덕분에 학습 속도와 품질도 향상됨
      하지만 일의 양은 줄지 않음. 오히려 더 많은 일을 하게 됨
  • 개발자로서 생산성이 두 배로 늘었지만, 업무량은 그대로
    기대치가 함께 올라가서 결국 일정만 압축된 셈임

    • “결코 쉬워지지 않는다, 단지 더 빨라질 뿐”이라는 사이클리스트 명언이 떠오름
    • AI가 일을 줄여주진 않음, 대신 동료 한 명을 대체
    • 개발이 백로그와 기술 부채를 앞지른 적은 없음
    • 관련 개념으로 Jevons Paradox 참고
    • 목표는 언제나 주어진 시간 안에 최대한 많이 완수하는 것임
  • 지금 진행 중인 프로젝트는 AI 없이는 시도조차 못 했을 규모
    하지만 여전히 LLM의 출력을 완전히 신뢰하지 않음. SwiftLint 돌리기도 두려움
    그래도 프로젝트 속도는 엄청나게 빨라졌음. 예전엔 2년 걸리던 걸 한 달 만에 절반 이상 완성함

    • 나는 vibe-coder인데, 나 혼자 쓰는 앱은 여러 개 출시했음. 혼자일 때는 충분히 가능함
    • 나도 LLM을 완전히 신뢰하지 못함. 그래서 Cursor처럼 diff를 직접 검토할 수 있는 UX를 선호함
    • 코드가 린터를 통과하도록 hook 자동화를 쓰지 않는 이유가 궁금함
  • AI의 실제 영향은 크지 않다고 봄
    AI를 잘 쓰는 사람은 살짝 더 생산적이지만, 그걸 드러내면 업무가 10배 늘어남
    진짜 변화는 인디 개발자나 프리랜서에게 있음

    • 회사는 채용을 멈추고 토큰 예산만 늘림, 효과는 불분명함
    • 만약 모두가 10배 생산적이라면 Electron이 아닌 네이티브 앱이 나왔어야 함. 현실은 그렇지 않음
    • 2025년 12월 이후 수치 변화를 지켜보고 싶음
  • AI 제품을 파는 회사의 말은 신뢰하지 않음

    • 자기 제품의 장기 전망을 부풀리는 지표를 새로 만들어낸 게 웃김
    • IPO를 노리고 있음
    • 결국 이런 기술은 대중이 아닌 기업 의사결정용 도구로 귀결됨
  • 마케팅 부서 동료는 회사 승인 LLM(Gemini)으로는 가짜 업무만 하고,
    진짜 일은 개인 계정의 Claude로 처리함
    이유는 회사가 프롬프트를 수집해 자신의 대체 모델을 학습시킬까 두렵기 때문

    • 하지만 실제로는 개인 계정이 학습에 쓰일 가능성이 더 높음. 완전 유료 계정이 아니면 프롬프트 학습 제외가 안 됨
  • 회사에서 주니어 채용을 중단했음
    이제는 그들이 하던 일을 AI에게 맡기는 게 더 효율적임
    다만 이건 일시적 조정기임. 앞으로 전문성의 형태가 바뀌면 다시 채용이 재개될 것임

    • 오히려 AI를 잘 다루는 저비용 주니어를 더 뽑는 게 합리적임
      문제는 AI가 아니라 수익 구조와 같은 거시경제 요인임
  • 혹시 Claude 로그에서 노출 빈도만으로 영향력을 추정한 건 아닌지 의문임
    그건 마치 스네이크 오일 판매자가 자기 고객을 조사해 “의사가 필요 없다”고 주장하는 꼴임
    데이터 해석이 완전히 왜곡된 전제 위에 서 있음