Hacker News 의견들
  • 이 저자가 정리한 1983년 Bainbridge 논문 요약이 정말 마음에 듦
    산업 자동화의 ‘아이러니’ 를 AI 에이전트에 적용해보려 했지만 이렇게 명확히 정리하진 못했음
    논문 자체는 짧지만 밀도가 높아 읽기 어렵고, 원문 PDF를 따라가며 읽을 가치가 있음
    특히 “현재의 자동화 시스템은 과거 수동 작업자의 기술 위에 서 있다”는 문장이 핵심임
    즉, AI를 잘 쓰려면 숙련된 프로그래머가 필요하지만, 그 숙련도를 얻으려면 직접 프로그래밍을 해야 한다는 첫 번째 아이러니를 보여줌
    통찰이 가득한 글이라 강력히 추천함

    • 논문이 말한 것보다 지금 상황이 더 심각하다고 느낌
      예술·글쓰기 같은 문화적 산출물은 본질적으로 문제 해결이 아니라 표현 행위임
      그런데 AI가 이런 데이터를 학습에 쓰면서 창작자들의 노동과 보상을 대체하고, 동시에 학습 데이터의 ‘공유지’를 오염시키고 있음
      결국 창작자에게 비용을 지불해야 하거나, 아니면 모델이 점점 현대 문화 현실에서 멀어질 것임
      지금은 단지 그 결과가 나타나길 기다리는 순환적 문제의 시점에 있음
    • 프로그래머가 AI를 다루기 전에 먼저 수작업으로 소프트웨어를 만드는 훈련을 거쳐야 한다고 생각함
      이후에도 일정 비율의 시간을 ‘수동 프로젝트’ 에 투자해 기술을 유지해야 함
      하지만 이렇게 하면 정말로 속도가 빨라지고 세상이 좋아지는지 의문이 남음
    • 경제적 관점에서 보면 지금은 마치 실속 없는 상승 비행 같음
      LLM이 놀라운 수준에 도달했지만, 새로운 추상화나 패러다임을 만들지 않고 단지 잘 만들어진 부산물만 생산함
      그래서 인간이 새로운 방법론을 만들 필요성을 덜 느끼게 됨
      언젠가 추론형 LLM이 이 문제를 해결할지도 모름
    • 저자의 결론이 오늘날 더 와닿음
      AI 자동화는 인간의 어려움을 없애지 않고 다른 곳으로 옮겨놓음
      오히려 더 눈에 띄지 않게 만들고 위험을 키움
      결국 인간이 개입해도 후속 조정이 많이 필요함
    • 지금은 이미 Bainbridge가 말한 ‘후세대’의 시점임
      과거 수동 작업자들은 은퇴했고, 오늘날의 공장 운영자는 수동 조작 경험이 없음
      대신 ‘기계가 고장 났을 때 무엇을 해야 하는가’에 대한 기술을 가짐
      완전 수동 조작이 불가능한 시스템도 많지만, 공장 자동화는 여전히 성공적이며 덕분에 제품이 싸고 풍부해졌음
  • 글은 AI 에이전트 사용 시 생기는 두 가지 문제를 다룸
    첫째, 에이전트가 잘못할 때 인간 전문가가 즉시 개입해야 하지만, 직접 작업을 안 하다 보니 전문성 퇴화가 빠름
    둘째, 전문가가 에이전트 시스템의 관리자가 되어야 하지만, 익숙하지 않은 역할이라 직무 소외감을 느낌
    결국 자동화는 효율을 높이지만 인간의 개입을 더 어렵게 만들어, 완전한 대체보다는 복잡성을 키움

    • 이런 문제는 새롭지 않다고 느낌
      예전에 Excel 리포트를 PowerBI로 자동화했는데, 몇 달 동안 결과가 틀렸음
      자동화되니 검증 본능이 사라졌고, 오류 추적이 훨씬 힘들었음
      그래서 자동화할 때는 검증 루틴을 반드시 남겨야 함을 강조함
    • 요즘 세대의 기술 습득 방식이 떠오름
      터치스크린 세대는 문제없이 쓸 수 있지만, 뭔가 잘못되면 옛 세대가 훨씬 유리함
      AI도 마찬가지로, 완벽하지 않다면 결국 전문가의 개입이 필요함
      다만 그 역할은 자동차 정비사처럼 드물게 등장하는 형태가 될 것임
    • 예전에 용접 공장에서 유일한 자격 용접사로 일했음
      자동화가 진행돼도 여전히 인간 기술이 필요했음
    • 실패가 드물수록 인간이 그 실패를 찾는 일이 더 지루해짐
      AI가 대부분 괜찮은 계획을 내놓지만, 가끔 치명적 오류를 포함할 때 이를 잡아내는 게 사람의 몫임
    • 자동화는 일을 줄이지만 복잡성을 늘림
      결국 또 다른 자동화가 이를 덮고, 그 위에 또 자동화가 생김
      이런 순환 구조를 보면 마르크스의 자본론을 다시 읽어야 할 것 같음
  • “계산기는 빠르고 정확하지만, 우리는 여전히 수학 원리를 배워야 한다”는 점을 떠올리게 하는 글이었음
    프로그래밍 자동화는 단순한 계산기보다 훨씬 핵심 경로에 놓여 있어, 기술 퇴화의 위험이 큼

    • 계산기와 AI를 비교하는 건 적절치 않음
      AI는 문제를 포기하지 않기 때문에, 전문가의 필요성은 항상 존재함
    • 계산기는 단순히 계산만 하지, 생각은 대신하지 않음
      중요한 건 어떤 수를 계산해야 하는지를 아는 능력임
    • 이미 세대별 프로그래밍 기술 퇴화가 진행 중임
      젊은 개발자들은 기본 루틴도 직접 못 짜고, C 드라이버를 다룰 수 있는 사람도 거의 없음
  • 흥미로운 글이지만, 실제로는 프로그래머가 AI의 오류를 잡는 사람으로만 인식된다는 점이 아쉬움
    실제로는 여전히 대부분의 시간을 AI를 프로그래밍하는 데 씀
    AI는 무엇을 만들어야 하는지, 언제 기존 것을 바꿔야 하는지 모름
    결국 제조업과 달리, 프로그래밍에서는 여전히 사람이 생산 파이프라인을 설계해야 함

  • 항공 산업은 이미 이런 자동화의 아이러니를 오래 다뤄왔음
    자동 조종 장치가 대부분의 비행을 수행하지만, 조종사는 매달 수동 착륙 훈련을 함
    덕분에 기술을 유지하면서도 자동화의 이점을 누림

    • 하지만 항공은 규제와 안전 인센티브가 강해 수천 시간의 수동 훈련이 가능함
      반면 소프트웨어 업계는 단기 생산성이 우선이라 이런 훈련을 장려하지 않음
      나도 개인적으로는 수동 코딩을 계속할 계획이지만, 업계 전반이 그렇게 하긴 어려움
      참고로 항공에서도 이 문제는 여전함 — 대표적인 사례가 Air France 447편 추락 사고
      관련 글: The Long Way Down – Air France Flight 447
  • Bainbridge 논문도 흥미롭지만, 이후 나온 “Children of the Magenta” 강연이 더 실용적임
    YouTube 영상에서 조종사 자동화 교육을 다룸
    현대 전투기(F-22, F-35 등)는 조종보다 전투 수행에 집중하도록 설계됨
    예전에는 착륙 훈련이 대부분이었지만, 이제는 컴퓨터 보조로 안정화되어 조종사는 전략적 판단에 집중함
    프로그래밍에서도 마찬가지로, AI가 발전할수록 인간은 전술적 문제 분석에 더 많은 시간을 쓰게 될 것임

  • AI 코딩 보조를 자동차 SAE 자동화 단계로 비유하면 이해가 쉬움
    지금은 Level 2~3 수준으로, 인간의 감독과 책임이 여전히 필요함
    완전 자동화(Level 5)에 도달하기 전까지는 이 과도기가 가장 위험함
    결국 경쟁 압력으로 인해 모두 Level 4 이상으로 가거나 도태될 것임

  • “리더십 역할을 맡기 전에 충분한 리더십 교육을 받는다”는 말에 의문을 가짐
    실제로는 그런 경우가 드묾

  • 나도 기술 퇴화를 느끼고 있음
    첫 반응이 LLM을 쓰는 것이라, 마치 운동이나 식단 관리처럼 의식적 절제력이 필요한 시대가 됨
    일부만이 이 균형을 잘 유지할 수 있을 것임

    • 나는 LLM을 코딩에 쓰지만, 코드의 의미를 이해해야 할 때는 사용하지 않음
      이건 절제의 문제가 아니라, 최소한의 이해선을 지키는 문제임
    • 이건 단순히 즉각적 보상 중독처럼 들림
    • 6개월 동안 코드를 안 썼지만, 여전히 1980년대의 6502 머신 코드를 기억하고 있음
  • “잘 안 되면 프롬프트를 더 잘 써야지”라는 말이 너무 익숙함
    이게 바로 지금의 AI 사용자 책임 전가를 보여주는 문장임