Hacker News 의견들
  • 대기업 환경에서는 AI 도입이 개발팀 밖으로 거의 나가지 못했고, 개발자만 GitHub Copilot을 쓸 수 있음
    코드가 커밋에서 운영 배포까지 가는 데 6~12개월이 걸리며, 개발 속도는 원래 병목이 아니었음
    시간이 걸리는 건 인프라 프로비저닝, 테스트, 승인, 변경 관리, 배포 일정 같은 절차이고, AI는 개발 이후 병목을 더 악화시켜 변경 사항이 릴리스 열차 앞에 쌓이게 만듦
    대기업이 토큰 비용의 투자수익률을 확보하려면 소프트웨어를 더 빨리 배포하는 법을 배워야 하며, 배포되지 않은 코드는 자산이 아니라 부채임

    • 경영진은 아직도 소프트웨어를 조립 라인처럼 보고, “Ford가 자동차를 만들듯 소프트웨어를 만든다”고 생각함
      소프트웨어 개발이 비효율적인 건 맞지만, 핵심은 코드 작성이 아니라 어떤 코드를 써야 하는지 알아내는 조사와 설계인데 이 부분은 잘 고려되지 않음
      Microsoft가 “코드 50% 더 빠르게!”라고 외치면 경영진은 “제품도 50% 더 빠르게, 돈도 50% 더 빠르게”라고 받아들임
      투자수익률을 요구하는 순간 재앙이 될 가능성이 크고, 지금은 모두가 측정을 피하고 있을 뿐임
      언젠가 투자자는 “200만 달러를 썼으니 순이익 400만 달러를 내라”고 요구할 텐데, 그런 결과는 나오기 어려움
      Copilot과 Claude는 오래된 조직 지식, 문서화되지 않은 특수한 해결책, 미래 활용 가능성 같은 진짜 병목을 해결하지 못함
      코드는 진짜 제품도, 진짜 일도 아니며, 건강한 코드베이스에서는 설계와 조사 과정의 거의 공짜 산출물에 가까움
      “구매팀이 검색을 쓰기 어렵다”를 실용적인 티켓으로 다듬고 나면 React 검색 필터 컴포넌트는 사실상 이미 정해진 것이고, 코딩은 10분짜리 형식 절차에 가까움
      Copilot이 그걸 5분으로 줄여도, 그 전에 들어간 6시간 회의와 통화를 생각하면 별로 인상적이지 않음
    • 대기업은 아직 코드는 적을수록 좋다는 기본도 배우지 못했으니, 소프트웨어를 더 빨리 배포하는 같은 더 고급 개념을 갑자기 배울 거라고 기대하기 어려움
    • 충분히 큰 시스템에서는 코드가 더 많아지는 것이 실제로 필요한 것과 반대가 되는 지점에 도달함
      영양과 칼로리도 어느 선까지만 유용하고 이후에는 수익이 줄다가 결국 부정적 효과가 생김
      완벽한 비유는 아니지만, 더 많이 찍어내는 것이 오히려 더 적은 가치를 낳는다는 사고 모델을 잡는 데 도움이 됨
      고객에게서 문서가 완전하고 자세하지만 너무 압도적이라는 피드백을 받았고, 결국 핵심을 전하는 짧은 bullet point 몇 개가 5쪽짜리 문서보다 낫다는 걸 알게 됨
    • 오래된 것이 다시 새로워졌을 뿐임: 제약 이론의 AI 시대판
      [0] https://en.wikipedia.org/wiki/Theory_of_constraints
      [1] https://www.goodreads.com/book/show/113934.The_Goal
      [2] https://www.goodreads.com/en/book/show/17255186-the-phoenix-...
    • 오늘날 더 큰 대기업 환경에서는 AI 도입이 더 나쁜 방향으로 꺾인 것처럼 보임
      재무팀에서 Copilot, Cursor, Claude로 재무 계획용 앱을 바이브 코딩해도 되냐고 물어왔고, “CFO가 Lovable을 테스트해보고 확신해서 우리에게 앱을 바이브 코딩하라고 했다”는 이유까지 들고 왔음
      경영진이 “CFO가 말했다”는 말만 나오면 얼어붙는다는 걸 알고 그 논리를 앞세운 셈임
      마지막에는 “적절한 데이터 보안과 유지보수성을 갖춘 바이브 코딩 앱이 기업 재무 영역에 존재할 수 있는지 확인해봐야 한다”는 그럴듯한 포장까지 붙였음
      이게 연매출 200억 달러가 넘는 회사에서 나온 reasoning이라는 점이 더 놀라움
  • 나 같은 평범한 엔지니어에게 회사에서 AI를 쓰는 건 실질적인 이점이 없음
    회사가 우리를 서서히 끓이고 있고, HN의 엘리트층인 투자자, 임원, 유명인, 최상위 엔지니어들은 “혁신에 어떻게 반대할 수 있냐”고 말할 것임
    AI/LLM은 TCP/IP, Linux, Postgres 같은 방식의 혁신이 아님
    Claude, Codex, Gemini, Grok 같은 것들은 이윤을 위해 존재하며, 생산성을 마지막 한 방울까지 짜낸 뒤 더 이상 필요 없으면 해고 가능하게 만드는 도구임
    AI가 좋다면 오픈소스 모델을 쓰고 개인 프로젝트에서 쓰는 편이 낫다

    • 게임이 끝나는 게 아니라 바뀌는 중임
      AI는 코드를 많이 뿌릴 수 있지만, 실제로 무슨 일이 벌어지는지 이해하는 엔지니어는 여전히 필요하고, 그게 늘 병목이었음
      주니어 포지션은 사라질 수 있지만 시니어 엔지니어는 당분간 괜찮아 보임
      나도 원래 반골이라 어렵게 배운 교훈인데, 고용된 이상 경영진이 원하는 일을 하라고 고용된 것임
      저항한다면 그들이 눈치채지 못하거나 신경 쓰지 않기를 바라는 수밖에 없고, 큰 변화는 만들기 어려움
    • 이점은 일이 훨씬 쉬워진다는 것 아닌가? 내가 뭘 놓치고 있는지 모르겠음
    • 자본가에게 엔지니어가 착취당한다는 서사는 있지만, 임원 관점에서 봐도 “다음 분기 보너스”를 빼면 이 모든 게 미친 짓처럼 보임
      SCO가 망해가며 업계에 무슨 일을 했는지 기억하는지 모르겠음
      기업들이 내부의 비밀 정보인 코드, 프로세스, 고객 요구, 내부 정치, 리더십의 구상을 스타트업과 믿기 어려운 대기업 손에 넘기는 부분이 여전히 이해되지 않음
      Microsoft도 한때 비밀유지계약과 거래 남용으로 유명했음
      LLM 거대 기업들이 기업 자료로 학습하지 않을 리 없고, 아니라고 거짓말하지 않을 리도 없다고 봄
      그들이 무너지기 시작하면 이 골드러시는 길고 추한 꼬리를 남길 수 있음
    • CEO가 직원들을 어떻게 생각하는지, 해고가 왜 일어나는지에 대해 Hacker News에는 왜곡된 생각이 많아 보이고, 이건 아주 나쁜 해석임
      실제로 해고되는 건 이런 기술을 도입하지 않는 쪽이고, 그렇게 행동하면 스스로 해고 범위 안에 들어가는 셈임
      오늘 Coinbase 사례만 봐도, 미래를 받아들이지 않는 사람들을 정리하고 있음
      그들은 발전을 돕지 않고, 앞으로 밀어붙이지도 않으며, 그렇게 하는 사람들을 붙잡기 때문임
  • 글에서 messy middle을 정확히 짚었음
    자기 책임과 일자리가 걸린 개발자가 이런 지능 루프를 만들 동기는 거의 없음
    경영진이 아무리 좋게 부탁해도, 내 생산성 향상을 회사 전체에 무료로 이타적으로 공유할 생각은 없음
    유용한 도구라면 공유할 수도 있지만, AI를 다루는 법이나 에이전트를 설정하는 법을 배우는 노하우는 공유에 대한 인정이 없다면 혼자 간직하는 편이 낫다
    우리 회사는 도입 확산을 위해 “이번 주의 프롬프트” 상과 점심 세션을 만들었고, 이런 흐름을 개발하는 팀도 있음
    하지만 실제 금전적 보상이나 고용 안정 없이 지식을 퍼뜨리는 위험과 비용은 전적으로 개발자에게 떨어짐

    • 많은 사람이 왜 이렇게 생각하지 않는지 이해가 잘 안 됨
      지금 AI가 이 정도가 되기 훨씬 전에도 업무를 쉽게 하고 자동화 스크립트를 작성하기 좋게 만들려고 개인 CLI를 만들었음
      동료들이 그 도구를 보고 공유하라고 했지만, 외교적으로 표현한 답은 거절이었음
      공유하면 지원 부담이 생기고, 모두가 나만큼 생산적으로 일하게 되어 내 이점이 사라지는 부정적 수익이 생김
      더구나 리더십은 내 창의성을 자산으로 인정하지 않으니 고용 안정도 늘지 않음
      가까운 미래에 어차피 해고될 수 있는데 선의로 회사를 도울 생각은 없음
      지금 시장에서 개발자들이 일자리를 걱정한다면 개인 워크플로는 영업비밀처럼 다뤄야 함
      이 예시는 AI에 한정된 건 아니지만 AI 워크플로에도 똑같이 적용됨
      노동자 우위 시장에서는 그런 지식을 조직과 공유하는 게 가끔 재미있었지만, 고용주 우위 시장에서는 내 개인 선택에 접근하고 싶다면 돈을 내야 함
    • 직장을 적대적으로 대해야 하는 건 별로지만, 회사가 “모두가 이렇게 생산적이고 많은 걸 달성하는데 왜 이렇게 사람이 많지?”라는 제로섬 사고방식을 갖는 한 어쩔 수 없음
      직장을 가족이라고 보는 사람은 아니지만, 내 무덤을 파는 건 아닌지 걱정하지 않고 서로 일을 잘하고 공유할 수 있으면 좋겠음
    • 고용주가 시간을 무료로 이타적으로 공유하길 기대한다면 착취당하는 것임
      대부분의 사람은 일을 하라고 임금을 받고, 근무 시간에는 당연히 고용주를 위해 일해야 함
    • 숨겨진다는 “비밀”들은 대체로 Gary Tan의 초강력 프롬프트 목록과 비슷한 수준임
      사실 남들이 생각해낼 수 없을 만큼 대단한 건 거의 없음
      내 경험상 프롬프트나 기술을 공유해도 쓰는 사람이 별로 없거나, 너무 기본적이라 이미 각자 자기 버전을 갖고 있었음
      AI 전에도 누군가 xyz에 관심이 없었다면, 은쟁반에 담아 가져다줘도 AI 이후에 갑자기 관심을 갖지는 않음
    • 또 다른 관점은 AI 도구가 처음에는 개인에게 이익을 주고, 사용자가 늘어난 생산성을 여유 시간으로 가져간다는 것임
      지루한 일이 거의 사라지고, 어떤 문제는 넘겨두면 처리되면서 하루에 1~4시간이 되돌아옴
      그 사람이 합리적으로 그 시간을 써서 더 많은 일을 찾아 나설까? 자기 회사이거나 특별한 동기가 있지 않은 한 그럴 가능성은 낮음
  • 은퇴한 지 3년 된 시스템 분석가로서 젊은 동료들이 안쓰럽게 느껴짐
    2023년에 팀에서 비교적 먼저 AI를 써서, 원 작성자가 오래전에 떠났고 주석이나 문서를 거의 남기지 않은 Perl 기반 레거시 코드를 풀어냈음
    그 코드는 중요한 업무를 수행했고, AI가 곤경에서 꺼내줘서 모두가 이 신기술에 감탄했음
    하지만 갈수록 이것은 내가 쓸 수 있는 도구라기보다 나에게 가해지는 무언가처럼 보임
    아무도 이런 걸 요청하지 않았음
    모든 것을 즉시 처리한다는 명목으로 영감과 사고가 언제부터 평가절하되고 무가치해지는 건지 모르겠고, 일에 영혼이 없어졌음

  • AI 자체만으로는 그다지 유용하지 않음
    에이전트는 잊어버리고 실수도 충분히 많이 해서 모든 작업을 확인해야 하며, 결과적으로 생산성이 오히려 낮아질 수 있음
    진가를 발휘하는 건 AI를 다른 도구를 만드는 도구로 다룰 때임
    예를 들어 작업이 특정 품질에 도달할 때까지 계속 진행하게 강제하는 도구를 만들게 하거나, 출력에 대한 준수 검사를 실행해 어디를 고쳐야 하는지 알려주게 하는 식임
    그때야 비로소 작업을 신뢰할 수 있음
    지금 대부분의 역할과 워크플로는 주어진 도구를 다뤄 특정 일을 해내는 구조로 설계되어 있고, 그런 체제에서는 AI가 가장자리에서만 끼어들 수 있음

  • 좋은 글이고, 조직이 일을 정의하는 방식이 바뀐다는 부분이 특히 눈에 띄었음
    예전 모델에서는 성과와 OKR이 직무 분야, 직함, 역할별 기대치에 묶여 있었음
    AI 시대에는 그 경계가 무너지기 시작함
    더 깊은 문제는 심리적·조직적이며, 사람들은 “이건 내 일이다”와 “이건 내 책임이 아니다” 사이의 선을 계속 협상하게 됨
    그래서 핵심 도입 문제가 생김: AI 고급 사용자로 눈에 띄게 인정받는 것의 이점이 무엇인가?
    내가 더 빠르고, 더 잘하고, 더 여러 기능을 넘나들어 일할 수 있다는 걸 알게 된다면, 회사가 인정·보상·커리어 성장을 위한 명확한 체계를 만들지 않는 한 왜 그걸 드러내야 하나?

    • 결국 운영 장애를 고치고 유지보수할 책임이 있는 사람이 소유권을 갖게 됨
      에이전트들이 그 경계를 넘나드는 세상에서는 꽤 지저분해질 수 있음
      에이전트 떼를 거느린 AI 엔지니어가 모든 걸 계속 운영할 책임까지 질까? 꽤 의심스럽지만 지켜봐야 함
    • AI 고급 사용자에게 보상하는 체계를 만들면, 그 커리어 자체가 문제가 될 수 있음
      그런 새 직업에 끌린 누군가가 회사별 맥락에 대한 조언을 몇 주 더 최신 접근법과 결합하면, 결국 그 사람은 제거될 도메인 전문가 역할에 놓이게 됨
    • 팀원이 그런 것들을 기본값으로 해내기 시작하면, 그 사람과 나머지 팀 사이의 격차가 드러나기 전까지는 괜찮을 뿐임
  • “작년에 Anthropic에 낸 200만 유로의 투자수익률은 어디 있나?”에 대한 답은, CEO 사무실에 걸린 YouTube 스타일의 플래티넘 토큰 명패

  • “작년에 Anthropic에 낸 200만 유로의 투자수익률은 어디 있나?”라는 질문에 깔린 가정의 편향이 정말 황당함
    문제는 생성형 AI가 눈에 보이는 투자수익을 만들지 못한다는 것임
    그런데 “해결책”은 개발 조직 전체를 그 기술 중심으로 재배치하고 새 도구를 발명하라는 식임
    이런 글의 진짜 목적은 겉으로 다루는 내용이 아니라, 그 논의가 바탕으로 삼는 가정의 정상화에 있음

    • LLM은 실패할 수 없고, 실패한다면 당신이 실패하게 만든 것뿐이라는 식임
  • 지금 이 분야에서 일하는 건 정말 별로임
    내가 다니는 회사에서는 상사들이 개발자가 아닌 사람까지 모두 AI를 쓰게 놔둠
    정말 그만두고 다른 분야에서 일하고 싶지만, 내가 사는 곳에서는 초봉으로 월세를 감당할 수 없고 나이도 들어가고 있음

  • AI의 약속을 닷컴 붐과 비교해 보면 이해에 도움이 됐고, 비슷한 점이 많음
    하지만 인터넷은 기업 입장에서 더 단순한 개념이었음
    기본적으로 이제 사람들이 자기 컴퓨터에서 물건을 살 수 있다는 뜻이었음
    AI의 약속은 무엇인가? 사물에 대한 추론을 근사할 수 있다는 것인가?
    이것은 진짜로 풀기 훨씬 어려운 구현 퍼즐임
    코딩 작업 밖에서는 아직 실질적인 무언가를 본 적이 없는 것 같음