2P by GN⁺ 1일전 | ★ favorite | 댓글 1개
  • 정치적 동기의 폭력까지 나타날 만큼 AI와 데이터센터를 둘러싼 반감이 커졌고, AI 기업 CEO 자택 화염병 공격과 데이터센터 지지 시의원 자택 총격 사건이 함께 벌어짐
  • 전문가 낙관론과 대중 인식 사이의 간극도 크게 벌어져서, 일자리와 경제에 대한 AI의 장기 효과를 긍정적으로 보는 비율이 일반 대중에서 훨씬 낮게 나타남
  • 극단적 미래상과 대규모 투자 요구는 이미 불안정한 고용과 생활비 상승, 전기요금 부담 우려와 맞물리며 AI를 원치 않는 대중에게 밀어붙이는 대상으로 보이게 만듦
  • 생산성 약속은 아직 뚜렷하게 입증되지 않았고, 다수 기업이 AI 도입 뒤 생산성 향상을 체감하지 못했으며 많은 파일럿 프로그램도 수익을 내지 못함
  • 신뢰 회복에는 백서나 홍보보다 검증 가능한 행동, 실제 성능에 대한 투명성, 규제와 책임 수용, 데이터센터 확대 과정의 지역 참여가 더 중요해짐

커지는 반발과 폭력의 징후

  • OpenAI CEO Sam Altman의 집이 화염병 공격을 받았고, 용의자는 AI의 실존적 위협을 경고하는 선언문을 남김
    • 용의자는 같은 날 체포됐고, 관련 내용은 SF Standard 보도에 실려 있음
    • 선언문에는 AI 기업 CEO를 죽여야 한다는 문구와 함께, Instagram에서 자신을 “butlerian jihadist”라고 부른 표현이 담김
  • Indianapolis에서는 지역 민주당 시의원 Ron Gibson의 집에 13발 총격이 가해졌고, 현관 앞에는 “No Data Centers”라는 메모가 남겨짐
    • 당시 집에는 8세 아들이 있었지만 다치지 않음
    • Gibson은 자신의 지역구에 들어설 가능성이 있는 데이터센터 프로젝트를 지지해 왔고, 관련 내용은 PBS NewsHour에 정리돼 있음
  • 두 사건 모두 정치적 동기의 폭력으로 묘사되며, 소셜미디어에서는 이를 즐기는 듯한 반응까지 드러남

대중과 업계 사이의 인식 격차

  • Stanford의 Artificial Intelligence Index 2026에서 전문가 낙관론과 대중 인식 사이의 큰 간극이 드러남
    • 일자리의 장기적 영향에 대해 전문가는 73퍼센트가 긍정적이었고, 경제 영향에 대해서도 69퍼센트가 긍정적으로 봄
    • 일반 대중은 같은 항목에서 각각 23퍼센트, 21퍼센트만 긍정적으로 봤고, 미국인의 거의 3분의 2는 향후 20년 동안 AI가 일자리를 줄일 것으로 봄
  • Gallup의 2026년 3월 조사에서는 Gen Z의 AI 회의감이 더 강해짐
    • AI에 흥분을 느낀다는 비율은 36퍼센트에서 22퍼센트로 내려감
    • AI에 분노를 느낀다는 비율은 22퍼센트에서 31퍼센트로 올라감
  • 이런 흐름은 AI를 평범한 기술이 아니라 엘리트 정치 프로젝트로 보는 반발과 맞물림
    • Jasmine Sun은 이를, 동떨어진 억만장자들이 원치 않는 대중에게 밀어붙이는 대상으로 보는 세계관으로 정리

반발을 키운 업계의 메시지와 현실 비용

  • AI 업계 주요 CEO들은 오랫동안 극단적 미래상을 번갈아 강조해 옴
  • 이런 메시지는 일반 대중이 이미 겪는 불안정한 생활 여건과 충돌함
  • 이런 상황에서 업계는 막대한 투자와 대규모 데이터센터 확장을 동시에 요구함
    • Stanford 보고서는 업계가 수천억 달러 규모의 지속 투자 유치를 요구하는 흐름을 담고 있음
    • 데이터센터 확장은 지역 전기요금에도 영향을 주고 있으며, 관련 내용은 Brookings가 다룸
    • 미국 데이터센터 붐의 중심지인 Virginia에서는 2030년까지 가정용 전기요금이 최대 25퍼센트 오를 수 있다는 전망이 Georgetown Environmental Law Review에 실려 있음

생산성 약속과 실제 성과의 간극

  • 이런 비용은 AI가 구체적 공공 편익이나 뚜렷한 업무 개선을 보여줄 때만 감수될 수 있지만, 그 근거는 아직 약함
  • 2026년 2월 NBER 논문에 따르면 AI를 적극 도입하기 시작한 기업의 80퍼센트가 회사 생산성에 영향이 없다고 보고함
  • 2025년 MIT 연구에서는 기업의 AI 파일럿 프로그램 95퍼센트가 수익을 전혀 내지 못한 것으로 제시됨
  • 코딩과 기술 업무처럼 AI 기대가 큰 영역에서도 생산성 수치의 검증 가능성이 흔들리고 있음
    • 머신러닝 엔지니어 Han-Chung Lee는 GitHub 글에서, 내부적으로 긍정적 수치가 나오더라도 채택 목표를 맞추기 위해 만들어진 값일 수 있고 외부에서 효과적으로 감사하기 어렵다고 짚음
  • 다만 ChatGPT가 2022년 11월에 출시된 첫 대중적 시연 사례라는 점을 감안하면, 새로운 기술이 거친 도입기를 겪는 일 자체는 자연스러움

신뢰 회복에 필요한 조건과 현재의 한계

  • 대중이 체감한 기술 경험과 업계가 스스로를 말하는 방식 사이의 간극은 이미 눈에 띄는 결과로 이어지고 있음
  • Big Tech도 일반 대중에게 닥칠 수 있는 문제를 인식하고, 일부 완화책을 내놓기 시작함
  • 하지만 보도자료의 약속과 현장 실행력 사이에는 다시 간극이 남아 있음
    • Microsoft의 Community-First Initiative에는 독립적인 책임 추적 장치가 들어 있지 않음
    • OpenAI의 새 백서는 진보적 기술 정책 쪽으로 움직이는 듯 보이지만, Greg Brockman은 주 단위 AI 규제를 막는 SuperPAC에 수백만 달러를 보냈고 관련 내용은 Fortune에 실려 있음
    • OpenAI는 Illinois의 Senate Bill 3444도 지지하고 있으며, 이 법안은 AI 모델이 초래한 대규모 피해에 대해 회사를 보호하는 방향으로 소개됨
    • 같은 기사에서 Anthropic은 이 법안에 반대하는 것으로 적혀 있음
  • Sam Altman을 다룬 Ronan Farrow의 New Yorker 기사와 맞물려, 공개 지지 입장을 내놓은 뒤 회사에 유리해지면 빠르게 방향을 바꾸는 반복 패턴도 부각됨
  • 신뢰를 되살리려면 또 다른 백서보다 지속적이고 검증 가능한 행동이 더 중요해짐
    • 제품이 실제로 할 수 있는 일에 대한 진짜 투명성이 필요함
    • 재정적 비용이 따르더라도 의미 있는 규제와 책임을 받아들여야 함
    • 데이터센터 확대에는 지역 공동체의 실질적 민주적 참여가 필요함
    • 그렇지 않으면 커지는 AI 포퓰리즘과 그에 따른 폭력 가능성도 함께 커질 수 있음
Hacker News 의견들
  • AI 비판은 적어도 셋으로 나눠서 따로 논의해야 한다고 봄. 서로 해법이 다름
    첫째는 일자리 상실인데, 이건 비교적 단순함. AI 생산성을 사회 전체와 나눠야 하고, 특히 AI가 사회의 작업물로 학습했다는 점을 생각하면 더 그렇다. 가장 쉬운 방식은 AI 사용세를 걷어 UBI로 돌리는 것이라 봄. 직업을 잃어도 소득이 유지된다면 불만은 훨씬 줄어들 것임
    둘째는 환경 비용이고, 이건 더 까다로움. 효율 개선과 청정에너지 확대가 핵심이며, 과세와 효율 규제가 출발점이 될 수 있음. 지속가능한 에너지 기술은 이미 있지만 비싸고, AI가 막대한 전력을 계속 쓸 거라면 이 부분은 타협 불가여야 함
    마지막이 진짜 어려운 대목임. 창작 작업을 AI에 얼마나 맡길지, AI가 만든 창작물을 어떻게 다룰지 답이 없음
    여기에 연결된 문제로, AI가 인간인 척하며 대규모 사기와 기만을 벌일 수 있다는 점도 큼. 지금의 대응 체계는 많은 사기가 시간과 노력이 든다는 전제 위에 있는데, 이제는 그런 전제가 무너지고 있음

    • 그 논리는 예전에 로봇 자동화 때도 나왔지만 현실화되지 않았음. 세금도 안 걷혔고, 생산성 이익도 공유되지 않았음. 오히려 셀프체크아웃처럼 회사 일이 고객에게 전가되기도 했음
      AI 데이터센터는 전부 지속가능한 자가발전으로 돌려야 한다고 봄. 수십 년간 전력과 물 효율을 개선해 놓고, 그걸 몇몇 탐욕스러운 기업이 다 빨아들이게 둘 이유는 없음
      농담처럼 들릴지 몰라도, AI는 내 대신 설거지와 빨래 정리를 하고 나는 책을 쓰고 음악을 만들고 싶음. 그 반대는 원치 않음
    • 연봉 6만 달러짜리 일을 잃었을 때, AI 재원으로 만든 기본소득이 그 손실을 메워줄 거라 믿기 어려움. 미국에서 거론되는 연 1만2천 달러 UBI만 해도 예산이 3조 달러 더 듦
      AI 기업 과세만으로 그 정도를 충당할 수 있을 것 같지 않고, 기본소득을 말하는 쪽은 숫자를 훨씬 더 진지하게 맞춰야 함. 현실적 해법으로는 잘 안 보임
    • Altman과 어느 정도는 Musk까지, AI 업계 얼굴들이 너무 비호감임. 저 사람들이 공개적으로 대규모 실직과 심지어 인류 멸종 운운해 왔으니, 실제 위험과 별개로 회사 자체가 미움받을 수밖에 없음
    • 네 번째로 따져야 할 건 정치 영향력 통제임. AI 기업 CEO들이 막대한 자금력으로 규제, 선거, 사회보장, 외교까지 좌우하게 두면 사실상 민주주의가 무너질 수 있음
      만약 정말로 노동력의 50%를 AI로 대체하게 되면, 그들의 영향력은 상상을 넘어서게 됨
    • Art Deco 시기에도 대량생산이 예술에 미친 영향 때문에 비슷한 논쟁이 있었음. 새로운 산업적 방법으로 만든 작품이 수공예와 동등한 질을 가질 수 있는지를 두고 갈렸고, 지금도 사람마다 판단이 다를 것임
      기술은 아직 멀었지만, AI식 대량생산의 한 예로 소설의 영화화 자동화 같은 걸 떠올릴 수 있음. 이런 변화는 사람을 더 힘 있게 만들 수도 있고, 예술의 질을 떨어뜨리거나 높일 수도 있으며, 사회를 갈라놓거나 오히려 모을 수도 있음
      [1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
  • AI CEO들이 수년째 AI는 무섭다, 네 일자리를 가져갈 것이다라고 외쳐 왔음
    “Mythos는 너무 위험해서 공개 못 한다”
    “ChatGPT로 생물테러 방법을 끌어내면 포상금을 주겠다”
    “에이전트형 AI가 직무 카테고리 자체를 없앨 것이다”
    이런 메시지는 일반 대중이 아니라, 돈 많고 비용 줄일 항목이 있으며 국경을 지키거나 넓히려는 정부와 대기업 고객에게 보내는 신호로 보임
    사람들이 AI를 싫어하는 건 전혀 놀랍지 않음. 애초에 사람을 위한 제품처럼 홍보한 적이 거의 없음

  • AI 업계 바깥에서는 이 흐름이 너무 뻔했음. 업계 리더들은 수백만 개 일자리 제거, 다른 직무의 대규모 재편, 심지어 치명적 무력 자동화까지 말하면서도 개발은 계속하겠다고 했음
    최근의 경제 불안과 대량해고조차 해고를 집행하는 경영진이 AI 탓으로 돌렸고, 주요 AI 기업들은 지식재산을 거리낌 없이 학습에 써 놓고는 AI를 모두에게 밀어 넣었음
    대중이 AI를 싫어하는 건 이상할 게 없고, 업계도 호감 가게 보이려는 노력을 거의 안 했음

    • Roy Sutherland의 관점이 좋았음. 지금 AI 기업들은 가치 창출보다 비용 절감을 겨냥하고 있고, 그 방향은 퇴행적이며 주변까지 파괴적임
      결국 이 회사 CEO들은 사회적 비용이 얼마가 들든 자기 회사만 키우려는 듯함
    • 일부 테크 CEO들이 너무 들떠서 가면이 벗겨진 느낌이었음. “싫어? 어쩔 건데”라는 식으로 나왔다가, 너무 빨랐다는 걸 깨달으면 금방 다시 후퇴할 것 같음
    • 약속한 만큼의 생산성 향상도, 약속한 수준의 저비용도 실제론 잘 안 나옴. 가장 열광하는 건 현업 실무자가 아니라 중간관리자들인 경우가 많음
      모두가 같은 뱀기름을 쓰는 시장에서 이건 차별점이 아니라, 비싸게 평균 수준을 얻는 길처럼 보임
    • 업계 사람들이 대중이 자기를 싫어한다는 사실에 놀라는 게 오히려 더 놀라움. 몇 년째 공포 마케팅과 과장만 이어졌고, 평범한 사람들 삶을 뚜렷하게 개선한 것도 거의 없는데 뭘 기대했는지 모르겠음
    • AI 부스터들 성격도 하나같이 사기꾼 같고 거만해 보여서 더 비호감임
      X의 부스터들, 중간관리자 유형, LinkedIn의 AI 인플루언서들, Facebook의 가짜 영상 제작자들까지 전부 그런 부류를 끌어모으는 느낌임
  • 정말 그런가 싶음. 금요일에 회사에서 친AI 발표를 들었는데, AI 컨퍼런스 참석자를 조사했더니 93%가 AI에 기대감을 보였다고 했음
    그걸 “사람들은 강아지를 좋아하잖아요” 같은 표정으로 진지하게 말하더라
    자기인식 부족이 너무 심해 보였음

    • 컨설팅 회사나 대기업에서는 AI에 관심 있는 척해야 하는 분위기가 있음. 그냥 조직 문화가 그렇다
    • 그 조사에서 아니라고 답하는 사람이 어떤 처지에 놓이는지 생각해 보면 됨. 상사에게 “AI는 사회에 해로워 보여서 쓰기 싫다”고 말하는 건, 생산성 향상과 회사 수익 증대에 관심 없다고 선언하는 것과 비슷함
      그런 평판을 뒤집어쓰고 싶어 하는 사람은 거의 없을 것이고, 그래서 더더욱 이 기술이 원하든 원치 않든 밀려온다는 불가피성의 분위기가 생긴다고 봄
    • 게이머에게 AI가 어떤지 물어보면 거의 전부 부정적일 것임. RAMageddon만 봐도 그렇다
    • 도그쇼에서 사람들에게 개를 좋아하냐고 설문하는 것과 비슷해 보임
      지금 같은 시장 상황에서 상사나 공개석상에서 “AI는 꽤 헛소리 같다”고 편하게 말할 사람이 얼마나 되겠냐는 생각도 듦
    • 이건 그냥 대표성 없는 표본 편향으로 보임
  • 내부 생산성 수치조차 도입 목표에 맞춰 만들어져 외부 검증이 어렵다면, 그건 사실 많은 MBA식 BI가 하는 일과 크게 다르지 않음
    내 경험상 BI는 자주 카드로 쌓은 집 같았고, 이력서 쓸 때처럼 서사를 예쁘게 꾸미는 작업에 가까운 경우가 많았음
    결국 미국 기업의 기본 단위는, 설득력 있는 정치적 내러티브를 얼마나 잘 만들어내느냐처럼 보일 때가 많음

  • 이미 고용이 불안정하다고 느끼는 시대에, “우리가 네 일을 없애고 널 쓸모없게 만들 것”이라고 말해 놓고 대중 호감을 얻을 수 있다고 기대하는 건 말이 안 됨
    부를 축적할 대안 경로도 제시하지 않고, 주거비나 의료비 같은 경제 문제는 해결하지 않으면서 사회적 결속과 에너지 가격만 더 악화시키면 더더욱 그럼
    업계가 AI의 사회적 영향에 대한 대중 반감을 계속 즐겁게 무시한다면, 체르노빌 이후 반원전 정서보다도 강한 역풍이 올 수 있다고 봄

  • 이 기사에서 다룬 같은 설문을 보면, 조사 대상자들 사이에서 전반적으로 호감인 대상 자체가 거의 없음. AI가 비인기인 건 맞지만, 더 넓은 전방위적 혐오 분위기의 일부이기도 함

    • 전방위적 혐오는 그냥 세상 상태에 대한 불만과 두려움의 반영이라 봄. 임금은 정체되는데 물가는 오르고, 주식시장이 좋다는 뉴스는 넘치지만 그 이익은 체감되지 않음
      정치인은 전쟁과 파괴에는 돈을 쓰면서 사회 프로그램에는 인색하고, 인터넷의 부상은 기존 서사를 의심하기 쉽게도 만들고 어렵게도 만듦
      이런 혼란과 불안 속에서 누군가를 탓하고 싶은 마음이 커지는 건 이상하지 않음
  • 적어도 프로그래머 사이의 대규모 도입은 이런 기사들이 좀 더 인정했으면 함. 가끔 이메일 써 주는 정도와는 비교가 안 되고, 이미 소프트웨어 개발에는 상당한 영향이 있음
    이걸 아직 일부만 시험 중인 사소한 도구처럼 묘사하면 현실을 놓치는 셈임

    • 소프트웨어에서의 영향은 측정이 매우 어려움. 오르내림도 많고 변수도 너무 많음
      특히 도입률은 무의미한 지표일 수 있음. 실제로 별 도움이 안 되거나, 도움이 되더라도 쓰는 과정이 사람을 비참하게 만들 수 있는데도 강제로 도입되기 때문임
      게다가 장기적으로 어떤 결과를 낳을지 모르는 expertise debt도 쌓이고 있음
    • 많은 개발자는 원해서가 아니라 월급을 가져가기 위해 이 도구를 받아들였음
      그 사이 AI 업계는 그들의 일자리 자체를 없애려고 열심히 움직이고 있음
  • 많은 사람에게 AI는 그냥 이미지 생성텍스트 생성임. 그리고 그 용도만 놓고 보면 시간, 돈, 에너지를 들일 가치가 없다고 느끼는 것도 이해됨
    하지만 사람들이 잘 못 보는 영역, 예를 들어 의학에서는 AI가 실제로 도움 되는 곳도 있음. 신약 개발, 암 연구와 조기 발견, CT와 MRI 분석 등이 그렇고, 이런 활용은 훨씬 더 중요하지만 잘 이야기되지 않음
    AI를 하나의 단일한 것으로만 보면, 좋은 부분까지 함께 버릴 위험이 있음

    • 그런 의료 활용도 사람들은 알고 있음. 다만 압도적으로 많은 부정적 활용이 있으니 거기에 초점을 맞추는 게 놀랍지 않음
      의료 활용이 더 중요하다고 말하는 것도 다소 빗나감. 사람이 누군가를 치유하는 게 삶을 망치는 것보다 중요하다는 건 당연하지만, 그렇다고 AI의 다른 폐해가 가려지는 건 아님
      AI에 부정적이라고 해서 긍정적인 부분까지 없애고 싶다는 뜻은 아님
    • 관점의 문제임. 칼을 양파 써는 도구로 팔 때와 이웃을 죽이는 무기로 마케팅할 때는 전혀 다름
      AI는 업계 사람들이 대놓고 네 일을 대체할 도구로 팔고 있음. 그렇다면 그들이 마케팅을 형편없이 하는 것이거나, 다른 산업에서의 이득이 미미하거나 주주가치를 못 만든다는 뜻일 수도 있음
    • 아이들을 생각하라”는 식 변명처럼 들릴 때가 많음
      그런 분야에서 AI가 진짜 의미 있는 진전을 만들면 그때 제대로 논의하면 됨. 21세기 최대 의료 혁신 후보인 mRNAGLP-1은 적어도 내가 알기로 LLM이 핵심 역할을 한 사례가 아님
      그런 성과가 실제로 나오기 전까지 이 주장은 팬픽에 가깝고, 더 냉혹하게 말하면 직업을 빼앗기고 정보 신뢰가 무너지고 온 사방이 슬롭으로 채워지는 상황에서 단순히 더 오래 사는 게 무슨 의미냐는 생각도 듦. 이건 미래 상상이 아니라 이미 벌어진 피해임
    • 지금 AI는 네 일이나 부하 직원의 일을 더 잘하게 돕는 도구로 팔리는 게 아니라, 부하 직원을 대체해 분기 이익을 높이는 도구로 팔리고 있음
      수조 달러 매출 서사는 바로 거기에서 나오기 때문임
  • 내가 대화하는 비테크권 사람들 기준으로는 대중 상당수가 AI를 싫어함. 오히려 그게 상식적 판단처럼 보임
    개인적으로는 Gemini Ultra 구독이 값어치를 한다고 느끼고, AntiGravity에서 강한 API를 만지거나 Claude 계열, Gemini App, NotebookLM을 쓰는 재미와 지적 흥미도 큼
    하지만 데이터센터 비용, 미국 정부의 AI 대기업 구제금융 가능성 같은 사회적 비용까지 정당화할 수 있냐고 하면 못 하겠음
    오히려 중국이 우리를 앞지르는 듯함. 더 저렴한 AI를 만드는 쪽이 승리 전략 같고, GLM-5.1Deepseek v4는 훨씬 낮은 추론 비용 대비 놀랄 만큼 효과적임