Hacker News 의견들
  • 이 스레드에서 다들 정의 싸움만 하고 있음
    진짜 중요한 건 경제적 시점임 — AI가 인간의 보조를 받는 자동화에서 완전 자율적 산출로 전환되는 순간이 언제냐는 것임
    지금의 AI 프로덕션 환경을 보면, 여전히 인간이 검토·수정·감독을 맡고 있음. AI는 양을 처리하고, 인간은 판단을 담당함. 결국 판단이 병목
    노동을 대체한 게 아니라 단지 위치를 옮긴 것뿐임. 전 세계 노동 보상은 연간 약 50조 달러 규모이고, 자본시장은 AI가 이 중 일부를 실질적으로 흡수할 수 있을지에 베팅 중임. AGI라는 명칭은 중요하지 않음 — 자본은 정의가 아니라 노동과 산출의 분리 여부에 관심이 있음

  • “AGI”, “ASI” 같은 말을 볼 때마다, 나는 그걸 “아무도 제대로 정의하지 못한 무언가”로 바꿔서 생각함
    즉, 정의가 불완전해서 결론을 낼 수 없는 개념이라는 뜻임. 그래서 그냥 “스킵티부프” 같은 소리로 치환해버림

    • 나는 요즘 “AI”라는 단어 자체를 거의 쓰지 않음. 지금의 LLM이나 생성형 기술을 그렇게 부르는 건 너무 모호하고 문제를 덮어버리는 표현이라 생각함
    • OpenAI 헌장에선 AGI를 “대부분의 경제적으로 가치 있는 작업에서 인간을 능가하는 고도로 자율적인 시스템”이라고 정의함
    • 문제는 다들 용어 정의를 안 한다는 것임.
      AGI를 “특정 작업이 아닌 범용 AI”로 정의하면 이미 존재함.
      “모든 작업에서 인간 수준의 지능”이라면, 어떤 인간은 AGI가 아님.
      “모든 일을 완벽히 수행하는 마법 알고리즘”이라면, 그건 아마 존재하지 않음.
      처음 AGI라는 말이 나왔을 땐 HAL 9000 같은 걸 의미했을 텐데, 지금은 목표가 계속 이동하는 게임이 되어버림
    • 나는 이런 걸 “낭만적 정의” 혹은 “제스처적 개념”이라 부름. 개인적이거나 팀 내부 용도로는 괜찮지만, 결국은 어휘를 정제하기 위한 임시 표현일 뿐임
    • “AI의 엔스키비디피케이션(enskibidification)”이라는 말로 요약할 수도 있음 — 즉, 개념이 점점 희화화되고 있음
  • 기술 상용화에 올인한 순간부터 이미 결과는 정해져 있었음
    지금의 LLM은 이미 위험하게 사용되고 있고, 이런 뉴스가 계속 주목받는다면 OpenAI는 조용히 헌장을 웹사이트에서 지울 것임

  • 현재 모델들은 AGI와는 거리가 멂
    다음 토큰 예측은 놀라울 정도로 발전했지만, 여전히 현실 세계 모델이나 진짜 학습 능력은 없음.
    인간의 감독 없이는 한계가 명확함

    • “12개월 안에 소프트웨어 엔지니어가 사라질 거라던 말”이 나온 지 몇 달 됐는지 기억도 안 남
    • 기계적 해석 가능성(mechanistic interpretability) 연구 결과를 보면, “현실 모델이 없다”는 말은 이제 설득력이 약하다고 생각함
  • “순진한 이상주의의 무력함”이라는 말이 있었지만, 나는 그보다는 이상주의 언어를 마케팅 수단으로 차용한 것이라 봄
    실제로는 점점 본색을 드러내는 이윤 중심 조직이었음

    • 처음엔 진심이었다고 믿음. 하지만 Altman이 탐욕에 휩쓸리며 그 이상을 배신했다고 생각함
  • AGI는 앞으로 30년 내엔 오지 않을 것임
    연구자들도 그렇게 말함.
    진짜 AGI는 지속적 학습과 깊은 기억이 필요한데, LLM은 그걸 못 함.
    지금의 “메모리”는 단지 검색과 요약 기능일 뿐임 — 마치 한 사람이 물리학 강의를 듣고 포스트잇에 다 적은 뒤, 다른 사람이 그걸 훑어보고 답을 쓰는 식임
    RL과 재훈련이 필요하지만, 그건 너무 비싸고 느리고 복잡함.
    LLM은 멋진 코드도 쓰지만, “X 폴더의 파일은 지우지 말라”고 해도 결국 지움.
    공격자가 문서에 삽입한 명령도 그대로 따름.
    진짜 기억과 실시간 RL이 없으면 이런 문제는 해결되지 않음

    • 포스트잇 비유는 LLM의 본질을 가장 잘 설명함. 두 번째 사람이 훌륭한 노트를 받더라도, 깊은 이해는 여전히 부족함
    • “30년 내 불가능” 주장에 대해, 어떤 연구자들의 말을 근거로 하는지 궁금함.
      Daniel Kokotajlo의 트윗, Karpathy의 발언, 그리고 AI 연구자 설문을 보면 훨씬 짧은 예측도 많음
    • 정신과 의사로서 나는 LLM을 전향성 기억상실 환자에 비유함
      대화 중엔 똑똑하지만, 세션이 끝나면 전부 잊음.
      심지어 세션 중에도 성능이 떨어짐 — 긴 컨텍스트가 오히려 독이 됨
      결국 기억 구조의 부재가 한계임. 인간은 장기 기억과 수면을 통해 이를 해결했지만, LLM은 그렇지 못함
      아무리 똑똑해도 기억 없는 천재는 단기적 savant에 불과함
    • “포스트잇 비유”는 틀렸다고 생각함.
      LLM은 수천 페이지를 즉시 복제하고 재구성할 수 있음.
      이미 테스트 시점 RLLoRA 기반 지속 학습이 진행 중이며, 일부 정의에선 AGI가 이미 달성된 셈임
      다만 경제성이 낮을 뿐임.
      그리고 프로그래머 일자리가 사라지기보단, 오히려 계산적 사고 능력을 가진 사람이 더 필요해질 것임
    • “30년 내 불가능” 주장에 동의하지만, 그 근거를 더 듣고 싶음
  • 개인적 경험이지만, 최근 GPT 5.4가 Opus 4.6보다 나았음
    다만 Chatbot Arena 순위표에선 낮게 나와 흥미로움

    • Chatbot Arena는 신뢰하기 어려움.
      일반 사용자 투표 기반이라 전문성 검증이 부족하고, 대기업들이 순위를 조작하기도 함
      최신 모델 간 비교엔 큰 의미가 없음
    • 내 경험은 반대임.
      같은 프롬프트를 줬을 때 GPT 5.4는 불필요한 리팩터링과 버그를 만들었고, Opus 4.6은 이미 구현된 기능을 인식하고 테스트와 문서 업데이트를 제안했음
      Opus 4.6이 여전히 최고의 코딩 에이전트라고 생각함
  • “2026년 9월엔 자동화된 AI 연구 인턴, 2028년 3월엔 완전한 AI 연구자”라는 예측이 흥미로움
    Karpathy의 Autoresearch 프로젝트가 HN 상단에 오른 시점과도 맞물림.
    아마 대형 연구소들은 훨씬 더 큰 규모의 버전을 이미 실험 중일 것임

  • “순진한 이상주의의 무력함”과 “AGI의 변하는 목표선”에 공감함
    요즘은 AGI 대신 ASI를 말하는 경우가 많아, 이미 AGI를 달성했을지도 모른다는 뉘앙스가 있음

  • 농담처럼 들리지만, 아무도 진짜 AGI에 근접하지 못했음
    Altman 본인도 “AGI 달성엔 여러 중간 단계의 돌파구가 필요하다”고 인정함
    2026년쯤 AI가 기존 정보를 재조합하는 수준을 넘어 새로운 통찰을 생성할 것이라 예측했는데, 그게 AGI의 임계점이라 봄

    • 하지만 나는 이미 AGI를 넘어섰다고 느낌.
      지금의 LLM은 평균적인 인간보다 평균적으로 더 유능하다고 생각함