12P by GN⁺ 22시간전 | ★ favorite | 댓글 3개
  • AI 진보를 측정하는 5가지 실제 지표로 분석해 Singularity도달 시점을 밀리초 단위까지 계산한 결과 2034년 7월 18일 화요일이 나옴
  • MMLU 점수, 달러당 토큰 수, 프론티어 모델 출시 간격, arXiv "emergent" 논문 수, Copilot 코드 점유율 등 5개 지표를 독립적으로 피팅한 결과, 실제 쌍곡선 곡률을 보이는 지표는 arXiv "emergent" 논문 수 단 하나
  • 기계 역량 지표들은 모두 선형 추세를 따르며 싱귤래리티 신호가 없고, 유일하게 가속하는 것은 AI 창발 현상에 대한 인간의 관심과 흥분/불안
  • 이미 2026년 현재 대규모 해고, 제도적 지연, 자본 집중, 신뢰 하락, 정치 재편 등 사회적 싱귤래리티가 기술적 싱귤래리티를 선행하고 있음
  • 싱귤래리티의 본질은 기계가 초지능에 도달하는 시점이 아니라, 인간이 기계에 대해 일관된 집단적 의사결정 능력을 상실하는 시점

데이터: 5가지 AI 진보 지표

  • 그리스어 의미에서 "인간적 중요성(anthropic significance)" 을 기준으로 선정한 5가지 지표 사용(앤트로픽 회사를 의미하는 것은 아님)
  • MMLU 점수: 언어 모델의 SAT에 해당하는 벤치마크로, GPT-3(2020년 6월, 43.9%)부터 Claude Opus 4.5(2025년 11월, 90.8%)까지의 데이터 포함
  • 달러당 출력 토큰 수: 지능의 비용 붕괴를 측정하며 로그 변환 적용, GPT-3 davinci(16,667 토큰/$)부터 Gemini 2.0 Flash(2,500,000 토큰/$)까지 5자릿수 범위에 걸침
  • 프론티어 모델 출시 간격: "충격적" 순간 사이의 축소되는 간격으로, GPT-3→ChatGPT(902일)에서 Gemini 2.5 Pro→GPT-4.1(20일)까지 급격히 감소
  • arXiv "emergent" 논문 수: 후행 12개월 기준, 밈적으로 측정한 학계 흥분도
  • Copilot 코드 점유율: AI가 작성하는 코드 비율
  • 각 지표는 [0,1]로 정규화, 출시 간격은 역변환(짧을수록 높은 값), 토큰/$는 로그 변환 후 정규화, 각 시리즈는 독립적 스케일 유지

왜 쌍곡선 모델인가

  • 대부분의 AI 외삽에 사용되는 지수함수 f(t) = ae^(bt) 는 t→∞에서만 무한대에 도달하므로, 유한 시간 내 싱귤래리티를 표현할 수 없음
  • 다항식 성장(t^n) 역시 유한 시간에 무한대 도달 불가능
  • 쌍곡선 함수 x(t) = k/(t_s − t) + c 는 t→t_s에서 분모가 0이 되어 유한 시점에 발산하는 특성 보유
  • 쌍곡선 성장은 성장하는 것이 자기 자신의 성장을 가속할 때 발생: 더 나은 AI → 더 나은 AI 연구 도구 → 더 나은 AI → 초선형 양성 피드백 루프

피팅 방법론

  • 각 지표 j에 대해 독립 쌍곡선 y_i^(j) = k_j/(t_s − t_i) + c_j를 피팅하되, 싱귤래리티 시점 t_s는 공유
  • 각 시리즈는 자체 스케일 k_j와 오프셋 c_j를 가지며, MMLU 점수와 달러당 토큰처럼 y축이 다른 지표도 t_s에 대해서는 합의 가능
  • 전체 RSS 최소화 시 최적 t_s가 항상 무한대로 가는 문제 존재: 먼 쌍곡선은 직선으로 퇴화하여 노이즈 데이터에 잘 맞기 때문
  • 대안으로 각 시리즈별로 독립적으로 R² 피크를 찾는 그리드 서치 수행
    • 유한 t_s에서 R²가 피크를 찍으면 진짜 쌍곡선 신호
    • R²가 t_s→∞에서 계속 증가하면 실제로는 선형이며 싱귤래리티 신호 없음
  • 결과: arXiv "emergent"만 명확한 R² 피크 보유, 나머지 4개는 모두 선형이 더 적합

도출된 날짜

  • 싱귤래리티 예측 시점: 2034년 7월 18일 화요일, 02:52:52.170 UTC
  • n = 52 (5개 시리즈), 95% 신뢰구간: 2030년 1월~2041년 1월 (132.4개월 폭)
  • 시리즈별 R² (공유 t_s 기준): MMLU 0.747, 토큰/$ 0.020, 출시 간격 0.291, arXiv "emergent" 0.926, Copilot 코드 점유율 1.000
  • 95% 신뢰구간은 t_s에 대한 프로파일 우도(profile likelihood) 에서 도출, F-임계값 기준

민감도 분석

  • Drop-One-Out 분석: 어떤 지표를 제거하면 t_s가 얼마나 이동하는지 측정
  • MMLU, 토큰/$, 출시 간격, Copilot 코드 점유율을 각각 제거해도 t_s 변동 없음 (+0.0개월)
  • arXiv "emergent"를 제거하면 t_s가 2036년 2월로 18.6개월 이동 (검색 경계로 밀림)
  • 결론: arXiv가 모든 작업을 수행하며, 다른 시리즈는 공유 t_s에서의 맥락 곡선만 제공
  • Copilot은 데이터 포인트 2개에 파라미터 2개로 자유도 0, 어떤 쌍곡선에도 완벽 피팅되어 t_s에 영향 없음

t_s가 실제로 의미하는 것

  • arXiv 논문 수가 무한대로 간다는 것은 2034년 화요일에 무한 개의 논문이 출판된다는 뜻이 아님
  • t_s는 현재 궤적의 곡률이 더 이상 유지될 수 없는 지점, 즉 질적으로 새로운 것으로 돌파하거나 포화되어 쌍곡선이 틀렸음이 증명되는 위상 전이 마커
  • 핵심적으로 불편한 사실: 실제로 쌍곡선을 따르는 지표는 기계 역량이 아닌 인간의 관심
  • MMLU, 토큰/$, 출시 간격 등 실제 역량·인프라 지표는 모두 선형이며 극점이 없음
  • 유일하게 유한 날짜를 가리키는 곡선은 연구자들이 새로운 행동을 발견하고 명명하는 빈도, 즉 "밈적으로 측정된 학계 흥분도"
  • 데이터의 결론: 기계는 일정한 속도로 개선되고, 인간이 그것에 대해 가속하는 속도로 가속하며 흥분하고 있음

사회적 싱귤래리티: 이미 진행 중인 현상

  • t_s가 AI 놀라움의 속도가 인간의 처리 능력을 초과하는 시점이라면, 흥미로운 질문은 기계가 아닌 인간에게 무슨 일이 일어나는가
  • 노동 시장 급변: 2025년 110만 건의 해고 발표(1993년 이래 6번째로 이 임계값 돌파), 55,000건 이상이 명시적으로 AI를 원인으로 언급
    • HBR 발견: 기업들이 AI의 성과가 아닌 AI의 잠재력에 기반해 인력 감축
    • 곡선이 극점에 도달할 필요 없이, 도달할 것처럼 보이기만 하면 선제적 구조조정 발생
  • 제도적 대응 실패: EU AI Act의 고위험 규칙은 2027년으로 연기, 미국은 2023년 AI 행정명령을 2025년 1월 폐기 후 12월 주법 선점용 신규 명령 발령, California와 Colorado는 독자 노선
    • 현재 작성 중인 법률은 2023년의 문제를 규제하며, 법률이 GPT-4를 따라잡을 때쯤 GPT-7 도달
    • 정부의 가시적 무능력은 신뢰를 침식이 아닌 붕괴시킴, AI에 대한 글로벌 신뢰도 56% 로 하락
  • 닷컴 수준의 자본 집중: S&P 500 상위 10개 종목(대부분 AI 관련)이 2025년 지수 비중 40.7% 달성, 닷컴 피크 초과
    • ChatGPT 출시 이후 AI 관련 주식이 S&P 500 수익의 75%, 이익 성장의 80%, 자본 지출 성장의 90% 차지
    • Shiller CAPE 39.4, 이 수준은 마지막으로 1999년에 기록
  • 심리적 영향: 치료사들이 FOBO(Fear of Becoming Obsolete) 급증 보고, 환자들이 "우주가 '너는 더 이상 필요 없다'고 말하고 있다"고 표현
    • 미국 근로자 60% 가 AI가 창출보다 더 많은 일자리를 줄일 것으로 예상
    • AI 사용량 전년 대비 13% 증가, AI에 대한 신뢰는 18% 하락: 사용할수록 신뢰 감소
  • 인식론적 균열: AI 연구의 1/3 미만만 재현 가능, 연구자의 5% 미만이 코드 공유, 기업 연구소의 출판 감소
    • 프론티어 연구소의 지식과 대중의 지식 격차 확대, 정책 입안자들은 이미 구식인 정보로 운영
    • 의회에서 증언하는 전문가들이 서로 모순: 분야가 전문성이 형성되는 속도보다 빠르게 이동
  • 정치적 재편: TIME은 포퓰리스트 AI 반발을, Foreign Affairs는 "분노 경제가 포퓰리즘을 강화할 것"을, HuffPost는 AI가 2026년 중간선거를 규정할 것이라 보도
    • MAGA는 AI가 친기업인지 반노동자인지로 분열, Sanders는 데이터 센터 모라토리엄 제안
    • 기존 좌우 축이 이 질문의 무게를 감당하지 못하고 붕괴 중
  • 이 모든 것이 t_s보다 8년 전에 발생: 사회적 싱귤래리티가 기술적 싱귤래리티를 선행하며, 제도적·심리적 혼란은 역량이 수직 상승하기를 기다리지 않고 궤적이 인지되는 순간 시작

주의사항(Caveats)

  • 날짜가 단일 시리즈에서 도출: arXiv "emergent"만 진짜 쌍곡선 곡률 보유, 나머지 4개는 직선이 더 적합
    • 싱귤래리티 날짜의 실질적 의미는 "AI 창발 연구가 수직 상승하는 시점"이며, 학계 흥분이 선행 지표인지 후행 지표인지가 핵심 쟁점
  • 모델이 정상성(stationarity) 가정: 곡선은 결국 로지스틱(과대 광고 포화)이나 모델이 표현 불가능한 형태(진짜 위상 전이)로 변곡, t_s는 현재 체제가 지속 불가능한 지점이지 그 이후를 예측하지 않음
  • MMLU 천장 효과: 벤치마크 포화로 인한 첨도 압축 아티팩트, 낮은 R²는 이를 반영
  • 토큰/$는 로그 변환되었으며 비단조적: GPT-4가 3.5보다 비쌌고, Opus 4.5가 DeepSeek-R1보다 비용이 높음, 비용 곡선은 매끄럽지 않고 Pareto 발전과 고비용 모델이 혼재
  • 5개 지표는 충분하지 않음: SWE-bench, ARC, GPQA, 컴퓨트 구매량, 인재 급여 등을 추가하면 arXiv 의존도 감소 가능, 5개를 사용한 이유는 "테이블에 맞아서"
  • Copilot은 데이터 포인트 2개: 자유도 0으로 t_s에 기여하지 않음

결론

  • 실제 데이터와 수학적 모델을 통해 하나의 명확한 특이점 시점이 도출됨
    • 이 특이점은 기계의 초지능화가 아니라 인간 사회의 주의력 붕괴를 의미
  • 수학이 찾아낸 것: 특정 밀리초에 극점을 향해 곡선을 그리는 지표 하나, 바로 인간이 창발적 AI 행동을 발견하는 속도
    • 나머지 4개 지표는 선형: 기계는 꾸준히 개선되고 있으며, 가속하고 있는 것은 인간
  • 노동, 제도, 자본, 인식, 정치 등 모든 영역에서 이미 사회적 특이점이 진행 중
  • 기술적 특이점이 오기 전, 인간이 AI 변화 속도를 감당하지 못하는 집단적 한계점이 먼저 도래할 것
  • 데이터 속 싱귤래리티는 인간 관심의 싱귤래리티이며, 이미 접촉하는 모든 것에 중력을 행사 중
    • 인류가 이미 그 카운트다운 안에 들어섰음

재밌는점이 OpenAI, Google, Anthropic의 새로운 모델 같은 큰 발표일이 보통 화요일, 목요일 입니다.

한국 시간 기준 수요일, 금요일 오전 2-3시 (캘리포니아 시간으로 오전 10시) 쯤에 발표를 하니, 새벽에 잠이 안오시면 이때 뉴스를 체크해보세요

낙관적인 예측으로도 8년 뒤면 시간은 많고 할 일은 많네요. 신생아가 초등학생이 되는 시간 동안 아무 것도 안 하고 살 수는 없으니

Hacker News 의견들
  • 이 글이 정말 흥미로웠음. 작성자가 자신의 모델과 방법론을 장황하게 설명하다가 결국 핵심으로 들어감 — 특이점이 실제로 오느냐보다 중요한 건, 얼마나 많은 사람들이 그것을 믿고 행동하느냐
    그래서 나는 기술적 논쟁 대신 사회적 논의로 초점을 옮겼음. “사회가 생존을 임금 노동에 의존하는 구조를 바꾸지 않은 채 인간 노동을 대체하려는 건 매우 나쁨”이라는 쪽이 훨씬 공감을 얻음

    • 내가 좋아하는 개념인 ‘epistemic takeover(인식적 장악)’ 이 떠오름.
      단순한 형태는 “이미 승리했다고 모두가 믿게 만드는 것”, 정교한 형태는 “모두가 다른 사람들도 그렇게 믿는다고 믿게 만드는 것”임. 결국 사람들은 그 믿음에 맞춰 행동하게 됨
    • “LLM이 실제로 어떻게 작동하는가”를 설명하는 건, “인간은 단지 분자와 뉴런의 집합이니 의미가 없다”고 말하는 것과 비슷하다고 생각함.
      LLM은 단순히 통계적 예측 엔진이지만, 그 과정에서 emergent behavior, 즉 지능적 행동이 나타날 수도 있음. 아직 확실히 알 수는 없음
    • “노동 대체가 사회 개혁보다 먼저 일어나는 건 나쁘다”는 주장에도 반대하는 사람들이 많음. 문제는 그들이 대가를 치르지 않는다는 것, 대신 스톡옵션을 받는다는 것임
    • “특이점이 실제로 일어나느냐는 중요하지 않다”는 주장에는 동의하지 않음.
      만약 특이점이 오지 않는다면 사람들의 믿음이 매우 중요하지만, 실제로 온다면 믿음은 거의 무의미해짐
    • 이런 논의는 1980년대에도 있었음. 기술 산업은 실제 역량과 그 뉘앙스에 관심 있는 사람들을 키워야 하고, “제품 없이도 성공할 수 있다”는 식의 자기계발식 추종자들을 내보내야 함
  • Frank Herbert의 『Dune』 구절을 인용하며, 인간이 사고를 기계에 맡긴 결과 다른 인간이 기계를 통해 인간을 지배하게 되었다고 함
    이제 우리는 읽지도, 쓰지도, 생각하지도 않게 될 것이라 경고함. LLM이 모든 걸 대신하게 되면 인류의 종말이 올 것이라고 주장함
    그리고 Poison Fountain 프로젝트를 언급하며, 매일 웹 크롤러에 ‘독성 데이터’를 주입하는 반(反)AI 무기를 소개함. 참여를 권유함

    • LLM이 나에게는 그런 영향을 주지 않음. 오히려 강화된 검색 도구처럼 유용하게 쓰고 있음
    • Herbert의 디스토피아에 맞서 Iain Banks식 유토피아를 상상함
    • SF 작가의 말을 예언처럼 받아들이면 안 됨. Herbert는 단지 자신의 세계관에서 특이점이 일어나지 않은 이유를 설명하기 위한 장치를 만든 것뿐임
    • “인류의 종말”은 여러 번 예언되었지만, 인류는 늘 변화하며 살아남음. 문제를 없애면 새로운 문제가 생길 뿐임
  • R.A. Lafferty의 1965년 단편 「Slow Tuesday Night」을 소개함.
    초고속 사회를 그린 2600단어짜리 SF로, 하루가 몇 분 만에 지나가는 세상을 묘사함

    • 철학자가 단 7분 만에 철학서를 완성하는 장면이 나오는데, 마치 LLM의 프롬프트 조정처럼 보임. 단어를 섞고 ‘개성 서명’을 넣는 과정이 지금의 AI 글쓰기와 닮았음
  • “기계가 초지능이 되는 순간이 아니라, 인간이 기계에 대해 집단적 의사결정을 coherently 내릴 수 없게 되는 순간이 특이점”이라는 문장을 인용하며 감탄함

    • 이미 그 시점을 한참 지나버렸다고 느낌
    • 게다가 Big Tech 기업들이 규제를 회피하며 관료제보다 빠르게 움직이려는 태도가 상황을 악화시킴
  • 기사 내용이 흥미로웠음. 2025년에 110만 명의 해고가 발표되었고, 그중 5만5천 명이 AI를 이유로 들었음. 하지만 이는 AI의 실제 성능이 아니라 ‘가능성’에 근거한 해고였음
    결국 AI는 우리가 이미 알고 있던 사실, 즉 의미 없는 사무직이 너무 많다는 현실을 드러냈을 뿐임

    • 1993년 이후 32년 동안 이런 해고 규모는 6번 있었음. 즉, 5년에 한 번꼴이라 그리 역사적이지 않음
    • 단기 실적을 위한 ‘next quarter problem’ 의 연장선일 뿐임. 독점 기업은 인력 절반을 줄여도 고객을 잃지 않음
    • 중간관리직이 늘어난 이유는 다른 일자리가 사라졌기 때문임. 사람들은 굶지 않기 위해 무의미한 관료직이라도 택함
    • DevOps가 DBA와 SysAdmin을 없앨 줄 알았지만, 오히려 새로운 산업을 만들었음. “의미 없는 일자리”는 여전히 존재함
    • 1960년대보다 행정직이 3배 늘어난 건 인구가 3배 늘었기 때문이기도 함. 단순히 무의미하다고 단정할 수는 없음
  • “지능 폭발”을 단순 모델로 표현한 미분방정식을 소개함
    `dx/dt = x²`의 해는 `x = 1/(C - t)`로, 성장 속도가 x에 비례하는 지수 성장보다 더 급격함.
    하지만 현실적 제약(전력, 자원 등)을 고려하면 결국 로지스틱 성장과 비슷한 형태로 수렴함

    • 빛의 원뿔(light cone) 때문에 대규모 성장은 x³보다 빠를 수 없고, 실제로는 x² 정도가 한계라고 봄
    • “특이점 논의에 논리와 현실을 들이대다니!”라며 농담 섞인 반응을 보임
  • 이 모든 게 비디오 게임 덕분이라는 점을 상기시킴. GPU 하드웨어 발전이 없었다면 LLM도 없었을 것임
    사실 AI는 수십 년간의 기술 축적의 결과임 — 칩, 인터넷, 오픈소스, 클라우드, 데이터센터, 수학과 물리학까지 모두가 불가피하게 특이점으로 향해온 과정

    • 하지만 어떤 이는 “NVIDIA가 아니었더라도 다른 산업이 선형대수 연산용 하드웨어를 발전시켰을 것”이라며 회의적임
    • 또 다른 이는 “완전한 헛소리”라고 일축함
  • “2034년까지는 괜찮다니 다행”이라며 농담 섞인 안도감을 표현함

  • 왜 더 이상 지식 배가(knowledge doubling) 개념으로 특이점을 논하지 않는지 의문을 제기함
    Buckminster Fuller의 ‘Knowledge Doubling Curve’와 Ray Kurzweil의 ‘Law of Accelerating Returns’를 언급하며,
    과거에는 인류 지식이 100년에 한 번, 이후 25년에 한 번씩 두 배로 늘었는데, 지금은 그 속도가 무한대로 수렴하는 시점을 특이점으로 봐야 하지 않겠느냐고 함

  • “2038년 유닉스 타임스탬프 문제”를 겪지 않아도 되겠다며 안도함

    • 2038년 1월 20일, 드론 떼가 하늘에서 떨어지고 인류가 살아남는 묵시록적 단편을 상상함
    • 사실 이런 종말론적 열망이 묵시록을 향한 심리적 동력일지도 모름
    • 2020년대의 vibecoded 소프트웨어 유지보수를 안 해도 된다며 농담함
    • 1998년에 ‘Y2038’ 티셔츠를 샀던 추억을 떠올림. 그땐 너무 먼 미래 같았는데 이제 12년밖에 남지 않았음
    • “휴, 기계가 알아서 처리하겠지”라며 해방감을 표현함