GN⁺ 6달전 | parent | ★ favorite | on: 확산 모델의 원리(arxiv.org)
Hacker News 의견
  • 영상으로 배우는 걸 선호한다면 Stefano ErmonCS236 Deep Generative Models 강의를 추천함
    모든 강의는 YouTube 재생목록에서 볼 수 있고, 강의 자료는 공식 사이트에 정리되어 있음

    • Stanford가 이 CS236 과목을 더 이상 개설하지 않는 게 아쉬움. 벌써 2년째 열리지 않았음
  • 이 글이 며칠 전에 내가 올린 글의 중복 게시물 아닌가 하는 의문이 듦
    이전 게시물 링크

    • 맞음, 중복이긴 하지만 경우에 따라 허용됨
      HN FAQ에 따르면, 1년 이상 주목받지 못한 글은 소수의 재게시가 가능함
      또, 운영 관련 문의는 댓글 대신 hn@ycombinator.com으로 보내야 함
  • 문서에서 "Fokker-Planck" 를 검색해보니 97번이나 등장함
    이 정도면 읽어볼 만하다고 생각함

    • 그런데 나는 26번만 검색됨. 기준이 뭐지? 웃음이 나옴 :D
  • 혹시 transformer에 대해 이 정도 범위와 깊이를 다루는 자료가 있는지 궁금함

  • 수학이 너무 많아서 솔직히 좀 겁이 남

    • “scared”가 아니라 “scated” 아닌가 하는 농담을 던짐
  • 이 글을 읽으면서 요즘의 AI가 실제로는 지능적이라기보다 brute force에 가깝다는 생각이 듦
    어쩌면 인간의 뇌도 평생 동안 brute-force를 수행하는 기계일지도 모름
    하지만 인공 지능은 결국 인공 향료처럼 영혼 없는 결과물로 느껴짐

    • 혹시 물리학자인가 싶음. RG flow를 역으로 수행하는 과정에도 나름의 아름다움이 있다고 생각함
      통계의 힘은 깊은 구조와 선택에 기반함
    • “항상”이라는 말은 너무 단정적임. 언젠가는 더 나아질 수도 있음
    • 지능은 이런 brute-force 알고리즘이 학습하는 다양체(manifold) 라고 생각함
      인간은 평생 brute-force를 하지 않지만, 진화가 수십억 년에 걸쳐 그 구조를 만들어왔고
      그 위에 수백만 년 동안 메타 학습 알고리즘을 압축해 넣은 존재임
  • 470페이지라니?! 너무 많아서 순간 멘붕이 옴 😆