▲GN⁺ 6달전 | parent | ★ favorite | on: 확산 모델의 원리(arxiv.org)Hacker News 의견 영상으로 배우는 걸 선호한다면 Stefano Ermon의 CS236 Deep Generative Models 강의를 추천함 모든 강의는 YouTube 재생목록에서 볼 수 있고, 강의 자료는 공식 사이트에 정리되어 있음 Stanford가 이 CS236 과목을 더 이상 개설하지 않는 게 아쉬움. 벌써 2년째 열리지 않았음 이 글이 며칠 전에 내가 올린 글의 중복 게시물 아닌가 하는 의문이 듦 이전 게시물 링크 맞음, 중복이긴 하지만 경우에 따라 허용됨 HN FAQ에 따르면, 1년 이상 주목받지 못한 글은 소수의 재게시가 가능함 또, 운영 관련 문의는 댓글 대신 hn@ycombinator.com으로 보내야 함 문서에서 "Fokker-Planck" 를 검색해보니 97번이나 등장함 이 정도면 읽어볼 만하다고 생각함 그런데 나는 26번만 검색됨. 기준이 뭐지? 웃음이 나옴 :D 혹시 transformer에 대해 이 정도 범위와 깊이를 다루는 자료가 있는지 궁금함 수학이 너무 많아서 솔직히 좀 겁이 남 “scared”가 아니라 “scated” 아닌가 하는 농담을 던짐 이 글을 읽으면서 요즘의 AI가 실제로는 지능적이라기보다 brute force에 가깝다는 생각이 듦 어쩌면 인간의 뇌도 평생 동안 brute-force를 수행하는 기계일지도 모름 하지만 인공 지능은 결국 인공 향료처럼 영혼 없는 결과물로 느껴짐 혹시 물리학자인가 싶음. RG flow를 역으로 수행하는 과정에도 나름의 아름다움이 있다고 생각함 통계의 힘은 깊은 구조와 선택에 기반함 “항상”이라는 말은 너무 단정적임. 언젠가는 더 나아질 수도 있음 지능은 이런 brute-force 알고리즘이 학습하는 다양체(manifold) 라고 생각함 인간은 평생 brute-force를 하지 않지만, 진화가 수십억 년에 걸쳐 그 구조를 만들어왔고 그 위에 수백만 년 동안 메타 학습 알고리즘을 압축해 넣은 존재임 470페이지라니?! 너무 많아서 순간 멘붕이 옴 😆
Hacker News 의견
영상으로 배우는 걸 선호한다면 Stefano Ermon의 CS236 Deep Generative Models 강의를 추천함
모든 강의는 YouTube 재생목록에서 볼 수 있고, 강의 자료는 공식 사이트에 정리되어 있음
이 글이 며칠 전에 내가 올린 글의 중복 게시물 아닌가 하는 의문이 듦
이전 게시물 링크
HN FAQ에 따르면, 1년 이상 주목받지 못한 글은 소수의 재게시가 가능함
또, 운영 관련 문의는 댓글 대신 hn@ycombinator.com으로 보내야 함
문서에서 "Fokker-Planck" 를 검색해보니 97번이나 등장함
이 정도면 읽어볼 만하다고 생각함
혹시 transformer에 대해 이 정도 범위와 깊이를 다루는 자료가 있는지 궁금함
수학이 너무 많아서 솔직히 좀 겁이 남
이 글을 읽으면서 요즘의 AI가 실제로는 지능적이라기보다 brute force에 가깝다는 생각이 듦
어쩌면 인간의 뇌도 평생 동안 brute-force를 수행하는 기계일지도 모름
하지만 인공 지능은 결국 인공 향료처럼 영혼 없는 결과물로 느껴짐
통계의 힘은 깊은 구조와 선택에 기반함
인간은 평생 brute-force를 하지 않지만, 진화가 수십억 년에 걸쳐 그 구조를 만들어왔고
그 위에 수백만 년 동안 메타 학습 알고리즘을 압축해 넣은 존재임
470페이지라니?! 너무 많아서 순간 멘붕이 옴 😆