4P by GN⁺ 3달전 | ★ favorite | 댓글 1개
  • 확산 모델은 데이터가 점진적으로 노이즈로 변하는 과정을 정의하고, 이를 역으로 복원해 노이즈에서 데이터를 생성하는 생성 모델 구조
  • 모델의 핵심은 시간에 따라 변하는 속도장(velocity field) 을 학습해, 단순한 분포를 데이터 분포로 변환하는 연속적 생성 경로 구성
  • 세 가지 주요 관점으로는 변분적(variational) , 점수 기반(score-based) , 흐름 기반(flow-based) 접근이 있으며, 각각 노이즈 제거, 확률 경사 학습, 연속적 변환으로 설명
  • 이 기반 위에서 제어 가능한 생성, 효율적 샘플링, 시간 간 직접 매핑(flow-map) 등의 확장 연구가 논의됨
  • 확산 모델의 수학적 원리와 다양한 공식화를 통합적으로 이해할 수 있는 기초 이론서로서의 중요성 강조

확산 모델의 기본 개념

  • 확산 모델은 데이터를 점진적으로 노이즈로 오염시키는 순방향 과정(forward process) 과, 이를 역으로 복원해 노이즈에서 데이터를 생성하는 역방향 과정(reverse process) 으로 구성
    • 순방향 과정은 데이터 분포를 단순한 노이즈 분포로 연결하는 연속적 중간 분포 집합을 정의
    • 역방향 과정은 동일한 중간 분포를 복원하며 노이즈를 데이터로 변환
  • 모델의 목표는 이 역방향 과정을 학습해, 노이즈에서 데이터로의 변환 경로를 재현하는 것

세 가지 수학적 관점

  • 변분적 관점(Variational View)
    • 변분 오토인코더(VAE)에서 영감을 받아, 노이즈를 단계적으로 제거하는 작은 복원 목표(denoising objective) 를 학습
    • 각 단계의 복원이 누적되어 전체적으로 노이즈를 데이터로 변환
  • 점수 기반 관점(Score-Based View)
    • 에너지 기반 모델(Energy-Based Model)에 뿌리를 두며, 데이터 분포의 기울기(gradient) 를 학습
    • 샘플을 더 높은 확률 영역으로 이동시키는 방향을 계산
  • 흐름 기반 관점(Flow-Based View)
    • 정규화 흐름(Normalizing Flow)과 유사하게, 속도장(velocity field) 을 따라 노이즈에서 데이터로 이동하는 연속적 경로로 생성 과정을 해석

공통 구조와 수학적 기반

  • 세 관점 모두 시간 의존적 속도장(time-dependent velocity field) 을 학습한다는 공통점을 가짐
    • 이 속도장은 단순한 사전 분포(prior)를 데이터 분포로 운반하는 역할 수행
    • 샘플링은 미분방정식(differential equation) 을 풀어 노이즈를 데이터로 변환하는 과정으로 표현
  • 이러한 수학적 틀 위에서 효율적 샘플링을 위한 수치 해석 기법, 제어 가능한 생성(guidance) , 임의 시점 간 직접 매핑(flow-map) 등이 논의됨

독자 대상 및 목적

  • 독자는 딥러닝 및 생성 모델링의 기초 지식을 가진 연구자, 대학원생, 실무자
  • 목표는 확산 모델의 이론적 토대와 다양한 공식화 간의 관계를 명확히 이해하게 하는 것
  • 이를 통해 기존 모델을 자신 있게 적용하고, 새로운 연구 방향을 탐색할 수 있는 기반 제공

서문 및 구성 개요

  • 확산 모델은 머신러닝, 컴퓨터 비전, 자연어 처리 등 다양한 분야에서 중심적 생성 패러다임으로 자리 잡음
  • 본 저서는 방대한 연구를 이론적 원리, 학습 목표, 샘플러 설계, 수학적 아이디어 측면에서 체계화
  • 주요 구성
    • Part A & B: 확산 모델의 기초와 세 가지 관점의 기원 및 관계 정리
    • 이후 장에서는 효율적 샘플링, 제어 가능한 생성, 독립적 생성 모델로의 확장 논의
  • 각 장은 선택적으로 읽을 수 있으며, 기본 개념에 익숙한 독자는 VAE, EBM, Normalizing Flow 관련 서론을 건너뛸 수 있음

감사의 말

  • 서울시립대학교 및 KIAS의 권도현 교수가 7장 일부를 검토하고 수학적 정확성 및 표현 개선에 기여
  • 그의 피드백과 논의가 최종 원고의 완성도 향상에 도움을 줌
Hacker News 의견
  • 영상으로 배우는 걸 선호한다면 Stefano ErmonCS236 Deep Generative Models 강의를 추천함
    모든 강의는 YouTube 재생목록에서 볼 수 있고, 강의 자료는 공식 사이트에 정리되어 있음

    • Stanford가 이 CS236 과목을 더 이상 개설하지 않는 게 아쉬움. 벌써 2년째 열리지 않았음
  • 이 글이 며칠 전에 내가 올린 글의 중복 게시물 아닌가 하는 의문이 듦
    이전 게시물 링크

    • 맞음, 중복이긴 하지만 경우에 따라 허용됨
      HN FAQ에 따르면, 1년 이상 주목받지 못한 글은 소수의 재게시가 가능함
      또, 운영 관련 문의는 댓글 대신 hn@ycombinator.com으로 보내야 함
  • 문서에서 "Fokker-Planck" 를 검색해보니 97번이나 등장함
    이 정도면 읽어볼 만하다고 생각함

    • 그런데 나는 26번만 검색됨. 기준이 뭐지? 웃음이 나옴 :D
  • 혹시 transformer에 대해 이 정도 범위와 깊이를 다루는 자료가 있는지 궁금함

  • 수학이 너무 많아서 솔직히 좀 겁이 남

    • “scared”가 아니라 “scated” 아닌가 하는 농담을 던짐
  • 이 글을 읽으면서 요즘의 AI가 실제로는 지능적이라기보다 brute force에 가깝다는 생각이 듦
    어쩌면 인간의 뇌도 평생 동안 brute-force를 수행하는 기계일지도 모름
    하지만 인공 지능은 결국 인공 향료처럼 영혼 없는 결과물로 느껴짐

    • 혹시 물리학자인가 싶음. RG flow를 역으로 수행하는 과정에도 나름의 아름다움이 있다고 생각함
      통계의 힘은 깊은 구조와 선택에 기반함
    • “항상”이라는 말은 너무 단정적임. 언젠가는 더 나아질 수도 있음
    • 지능은 이런 brute-force 알고리즘이 학습하는 다양체(manifold) 라고 생각함
      인간은 평생 brute-force를 하지 않지만, 진화가 수십억 년에 걸쳐 그 구조를 만들어왔고
      그 위에 수백만 년 동안 메타 학습 알고리즘을 압축해 넣은 존재임
  • 470페이지라니?! 너무 많아서 순간 멘붕이 옴 😆