Theory 31

[Diffusion 스터디] 확산 모델의 수학 4.5 ~ 5.7 정리(CH4, CH5 완료)

드디어 1회독 완료!4.5 대칭성을 고려한 확산 모델대칭성(Symmetry): 세상의 많은 현상이나 데이터에서 나타나는 귀납적 편향(inductive bias)대칭성을 모델이 고려하게 되면 학습 효율 향상, 일반화 성능 개선 가능본 절에서는 확산 모델에서 대칭성을 반영하는 방법을 소개4.5.1 기하와 대칭성기하(Geometry)란?여러 종류의 변환(병진, 회전 등)에 대한 불변성(invariance)을 연구하는 분야예: 평행한 선을 병진하거나 회전하더라도 여전히 평행대칭성의 정의특정 대상에 어떤 조작을 해도 본질이 바뀌지 않는 성질예:이미지를 회전해도 분류 결과가 바뀌지 않음시간 방향을 바꾸어도 동일한 과정 발생대칭성을 고려한 학습대칭성을 잘 반영한 모델은 효율적인 학습 가능예시:CNN → 병진 대칭RN..

[Diffusion 스터디] 확산 모델의 수학 4.0 ~ 4.4 정리

Chapter 4. 확산 모델의 발전이 장에서는 확산 모델의 발전 과정을 세 가지 측면으로 소개함:조건부 생성을 위한 확산 모델전체 확산 경로가 아닌 부분공간만을 확산하는 모델변형 상황(variation)을 고려한 확산 모델4.1 조건부 생성에서의 점수조건부 생성은 실제로 확산 모델을 사용할 때 많이 쓰이는 방식이다.기본적으로 확산 모델은 조건을 입력으로 추가할 수 있다.예: $x \sim p(x)$ 대신, $x \sim p(x|y)$로 바꾸어, 조건 $y$에 따라 데이터를 생성.예를 들어 $x$는 이미지, $y$는 텍스트 설명이라면,조건부 생성은 텍스트에 맞는 이미지를 생성하는 것임.이러한 조건부 생성에서는 점수 기반 학습이 핵심인데,조건이 없는 경우에는 점수 함수가 $\nabla_x \log p(x)..

[Diffusion 스터디] 확산 모델의 수학 3.6 ~ 3.7 정리(CH3 완료)

3.6 확률 플로우 ODE확률 미분방정식(SDE)은 시간에 따라 변화하는 확률 분포 $p_t(x)$를 따르는 확률 과정을 정의한다. 그런데 이 SDE를 확률적 요소 없이 ODE(Ordinary Differential Equation, 상미분방정식)로 변환할 수 있다. ODE는 잡음(noise)이 없으므로 확률적인 요소를 포함하지 않지만, 데이터 분포의 표현력은 SDE와 동일하다. 이러한 ODE를 확률 플로우 ODE(probability flow ODE)라고 한다.확률 플로우 ODE는 다음과 같이 정의된다:$$dx = \left[f(x, t) - \frac{1}{2} g(t)^2 \nabla_x \log p_t(x)\right] dt \tag{3.7}$$여기서 $f(x, t)$: 드리프트 항$g(t)$: ..

[Diffusion 스터디] 확산 모델의 수학 3 ~ 3.5 정리

CHAPTER 3: 연속 시간 확산 모델앞 장에서는 데이터에 서서히 잡음을 추가하는 확산 과정과, 이를 반대로 수행하는 역확산 과정을 통해 잡음에서 데이터를 복원하는 과정을 살펴보았다. 이때, 스텝 수를 증가시키면 discretization error를 작게 할 수 있다. 스텝 수를 무한대로 증가시키면 연속 시간 확산 모델로 수렴하며, 이를 확률미분방정식(Stochastic Differential Equation, SDE)로 표현할 수 있다.확률미분방정식은 SDE → ODE 형태로 전환될 수 있으며, 특히 잡음을 포함하지 않는 경우엔 Deterministic 과정으로 간주된다. 또한 SDE는 prior distribution와 데이터 분포를 상호 변환하는 데 유용하며, 로그 우도의 하한이 아닌 로그 우도..

[Diffusion 스터디] 확산 모델의 수학 2.4.0 ~ 2.4.4 정리(CH2 완료)

2.4 SBM과 DDPM의 신호 대 잡음비를 사용한 통일적인 구조SBM과 DDPM은 도출 과정은 다르지만, 목적함수와 표본추출과 같은 형태를 하고 있음. 하지만 입력에 잡음을 더하는 과정에서는 중요한 차이가 있음.SBM (Score-Based Model): $$x_t = x_{t-1} + \sigma_t \varepsilon_t$$DDPM (Denoising Diffusion Probabilistic Model): $$x_t = \sqrt{\alpha_t}x_{t-1} + \sqrt{1-\alpha_t}\varepsilon_{t-1}$$여기서 $\beta_t = 1 - \alpha_t$인 것에 주의해야 함.SBM: 입력은 그대로 남고 잡음의 스케일만 커짐DDPM: 입력을 작게 한 만큼 잡음을 크게 해나감..

[Diffusion 스터디] 확산 모델의 수학 2.3.2 ~ 2.3.4 정리

2.3.2 DDPM의 학습1. DDPM에서의 목표DDPM의 학습 목표는 생성 확률 분포 $p_\theta(x_0)$를 최대화하는 것이다. 하지만 이때 $x_0$​는 관측값이고, 생성 과정에서는 $x_1, x_2, ..., x_T$와 같은 잠재변수(latent variables)가 존재한다.직접적으로 $p_\theta(x_0)$를 계산하기 어렵기 때문에 최대우도추정(Maximum Likelihood Estimation)을 통해 간접적으로 학습하며, 이때 다음과 같이 marginalize(: 어떤 변수 집합에서 일부 변수에 대해 적분을 수행해 없애고, 나머지 변수에 대한 주변 확률분포를 구하는 것. 예: $p(x) = \int p(x, y) \, dy$) 한다:$$p_\theta(x_0) = \int p_\..

[SNU 연합스터디 / Euron Rersearch 논문 세미나] RL 개념과 PPO, DPO, GRPO + RAINBOW

1. Reinforcement LearningMDP (Markov Decision Process)상태 $s$: 주어진 상황이나 환경에서의 에이전트의 위치.초기 상태 $s_0$: 알고리즘이 시작하는 초기 환경.행동 $a$: 에이전트가 선택할 수 있는 행동.보상 $r$: 특정 행동을 취한 후 받는 보상.정책 $\pi$: 주어진 상태에서 어떤 행동을 할지 결정하는 함수.목표: 최적의 정책을 찾아 보상을 최대화하는 것.가치 함수상태 가치 함수 $V_\pi(s)$: 주어진 상태에서 정책 $\pi$를 따를 때의 기대 보상.행동 가치 함수 $Q_\pi(s, a)$: 주어진 상태에서 특정 행동을 했을 때의 기대 보상.기댓값의 기댓값$\mathbb{E}_x [\mathbb{E}y[f(x,y) | x]] = \mathbb..

Theory/etc. 2025.05.15

[Diffusion 스터디] 확산 모델의 수학 2 ~ 2.3.1 정리

Chapter 1 복습더보기1.5 점수 매칭 (Score Matching)1.5.2 점수 매칭의 정의점수란 확률분포의 로그 확률밀도 함수의 기울기, 즉$s(x) = \nabla_x \log p(x)$확률분포 자체를 학습하기보다 점수만 학습하는 방식.이를 Score-Based Model (SBM)이라 하며, SBM은 확률변수의 총합이 1이라는 제약으로 인해 점수만 일치하면 동일한 분포가 됨.1.5.3 명시적 vs 암묵적 점수 매칭명시적 (Explicit Score Matching, ESM)정답 분포 $p(x)$를 직접 이용하여 다음을 최소화:$$J_{\text{ESM}}(\theta) = \frac{1}{2} \mathbb{E}_{p(x)} \left[\| \nabla_x \log p(x) - s_\the..

[OUTTA Alpha 5/5 세미나] Medical AI

1. Medical Image Format1. 일반 이미지 데이터셋과 의료 영상의 차이일반 이미지 예시ILSVRC (ImageNet): 약 100만 개의 이미지 포함Cityscapes: 30개 클래스, 500개 라벨의료 영상의 특성제조사마다 포맷이 표준화되어 있지 않음동일한 장기라도 영상의 의미나 구조가 다름압축이 매우 중요 (고용량, 고해상도 영상 많음)정적인 영상(X-ray)과 동적인 영상(초음파 등) 모두 포함됨→ 단순 이미지 처리와 달리, 영상의 구조적 맥락을 고려해야 함2. 의료 영상 저장 및 전송 시스템PACS (Picture Archiving and Communication System)영상 획득 (CT, MRI, X-ray) → 저장 → 병원 내 전달DICOM (Digital Imaging..

[Diffusion 스터디] 확산 모델의 수학 1.5.6~ 1.5.8 정리(CH1 완료)

1.5.6 디노이징 점수 매칭이 점수를 추정할 수 있다는 증명목표디노이징 점수 매칭(DSM)이 명시적 점수 매칭(ESM)과 상수를 제외하고 동일한 목적함수임을 증명함으로써, DSM을 통해도 정확한 점수 함수 학습이 가능함을 보이고자 함.1. 목적함수 비교명시적 점수 매칭 (ESM) in 노이즈 섞인 분포:$$J_{\text{ESM}_{p_\sigma}}(\theta) = \frac{1}{2} \mathbb{E}_{p_\sigma(\tilde{x})} \left[ \|\nabla_{\tilde{x}} \log p_\sigma(\tilde{x}) - s_\theta(\tilde{x}, \sigma)\|^2 \right]$$DSM:$$J_{\text{DSM}_{p_\sigma}}(\theta) = \frac{..