I. Kernel Density Estimation (KDE)
KDE๋ kernel ํจ์๋ฅผ ์ด์ฉํด ํ๋ฅ ๋ฐ๋ํจ์๋ฅผ ์ถ์ ํ๋ ๋ฐฉ๋ฒ์ด๋ค. ํ๋์ ์์๋ก, ๊ธธ๊ฑฐ๋ฆฌ์์ ๋ฒ์ฃ ๋ฐ์๋์ ๋ํ๋ธ ๋ฐ์ดํฐ๊ฐ ์๋ค๊ณ ํ์.
Crime | Location |
1 | 15 |
2 | 12 |
3 | 10 |
... | ... |
์ด ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํด, ๊ธธ๊ฑฐ๋ฆฌ ๊ฐ ์ง์ ์์์ ๋ฒ์ฃ ๋ฐ์ ๊ฐ๋ฅ์ฑ์ ์ถ์ ํ๊ณ ์ถ๋ค๊ณ ํ์. ํน์ ์ง์ ์์ ๋ฒ์ฃ๊ฐ ๋ฐ์ํ๋ค๋ฉด, ๊ทธ ๊ทผ์ฒ์๋ ๋ฒ์ฃ๊ฐ ๋ฐ์ํ์ ํ๋ฅ ์ด ๋๋ค๊ณ ํ ์ ์๋ค.
๋ฐ๋ผ์ ์ฐ๋ฆฌ๋ ๊ณผ๊ฑฐ์ ๋ฒ์ฃ๊ฐ ๋ฐ์ํ๋ ์์น๋ง๋ค kernel์ ์๊ณ , ์ด๋ฅผ ๋ชจ๋ ๋ํ์ฌ ๋ฒ์ฃ์จ์ ๋ํ ๋ฐ๋ํจ์(KDE)๋ฅผ ์ถ์ ํ ์ ์๋ค.
$\hat{f}_h(x)=\frac{q}{nh}\sum_{i-1}^nK(\frac{x-x_i}{h})$
Kernel ํจ์ $K$๋ฅผ ์ด๋ป๊ฒ ์ค์ ํ๋๋์ ๋ฐ๋ผ KDE์ ๋ชจ์๋ ๋ฐ๋๋ค. ์ข์ kernel ํจ์๋ฅผ ์ด์ฉํ๋ฉด KDE๋ ๋พฐ์กฑํด์ง ๊ฒ์ด๊ณ , ๋์ kernel ํจ์๋ฅผ ์ฌ์ฉํ๋ฉด KDE๋ ๋งค๋๋ฌ์ด ํํ๊ฐ ๋ ๊ฒ์ด๋ค. KDE๊ฐ overfitting/underfitting ๋์ง ์๋๋ก kernel ํจ์์ bandwidth๋ฅผ ์ ์กฐ์ ํด์ผ ํ๋ค.
์๋๋ kernelํจ์์ bandwidth์ kernelํจ์์ ์ข ๋ฅ์ ๋ฐ๋ฅธ KDE์ ํํ๋ฅผ ๋ณด์ฌ์ฃผ๋ ๊ทธ๋ฆผ์ด๋ค.
II. Kernel Regression (KR)
Kernel Regression์ non-parametricํ regression๋ฐฉ๋ฒ์ผ๋ก, kernel ํจ์๋ฅผ ์ด์ฉํด ์ ์ฌํ ์ง์ ๋ค์ weighted average๋ก ์ถ์ ๊ฐ์ ์์ธกํ๋ค.
ํน์ ํ ์ง์ ์์์ ์์ธก๊ฐ์ ๊ธฐ๋๊ฐ $g(x)$๋ฅผ ๋ค์๊ณผ ๊ฐ์ด ํํํ ์ ์๋ค.
$g(x) = E(Y|X=x)=\intyf(y|x)dy$
Bayes' rule์ ๋ฐ๋ฅด๋ฉด ๋ค์๊ณผ ๊ฐ๋ค.
$\int yf(y|x)dy = \int\frac{yf(x,y)dy}{f(x)}$
์ ์์์ $f(x,y)$์ $f(x)$๋ฅผ kernel ํจ์๋ก ๋์ฒดํ๋ฉด ๋ค์๊ณผ ๊ฐ๋ค.
$\hat{g}(x) = \int\frac{\sum_{i=1}^ny_iK(\frac{x-x_i)}{h}}{\sum_{i=1}^nK(\frac{x-x_i)}{h}}$
์ด๋ ๊ฐ data point๋ก๋ถํฐ ์์ธกํ ์ง์ ๊น์ง์ ๊ฑฐ๋ฆฌ์ ๋น๋กํ์ฌ ๊ฐ์ค์น๋ฅผ ์ค weighted average ๊ฐ์ด๋ผ๊ณ ๋ณผ ์ ์๋ค.
'๐ Deep Learning > DL & ML ์กฐ๊ฐ ์ง์' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
Transformer์ positional encoding (PE) (0) | 2021.10.18 |
---|---|
Convolution layer์ parameter ๊ฐ์ (0) | 2021.10.04 |
MSE Loss (L2 Loss) vs. MAE Loss (L1 Loss) (0) | 2021.01.19 |