Processing math: 100%

PRML 4

3.1. Linear Basis Function Models

Regression은 어떠한 dataset이 주어져있을 때 그 dataset에 적합한 function을 찾는 것을 말한다. 가장 대표적으로, y=ax+b에서의 ab를 찾는 regression이 위의 사진이다. 여기서 "linear"라는 말이 들어가면, 함수가 선형이라는 의미가 아니고, 그 함수들의 계수, 즉 ab가 선형이라는 의미이다. 따라서 linear regression은 다음과 같이 확장될 수 있다. y=w0+M1j=1wjϕj(x), where ϕj(x): function, called basis function. regression을 통해 찾아야할 계수들, $w_0 , \cdots, w_{M..

6.3. Radial Basis Function Networks

PRML의 Chapter 3에서는 fixed basis functions에서의 regression model을 다루었다.(chapter 3는 곧 다룰 예정) 여기서는 basis function 중에서도 널리 사용되고 있는 "radial basis functions"를 다룬다. radial basis functions의 정의는 다음과 같다. Def. radial basis functions is basis functions, which have the property that each basis function depends only on the radial distance from a center μj, so that ϕj(x)=h(||xμj||). 즉, radial fu..

6.2. Constructing Kernels

6.1에서 Gram matrix를 정의할 때엔 ϕ(x)의 내적을 사용했고, Gram matrix를 kernel function으로 확장할 수 있음을 언급했다. 6.2에서는 kernel function이 무엇이고, 어떤 성질을 만족해야 하는지 알아보려 한다. kernel function의 수학적인 정의는 다음과 같다. Def. For an input space X, a kernel is a bivariate function k:X×XR s.t. x,xX, 1. k(x,x)=k(x,x) (symmetric) 2. $k(x, x..

6.1. Dual Representations

Linear regression (with L2 regularization) 의 loss function은 흔히 다음과 같이 표현된다. L(w)=12Nn=1{wTϕ(xn)tn}2+λ2wTw, where λ0 여기서 중요한 부분은 ϕ(xn), 즉 어떠한 mapping으로 xn을 표현할 것인가?이다. 예를 들어, ϕ(xn)=[1,x,x2]T로 두면, 우리의 model은 wTϕ(xn)=w0+w1xn+w2x2n이 되어 우리는 2차 함수로의 regression을 하고..

1