Notice
Recent Posts
Recent Comments
Link
«   2026/02   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
Tags
more
Archives
Today
Total
관리 메뉴

medical image & AI

Pattern recognition and Machine learning - Bayesian decision theory(2) 본문

머신러닝

Pattern recognition and Machine learning - Bayesian decision theory(2)

hyunwooLee 2020. 6. 20. 00:26

- [Example] Two classes, two-dim "Gaussian pdfs"

--> 어떠한 확률분포를 gaussian이라고 가정한다...

--> classification을 위하여 우리는 조건부확률분포를 알아야 한다. 이를 아는 것이 쉽지 않기 때문에 gaussian 분포를 따른다고 가정을하고 시작한다.

 

 

- The normal [Gaussian] density

* 1-D(univariate) normal density 이고, mean = μ, std = σ 이라고 가정한다면, 이에대한 가우시안 분포 식과 그래프는 아래와 같다.

* 또한, input x 값과 p(x)를 이용하여 평균값과, 분산을 구할 수 있다. 확률에서의 기본적인 개념

- Decision surface [1-D feature] : An example

* 우리가 구하고자하는 확률분포는 p(x|w1), p(x|w2) (사전확률) 이다. 하나의 예시를 들어보자

* 이 경우에는 decision region이 연속적이지 않게 나뉘기때문에 단순하지 않다.

* 이를 Non-simply connected decision regions 라고한다.

* 이런경우는 두 분포가 서로 다른 variance를 가지고 있을때 나타난다.

 

-  The normal [Gaussian] density - "Multivariate (n-D) normal density"

 

* classification을 하면서 우리가 주로 다루어야할 것은 multivariate 데이터들이다. 

* multivariate normal density fucntion은 다음과 같다.

* 여기서 시그마가 의미하는 바는 변수들 사이의 "공분산 행렬" 이다.  

* 먼저 exponential 앞부분을 봐보자. d 가 의미하는 바는 몇차원의 feature를 가졌는가.. 를 나타내는 것이다.

* 시그마 양 옆에 작대기가 있는데 이는 공분산행렬의 determinant를 의미한다. 따라서 scalar값을 갖게된다.

* exponential 안을 봐보자. t는 transpose를 의미하고, 시그마에 -1승은 역행렬을 의미한다.

* 만약 2차원의 데이터를 다룬다고 가정하여보자. 이때 데이터행렬을 2x1이라고 가정할 수 있다. 그렇다면 exponential 안의 행렬곱 차원을 고려해보자. 1x2 / 2x2 / 2x1 이되므로 최종적으로 1x1 scalar값이 나오게된다.  따라서 x가 몇차원이냐에 관계없이 저 대괄호 안은 하나의 숫자가 된다고 할 수 있다.

 

* 여기서 말하는 "몇 차원이냐" 할때의 차원을 만드는 것은 input데이터의 feature라고 할 수 있다. 

 

 

이 다음은 실제 decision boundary를 만들기 위해 조건부확률(각 class에 대한)분포에대한 가우시안 분포를 알아볼 것이다.