728x90

medium.com/jun-devpblog/bayesian-dl-1-properties-of-gaussian-distribution-and-prior-posterior-predictive-distribution-b02529b894a8

 

[Bayesian DL] 1. Properties of Gaussian Distribution and Prior(Posterior) Predictive Distribution

Introduction to some properties of the Gaussian distribution as well as prior(posterior) predictive distribution

medium.com

 

728x90

'Dic' 카테고리의 다른 글

jeffreys prior  (0) 2021.03.18
Kernel (Bayesian statistics)  (0) 2021.03.18
Beta distribution  (0) 2021.03.04
ML & MAP  (0) 2021.03.04
Fov (Field of View)  (0) 2021.02.22
728x90

medium.com/@kim_hjun/beta-%EB%B6%84%ED%8F%AC-728d7453dc33

 

Beta 분포

Beta dist. 학부의 대부분 기초 통계학 수업에서 쉽게 찾아볼 수 있는 분포이자, Bayesian Statistics에서의 기본이 되는 Coin Toss 예제에서 본격적으로 그 유용성이 강조되는 분포.

medium.com

 

728x90

'Dic' 카테고리의 다른 글

Kernel (Bayesian statistics)  (0) 2021.03.18
Predictive Distriution  (0) 2021.03.05
ML & MAP  (0) 2021.03.04
Fov (Field of View)  (0) 2021.02.22
End-to-end learning  (0) 2021.01.11
728x90

darkpgmr.tistory.com/119

 

베이지언 확률(Bayesian Probability)

갑자기 블로그를 처음 시작했던 2013년 1월달이 생각납니다. 그 때는 처음 시작하는 마음이라 거의 하루에 한개씩 글을 올렸던 것 같습니다 ^^. 새해가 되어서 그런걸까요.. 그때만큼은 아니지만

darkpgmr.tistory.com

darkpgmr.tistory.com/62

 

베이즈 정리, ML과 MAP, 그리고 영상처리

고등학교 수학에서 조건부 확률이라는 걸 배운다. 그런데 그게 나중에 가면 베이지안 확률이라는 이름으로 불리면서 사람을 엄청 햇갈리게 한다. 1. 베이즈 정리 베이즈 정리(Bayes's theorem) 또는

darkpgmr.tistory.com

 

728x90

'Dic' 카테고리의 다른 글

Predictive Distriution  (0) 2021.03.05
Beta distribution  (0) 2021.03.04
Fov (Field of View)  (0) 2021.02.22
End-to-end learning  (0) 2021.01.11
Sampling with replacement  (0) 2021.01.07
728x90

luckygg.tistory.com/223#:~:text=Field%20of%20View(FOV),V)%20%EC%98%81%EC%97%AD%EC%9D%84%20%EC%9D%98%EB%AF%B8%ED%95%A9%EB%8B%88%EB%8B%A4.

 

[렌즈] 머신 비전 광학계 및 기초 용어 설명

소개 머신 비전에서 광학계는 정말 중요합니다. 여기서 광학계란 카메라, 렌즈, 조명까지를 일컫습니다. 물리적인 광학계가 잘 구성되었다면 검사 알고리즘이 편해질 것이고, 그렇지 않다면 알

luckygg.tistory.com

구성된 광학계로 얻을 수 있는 가로(H) 또는 세로(V) 영역을 의미합니다.

728x90

'Dic' 카테고리의 다른 글

Beta distribution  (0) 2021.03.04
ML & MAP  (0) 2021.03.04
End-to-end learning  (0) 2021.01.11
Sampling with replacement  (0) 2021.01.07
Bayes optimal classifier  (0) 2021.01.04
728x90

eehoeskrap.tistory.com/183

 

[Deep Learning] end-to-end trainable neural network

논문을 읽다가 이해가 안되던 end-to-end trainable neural network 의 의미를 알아보도록 하자. 모델의 모든 매개변수가 하나의 손실함수에 대해 동시에 훈련되는 경로가 가능한 네트워크로써 역전파 알

eehoeskrap.tistory.com

 

728x90

'Dic' 카테고리의 다른 글

ML & MAP  (0) 2021.03.04
Fov (Field of View)  (0) 2021.02.22
Sampling with replacement  (0) 2021.01.07
Bayes optimal classifier  (0) 2021.01.04
Gaussian mixture model  (0) 2021.01.01
728x90

blog.daum.net/cefotaxime/26

 

복원추출, 비복원추출, 표본오차

복원추출(sampling with replacement)이란 추출하였던 것을 제자리에 돌려놓고 다음 것을 추출하는 방법이다. 비복원추출(sampling without replacement)은 추출한 것을 제자리에 되돌리지 않고 다음 것을 추출

blog.daum.net

 

728x90

'Dic' 카테고리의 다른 글

Fov (Field of View)  (0) 2021.02.22
End-to-end learning  (0) 2021.01.11
Bayes optimal classifier  (0) 2021.01.04
Gaussian mixture model  (0) 2021.01.01
Focal Loss  (0) 2020.12.30
728x90

https://machinelearningmastery.com/bayes-optimal-classifier/#:~:text=The%20Bayes%20Optimal%20Classifier%20is,prediction%20for%20a%20new%20example.&text=Bayes%20Optimal%20Classifier%20is%20a%20probabilistic%20model%20that%20finds%20the,for%20a%20new%20data%20instance.

 

A Gentle Introduction to the Bayes Optimal Classifier

The Bayes Optimal Classifier is a probabilistic model that makes the most probable prediction for a new example. It is described using the Bayes Theorem that provides a principled way for calculating a conditional probability. It is also closely related to

machinelearningmastery.com

Bayes optimal classifier는 새로운 example에 대해서 가장 확률적으로 그럴 듯환 prediction을 결과를 도출하는 확률 모델이다.

이는 Bayes Theorem을 기반으로 하며, MAP로 가장 확률적으로 그럴듯한 결론을 도출한다.

 

Bayes Optimal Classifier는 실제로 계산하기에는 너무나 복잡하다. 그러나 Gibbs algorithm 및 Naive Bayes로 approximation하여 결과를 도출한다.

 

 

Maximum a Posteriori (MAP)

Meachine learning에서 traing data를 가장 잘 설명하는 모델을 찾는 것이 목적이다.

 

이때 기반으로 사용되는 확률 이론이 크게 2가지가 있다.

 

 

  • Maximum a Posteriori (MAP), a Bayesian method.
  • Maximum Likelihood Estimation (MLE), a frequentist method.

이 이론을 이용하여 다음과 같은 질문에 대답할 수 있다.

 

 

What is the most probable hypothesis given the training data?

 

이때, Bayesian method로 접근 할 경우, 다음과 같이 X(data)가 주어졌을 때,

P(parameter)의 확률을 다음과 같이 표현할 수 있다.


P(theta | X) = P(X | theta) * P(theta)

 

이러한 테크닉을 

maximum a posteriori estimation,” or MAP estimation for short, and sometimes simply “maximum posterior estimation.”

이라고 보통 부른다.

 

결론적으로는

 

maximize P(X | theta) * P(theta)

 

를 하는 parameter를 찾는 것이 목적이 된다.

 

Bayes Optimal Classifier

 

Bayes optimal Classifier는 다음과 같은 질문에 해답을 주는 classifier다.

 

What is the most probable classification of the new instance given the training data?

 

그리고 다음과 같은 이름으로 불린다.

 

The Bayes optimal learner, the Bayes classifier, Bayes optimal decision boundary, or the Bayes optimal discriminant function.

 

일반적으로 가장 확률적으로 그럴듯한 new instance의 classification 결과는 모든 hypotheses의 prediction을 그들의 posterior porbabilities의 weighted sum으로 결정된다.

 

이를 수식으로 표현하면 다음과 같다.

 

P(vj | D) = sum {h in H} P(vj | hi) * P(hi | D)

 

vj is a new instance to be classified,

H is the set of hypotheses for classifying the instance,

hi is a given hypothesis, 

P(vj | hi) is the posterior probability for vi given hypothesis hi,

P(hi | D) is the posterior probability of the hypothesis hi given the data D.

 

이때, 결과는 다음과 같이 결정한다.

 

max sum {h in H} P(vj | hi) * P(hi | D)

 

이 수식을 통해 example을 classify 하는 모델을 Bayes optimal classifier라고 하며,같은 hypothesis space와 같은 prior knowledge를 사용하는 경우, 다른 어떤 classification method도 이 성능을 넘지 못한다.

 

이 말 뜻은 같은 data, 같은 hypotheses, 같은 prior probabilities를 이용하는 경우 어떤 알고리즘도 이 방법의 성능을 넘지 못한다는 것이고, 그래서 optimal classifier.” 라고 부른다.

 

비록 이 classifier는 optimal한 prediction을 하지만, 완벽한 classifier는 아니다. training data의 uncertatiny 및 problem domain과 hypothesis을 모든 경우에 고려할 수는 없기 때문이다.

 

그래서 이러한 optimal classifier도 error를 가지며, 이를 Bayes error라고 한다.

 

즉, Bayes Optimal Classifier는 lowest possible test error rate를 가지며, 이를 bayes error rate라고 부른다. 

이는 더이상 줄일 수 없는(irreducible) error와 같다.

 

Bayes Error: The minimum possible error that can be made when making predictions.

 

 

 

 

 

 

 

728x90

'Dic' 카테고리의 다른 글

End-to-end learning  (0) 2021.01.11
Sampling with replacement  (0) 2021.01.07
Gaussian mixture model  (0) 2021.01.01
Focal Loss  (0) 2020.12.30
imagenet pretrained model에서 imagenet data 분포로 normalize하는 이유  (0) 2020.12.30
728x90

https://towardsdatascience.com/gaussian-mixture-models-explained-6986aaf5a95

 

Gaussian Mixture Models Explained

In the world of Machine Learning, we can distinguish two main areas: Supervised and unsupervised learning. The main difference between…

towardsdatascience.com

 

728x90

'Dic' 카테고리의 다른 글

Sampling with replacement  (0) 2021.01.07
Bayes optimal classifier  (0) 2021.01.04
Focal Loss  (0) 2020.12.30
imagenet pretrained model에서 imagenet data 분포로 normalize하는 이유  (0) 2020.12.30
활성화 함수 nonlinear 이유  (0) 2020.12.14

+ Recent posts