일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 빅데이터
- MongoDB
- 김양재
- No SQL
- nodeJS
- openCV
- 확률
- 딥러닝
- node.js
- probability
- WebGL
- 빅 데이타
- Machine Learning
- data science
- R
- 김양재 목사님
- c++
- Big Data
- 김양재 목사
- 데이터 과학
- 인공지능
- Artificial Intelligence
- 통계
- 주일설교
- 우리들교회
- 몽고디비
- 빅데이타
- Statistics
- Deep learning
- 빅 데이터
Archives
- Today
- Total
Scientific Computing & Data Science
[Data Science / Probability] Bayes' Theorem 본문
Data Science/Probability & Statistics
[Data Science / Probability] Bayes' Theorem
cinema4dr12 2014. 1. 30. 23:36\(A_1, ..., A_n\)이 샘플 공간의 분할이면, 사건 \(B\)의 조건 하에 사건 \(A_i\)의 Posterior Probability는 확률 \(P(A_i)\)와 \(P(B \mid A_i)\)를 이용하여 다음과 같이 구할 수 있다.
\(\displaystyle{ P(A_i \mid B) = \frac{P(A_i)P(B \mid A_i)}{\sum_{j=1}^{n}{P(A_j)P(B \mid A_j)}} }\)
이를 Bayes' Theorem이라고 한다.
Bayes' Theorem은 확률이론에 있어 매우 중요한 결론이다. 이는 새로운 정보가 기존의 확률 정보의 업데이트 또는 개정에 어떻게 유용하게 사용될 수 있는가에 대한 방법을 제시해 주기 때문이다. 어떤 경우에 있어 Prior Probability \(P(A_i)\)는 극히 적은 정보를 기반으로 "추측"되어야 할 수도 있는데 새로운 정보가 추가됨에 따라 이러한 확률을 향상시키는 것이 매우 중요하다. Bayes' Theorem은 이에 대한 방법을 제공한다.
증명
\(\displaystyle{ P(A_i \mid B) = \frac{P(A_i \cap B)}{P(B)} = \frac{P(A_i)P(B \mid A_i)}{P(B)} = \frac{P(A_i)P(B \mid A_i)}{\sum_{j=1}^{n}{P(A_j)P(B \mid A_j)}} }\)
* 앞서 포스팅 된 "Law of Total Probability"가 증명에 활용 됨
'Data Science > Probability & Statistics' 카테고리의 다른 글
[Data Science / Probability] Cumulative Distribution Function (0) | 2014.01.31 |
---|---|
[Data Science / Probability] Probability Density Function (0) | 2014.01.31 |
[Data Science / Probability] Median (0) | 2014.01.31 |
[Data Science / Probability] Expected Value of a Random Variable (0) | 2014.01.30 |
[Probability] Law of Total Probability (0) | 2014.01.30 |
Comments