일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Statistics
- probability
- c++
- 딥러닝
- R
- 김양재 목사
- Deep learning
- nodeJS
- Machine Learning
- 빅데이터
- 빅데이타
- 확률
- Big Data
- 우리들교회
- 김양재
- 인공지능
- 통계
- 주일설교
- openCV
- 몽고디비
- 빅 데이터
- data science
- MongoDB
- 데이터 과학
- Artificial Intelligence
- 김양재 목사님
- No SQL
- 빅 데이타
- node.js
- WebGL
- Today
- Total
목록probability (43)
Scientific Computing & Data Science
균일 분산(Uniform Distribution)Definition다음을 만족하는 a와 b사이의 일정한 확률 밀도 함수를 갖는 확률 변수 X는 \( f(x) = \displaystyle{\frac{1}{b-a}} \) for \(a \le x \le b \) \( f(x) = 0 \) elsewhere 균일분산을 갖는다고 하며, 다음과 같이 표현합니다: \( X \sim U(a,b) \) 이에 대한 누적 분포 함수는 \( F(x)= \displaystyle{\frac{x-a}{b-a}} \) 이며, 기대값과 분산은 각각 \( E(X) = \displaystyle{\frac{a+b}{2}} \) 및 \( Var(X) = \displaystyle{\frac{(b-a)^2}{12}} \) 입니다.Proof\(..
포아송 분산 때때로 특정 범위 내에서 발생하는 사건의 수를 세는 확률 변수를 정의해야 할 필요가 습니다. 예를 들어, 실험자가 아이템 중 결함을 가지고 있는 아이템의 수에 관심이 있다거나 특정 시간 범위 내에 받는 전화 횟수 등입니다. 포아송(Poisson) 분포는 이러한 상황에 대한 적절한 모델을 제시합니다.Definition파라미터 λ를 갖는 포아송 확률 변수로 분한된 확률 변수 X는 다음과 같이 정의할 수 있으며: \( X \sim P(\lambda) \) \(\lambda\)는 이에 대한 확률 밀도 함수는 x = 0, 1, 2, 3, ...에 대해 \( P(X=x) = \displaystyle{\frac{e^{\lambda} \lambda^x}{x!}} \) 입니다. n이 충분히 클 경우(이를테면..
[Def] 초기하 분산(Hypergeometric Distribution)전체 N개의 아이템 중 r개가 특정 종류라고 가정하자. 예를 들어 N개의 공 중 r개의 공이 빨간 공이라고 하자. 임의로 하나의 아이템을 추출할 때 빨간 공이 선택될 확률은만약 복원 추출(아이템을 임의로 선택하고 확인 후 복귀)일 경우 확률 변수 X는 다음의 이항분포를 따른다.그러나 만약 비복원 추출일 경우 이항분포가 적용될 수 없다. (왜냐하면 매 시행마다 확률이 바뀌기 때문이다) 이 경우 초기하 분산이 적용되며에 대한 확률은이다. 또한 기대값과 분산은 각각 및 이다.
[Def.] 기하 분산(Geometric Distribution)성공 확률이 p로 동일한 독립 베르누이 시도(trials)에 있어 첫번째 성공을 포함한 시도 회수는 파라미터 p를 갖는 기하 분산(geometric distribution)을 가지며, 확률 밀도 함수는 x = 1, 2, ...에 대하여이며, 누적 분포 함수는이다.또한 기대값과 분산은 , 이다. 이에 대한 누적 분포 함수는
[Definition] 베리누이(Bernoulli) 확률 변수\( 0 \le p \le 1 \)의 파라미터 p를 갖는 베르누이 확률 변수는 0 또는 1의 값을 취하며 일어날 확률은, \(P(X=1) = p\) 이며, 일어나지 않을 확률은 \(P(X=0) = 1-p\) 이다. 이에 대한 기대값과 분산은 각각 \(E(X)=p\) 및 \(Var(X)=p(1-p)\)이다.[Proof]\( E(X) = \displaystyle{ \sum_{i=1}^{2}{x_i p_i} = x_1 p_1 + x_2 p_2 = (0)(1-p) + (1)(p) = p } \) \( Var(X) = E(X^2) - (E(X))^2 = \displaystyle{ \sum_{i=1}^{2}{x_i^2 p_i - p^2} = (0)^2(1..
확률 변수 X1,...,Xn은 각각 기대값 μ와 분산 σ2를 갖는 독립 확률 변수라 할 때, 이들에 대한 평균은이며, 이에 대한 기대값은이며, 분산은이다. [Proof]
두 개의 확률 변수 X1과 X2에 대하여 다음 관계식이 성립된다:또한, 분산에 대하여이며,X1과 X2가 상호 독립 확률 변수일 때 Cov(X1,X2)=0 이므로가 성립된다.
X가 확률 변수이며 어떤 수 에 대해 Y = aX + b 이면,이며,가 성립된다. [Proof]
두 개의 확률 변수 X와 Y에 대한 공분산(Covariance)은 다음과 같이 정의됩니다: \(\mathrm{Cov}(X,Y) = \mathrm{E}( (X-\mathrm{E}(X)) (Y - \mathrm{E}(Y)) ) = \mathrm{E}(XY) - \mathrm{E}(X) \mathrm{E}(Y) \) 공분산 값은 양수 또는 음수 또는 0(확률 변수가 상호 독립일 경우)을 갖습니다. 두 개의 확률 변수에 대한 의존성을 나타내는 지표는 상관관계(Correlation)이며, 다음과 같이 정의됩니다: \( \mathrm{Corr}(X,Y) = \displaystyle{\frac{\mathrm{Cov}(X,Y)}{\sqrt{\mathrm{Var}(X)\mathrm{Var}(Y)}}} \) 이며, -1과..