Skip to content

Commit 4d3cca1

Browse files
authored
Merge pull request #23 from jungin7612/feature/6.4
6.4
2 parents 90ec8ef + e8da8ec commit 4d3cca1

File tree

1 file changed

+39
-0
lines changed

1 file changed

+39
-0
lines changed

_posts/2025-08-04-02.Information-Theory.md

Lines changed: 39 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -886,8 +886,10 @@ $$
886886
P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}),
887887
$$
888888

889+
889890
이 성립하는 시퀀스는 k차 마르코프 과정(kth Order Markov Process)를 따른다.
890891

892+
891893
즉, k차 마르코프 과정을 따르는 시퀀스에 대해서
892894

893895
$$
@@ -1241,9 +1243,46 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$
12411243
예를 들어 $U \sim \mathrm{Unif}(0, 1/2)$라면 $h(U) = -\log 2$가 된다. 이는 미분 엔트로피가 $\log\Delta$ 항을 포함하여 정규화되기 때문이다.
12421244

12431245
### 2.6.4 Properties of Differential Entropy
1246+
**정리 60 (상호정보량의 스케일 불변성)**
1247+
**정리.**
1248+
$$
1249+
I(aX;Y) = I(X;Y)
1250+
$$
1251+
1252+
**증명.**
1253+
$$
1254+
\begin{aligned}
1255+
I(aX;Y) &= h(aX) - h(aX \mid Y) \\
1256+
&= \big( h(X) + \log |a| \big) - \big( h(X \mid Y) + \log |a| \big) \\
1257+
&= h(X) - h(X \mid Y) \\
1258+
&= I(X;Y)
1259+
\end{aligned}
1260+
$$
1261+
1262+
---
1263+
1264+
**비고.**
1265+
수식 (3)에서,
1266+
$$
1267+
\begin{aligned}
1268+
h(aX \mid Y)
1269+
&= \mathbb{E} \left[ \log \frac{1}{f_{X\mid Y}(aX \mid Y)} \right] \\
1270+
&= \mathbb{E} \left[ \log \frac{1}{f_{X\mid Y}(X \mid Y)} \right] + \log |a|
1271+
\end{aligned}
1272+
$$
1273+
1274+
---
1275+
1276+
**설명.**
1277+
- 이산(discrete) 변수의 경우, 1:1 변환 \( f(x) \)를 해도 엔트로피는 변하지 않는다.
1278+
- 연속(continuous) 변수의 경우, 스케일 변환 \( X \to aX \) 시 차분 엔트로피는 \(\log |a|\)만큼 변한다.
1279+
- 하지만 상호정보량은
1280+
\( h(aX) \)\( h(aX\mid Y) \) 모두 \(\log |a|\)가 더해지므로 서로 상쇄되어 변하지 않는다.
1281+
- 즉, 단위 변화나 크기 스케일 변화에 대해서도 두 변수 간의 정보량은 동일하게 유지된다.
12441282

12451283
### 2.6.5 Joint Differential Entropy
12461284

1285+
12471286
**Theorem 61 (Chain Rule of Differential Entropy).**
12481287

12491288
$$

0 commit comments

Comments
 (0)