66 lines
1.7 KiB
Markdown
66 lines
1.7 KiB
Markdown
---
|
||
Date: [20230313134633]
|
||
---
|
||
## 2.12 dla zidentyfikowania jednakowych uszkodzeń
|
||
|$^{test}\\_{err}$|1|2|3|4|
|
||
|:-|-|-|-|-|
|
||
|1|0|1|0|0|
|
||
|2|0|0|1|0|
|
||
|3|1|0|1|0|
|
||
|4|0|0|0|1|
|
||
|5|0|1|1|0|
|
||
x= $\{x_{1},x_{2},x_{3},x_{4}\}$
|
||
p($x_{i}$)=$\{\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4}\}$
|
||
Entropia jest maksymalna i równa logarytmowi z liczby
|
||
H(x)=max=$ld4$=2 bity/wiadomość
|
||
Minimalna liczba testów wynosi 2 -> 3 i 5
|
||
|
||
$X=X_{0}$ <--- źródło bezpamięciowe, pojawienie się wiadomości nie zależy od wcześniejszych stanów. Statystyczna niezależność
|
||
|
||
## 2.22
|
||
### 2 połączone doświadczenia X i Y zcharakteryzowane są następującymi prawdopodobieństwami zdarzeń
|
||
$p(x_1, y_1)=0.1$
|
||
$p(x_1, y_2)=0.25$
|
||
$p(x_2, y_1)=0.2$
|
||
$p(x_2, y_2)=0$
|
||
$p(x_3, y_1)=0.3$
|
||
$p(x_3, y_2)=0.15$
|
||
nadamy x, odbirezemy y
|
||
|
||
$H(x), H(y), H(x,y), H(x/y), H(y/x)$
|
||
|
||
I(x/y)
|
||
|
||
|
||
|$P(x_{i},y_{j})$|$y_1$|$y_2$|p(xi)|
|
||
|-|-|-|-|
|
||
|$x_1$|0.1|0.25|0.35|
|
||
|$x_2$|0.2|0|0.2|
|
||
|$x_3$|0.3|0.15|0.45|
|
||
|p(yi)|0.6|0.4|
|
||
|
||
$$H(x)=-\sum\limits_{i=1}^{3}P(x_{i})ld\ P(x_{i})= P(x_{1})=P(x_1y_1)+P(x_1y_{2)=0.35}=> max ld 3$$
|
||
$$P(y_{1})=P(x1y1)+p(x2y1)+p(x3y1)=0.6 max ld 1$$
|
||
|
||
Średnia entropia dwóch źródeł - max ld 6
|
||
H(x,y)= $-\sum_{i}\sum_{j}P(xiyj)ldP(xiyj)$
|
||
H(x/y) x pod warunkiem y , a posteriori=$-\sum_{i}\sum_{j}P(xiyj)ldP(xi/yj)$
|
||
|
||
H(x/y)=-01ld0.1-0.25ld0.25-0.2ld0.2-0ld0-0.3ld0.3-0.15ld0.15 = max ld 6
|
||
h(y/x)=hx,y -hx
|
||
|
||
hx/y=hx,y-hy
|
||
|
||
|
||
$ld\ x= \frac{\log x}{\log z}=\frac{\ln x}{\ln z}$
|
||
|
||
![[2. 2023-03-13 14.11.51.excalidraw]]
|
||
|
||
|
||
$$\begin{gathered}
|
||
hahahahahahahahahahahahahahahahahahahahahahahahhahahahhahahashdambgbvakabs
|
||
\\
|
||
|
||
"
|
||
:I just read a book about Stockholm syndrome. It was pretty bad at first, but by the end I liked it."
|
||
\end{gathered}$$ |