1.7 KiB
Date
| Date | |
|---|---|
|
2.12 dla zidentyfikowania jednakowych uszkodzeń
^{test}\\_{err} |
1 | 2 | 3 | 4 |
|---|---|---|---|---|
| 1 | 0 | 1 | 0 | 0 |
| 2 | 0 | 0 | 1 | 0 |
| 3 | 1 | 0 | 1 | 0 |
| 4 | 0 | 0 | 0 | 1 |
| 5 | 0 | 1 | 1 | 0 |
x= \{x_{1},x_{2},x_{3},x_{4}\} |
||||
p(x_{i})=\{\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4}\} |
||||
| Entropia jest maksymalna i równa logarytmowi z liczby | ||||
| H(x)=max=$ld4$=2 bity/wiadomość | ||||
| Minimalna liczba testów wynosi 2 -> 3 i 5 |
X=X_{0} <--- źródło bezpamięciowe, pojawienie się wiadomości nie zależy od wcześniejszych stanów. Statystyczna niezależność
2.22
2 połączone doświadczenia X i Y zcharakteryzowane są następującymi prawdopodobieństwami zdarzeń
p(x_1, y_1)=0.1
p(x_1, y_2)=0.25
p(x_2, y_1)=0.2
p(x_2, y_2)=0
p(x_3, y_1)=0.3
p(x_3, y_2)=0.15
nadamy x, odbirezemy y
H(x), H(y), H(x,y), H(x/y), H(y/x)
I(x/y)
P(x_{i},y_{j}) |
y_1 |
y_2 |
p(xi) |
|---|---|---|---|
x_1 |
0.1 | 0.25 | 0.35 |
x_2 |
0.2 | 0 | 0.2 |
x_3 |
0.3 | 0.15 | 0.45 |
| p(yi) | 0.6 | 0.4 |
H(x)=-\sum\limits_{i=1}^{3}P(x_{i})ld\ P(x_{i})= P(x_{1})=P(x_1y_1)+P(x_1y_{2)=0.35}=> max ld 3
P(y_{1})=P(x1y1)+p(x2y1)+p(x3y1)=0.6 max ld 1
Średnia entropia dwóch źródeł - max ld 6
H(x,y)= -\sum_{i}\sum_{j}P(xiyj)ldP(xiyj)
H(x/y) x pod warunkiem y , a posteriori=-\sum_{i}\sum_{j}P(xiyj)ldP(xi/yj)
H(x/y)=-01ld0.1-0.25ld0.25-0.2ld0.2-0ld0-0.3ld0.3-0.15ld0.15 = max ld 6 h(y/x)=hx,y -hx
hx/y=hx,y-hy
ld\ x= \frac{\log x}{\log z}=\frac{\ln x}{\ln z}
!2. 2023-03-13 14.11.51.excalidraw
$$\begin{gathered} hahahahahahahahahahahahahahahahahahahahahahahahhahahahhahahashdambgbvakabs \
" :I just read a book about Stockholm syndrome. It was pretty bad at first, but by the end I liked it." \end{gathered}$$