--- Date: [20230313134633] --- ## 2.12 dla zidentyfikowania jednakowych uszkodzeń |$^{test}\\_{err}$|1|2|3|4| |:-|-|-|-|-| |1|0|1|0|0| |2|0|0|1|0| |3|1|0|1|0| |4|0|0|0|1| |5|0|1|1|0| x= $\{x_{1},x_{2},x_{3},x_{4}\}$ p($x_{i}$)=$\{\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4}\}$ Entropia jest maksymalna i równa logarytmowi z liczby H(x)=max=$ld4$=2 bity/wiadomość Minimalna liczba testów wynosi 2 -> 3 i 5 $X=X_{0}$ <--- źródło bezpamięciowe, pojawienie się wiadomości nie zależy od wcześniejszych stanów. Statystyczna niezależność ## 2.22 ### 2 połączone doświadczenia X i Y zcharakteryzowane są następującymi prawdopodobieństwami zdarzeń $p(x_1, y_1)=0.1$ $p(x_1, y_2)=0.25$ $p(x_2, y_1)=0.2$ $p(x_2, y_2)=0$ $p(x_3, y_1)=0.3$ $p(x_3, y_2)=0.15$ nadamy x, odbirezemy y $H(x), H(y), H(x,y), H(x/y), H(y/x)$ I(x/y) |$P(x_{i},y_{j})$|$y_1$|$y_2$|p(xi)| |-|-|-|-| |$x_1$|0.1|0.25|0.35| |$x_2$|0.2|0|0.2| |$x_3$|0.3|0.15|0.45| |p(yi)|0.6|0.4| $$H(x)=-\sum\limits_{i=1}^{3}P(x_{i})ld\ P(x_{i})= P(x_{1})=P(x_1y_1)+P(x_1y_{2)=0.35}=> max ld 3$$ $$P(y_{1})=P(x1y1)+p(x2y1)+p(x3y1)=0.6 max ld 1$$ Średnia entropia dwóch źródeł - max ld 6 H(x,y)= $-\sum_{i}\sum_{j}P(xiyj)ldP(xiyj)$ H(x/y) x pod warunkiem y , a posteriori=$-\sum_{i}\sum_{j}P(xiyj)ldP(xi/yj)$ H(x/y)=-01ld0.1-0.25ld0.25-0.2ld0.2-0ld0-0.3ld0.3-0.15ld0.15 = max ld 6 h(y/x)=hx,y -hx hx/y=hx,y-hy $ld\ x= \frac{\log x}{\log z}=\frac{\ln x}{\ln z}$ ![[2. 2023-03-13 14.11.51.excalidraw]] $$\begin{gathered} hahahahahahahahahahahahahahahahahahahahahahahahhahahahhahahashdambgbvakabs \\ " :I just read a book about Stockholm syndrome. It was pretty bad at first, but by the end I liked it." \end{gathered}$$