Files
Polsl-Notes/TIiK/Wykład/2..md

66 lines
1.7 KiB
Markdown
Raw Blame History

This file contains invisible Unicode characters
This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
---
Date: [20230313134633]
---
## 2.12 dla zidentyfikowania jednakowych uszkodzeń
|$^{test}\\_{err}$|1|2|3|4|
|:-|-|-|-|-|
|1|0|1|0|0|
|2|0|0|1|0|
|3|1|0|1|0|
|4|0|0|0|1|
|5|0|1|1|0|
x= $\{x_{1},x_{2},x_{3},x_{4}\}$
p($x_{i}$)=$\{\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4}\}$
Entropia jest maksymalna i równa logarytmowi z liczby
H(x)=max=$ld4$=2 bity/wiadomość
Minimalna liczba testów wynosi 2 -> 3 i 5
$X=X_{0}$ <--- źródło bezpamięciowe, pojawienie się wiadomości nie zależy od wcześniejszych stanów. Statystyczna niezależność
## 2.22
### 2 połączone doświadczenia X i Y zcharakteryzowane są następującymi prawdopodobieństwami zdarzeń
$p(x_1, y_1)=0.1$
$p(x_1, y_2)=0.25$
$p(x_2, y_1)=0.2$
$p(x_2, y_2)=0$
$p(x_3, y_1)=0.3$
$p(x_3, y_2)=0.15$
nadamy x, odbirezemy y
$H(x), H(y), H(x,y), H(x/y), H(y/x)$
I(x/y)
|$P(x_{i},y_{j})$|$y_1$|$y_2$|p(xi)|
|-|-|-|-|
|$x_1$|0.1|0.25|0.35|
|$x_2$|0.2|0|0.2|
|$x_3$|0.3|0.15|0.45|
|p(yi)|0.6|0.4|
$$H(x)=-\sum\limits_{i=1}^{3}P(x_{i})ld\ P(x_{i})= P(x_{1})=P(x_1y_1)+P(x_1y_{2)=0.35}=> max ld 3$$
$$P(y_{1})=P(x1y1)+p(x2y1)+p(x3y1)=0.6 max ld 1$$
Średnia entropia dwóch źródeł - max ld 6
H(x,y)= $-\sum_{i}\sum_{j}P(xiyj)ldP(xiyj)$
H(x/y) x pod warunkiem y , a posteriori=$-\sum_{i}\sum_{j}P(xiyj)ldP(xi/yj)$
H(x/y)=-01ld0.1-0.25ld0.25-0.2ld0.2-0ld0-0.3ld0.3-0.15ld0.15 = max ld 6
h(y/x)=hx,y -hx
hx/y=hx,y-hy
$ld\ x= \frac{\log x}{\log z}=\frac{\ln x}{\ln z}$
![[2. 2023-03-13 14.11.51.excalidraw]]
$$\begin{gathered}
hahahahahahahahahahahahahahahahahahahahahahahahhahahahhahahashdambgbvakabs
\\
"
:I just read a book about Stockholm syndrome. It was pretty bad at first, but by the end I liked it."
\end{gathered}$$