Files
Polsl-Notes/TIiK/Wykład/2..md

70 lines
1.7 KiB
Markdown
Raw Permalink Blame History

This file contains invisible Unicode characters
This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
---
Date: [20230313134633]
---
## 2.12 dla zidentyfikowania jednakowych uszkodzeń
|$^{test}\\_{err}$|1|2|3|4|
|:-|-|-|-|-|
|1|0|1|0|0|
|2|0|0|1|0|
|3|1|0|1|0|
|4|0|0|0|1|
|5|0|1|1|0|
x= $\{x_{1},x_{2},x_{3},x_{4}\}$
p($x_{i}$)=$\{\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4}\}$
Entropia jest maksymalna i równa logarytmowi z liczby
H(x)=max=$ld4$=2 bity/wiadomość
Minimalna liczba testów wynosi 2 -> 3 i 5
$X=X_{0}$ <--- źródło bezpamięciowe, pojawienie się wiadomości nie zależy od wcześniejszych stanów. Statystyczna niezależność
## 2.22
### 2 połączone doświadczenia X i Y zcharakteryzowane są następującymi prawdopodobieństwami zdarzeń
$p(x_1, y_1)=0.1$
$p(x_1, y_2)=0.25$
$p(x_2, y_1)=0.2$
$p(x_2, y_2)=0$
$p(x_3, y_1)=0.3$
$p(x_3, y_2)=0.15$
nadamy x, odbirezemy y
$H(x), H(y), H(x,y), H(x/y), H(y/x)$
I(x/y)
|$P(x_{i},y_{j})$|$y_1$|$y_2$|p(xi)|
|-|-|-|-|
|$x_1$|0.1|0.25|0.35|
|$x_2$|0.2|0|0.2|
|$x_3$|0.3|0.15|0.45|
|p(yi)|0.6|0.4|
$$H(x)=-\sum\limits_{i=1}^{3}P(x_{i})ld\ P(x_{i})= P(x_{1})=P(x_1y_1)+P(x_1y_{2)=0.35}=> max ld 3$$
$$P(y_{1})=P(x1y1)+p(x2y1)+p(x3y1)=0.6 max ld 1$$
Średnia entropia dwóch źródeł - max ld 6
H(x,y)= $-\sum_{i}\sum_{j}P(x_iy_j)ldP(x_iy_j)$
H(x/y) x pod warunkiem y , a posteriori=$-\sum_{i}\sum_{j}P(xiyj)ldP(xi/yj)$
H(x/y)=-01ld0.1-0.25ld0.25-0.2ld0.2-0ld0-0.3ld0.3-0.15ld0.15 = max ld 6
h(y/x)=hx,y -hx
hx/y=hx,y-hy
$ld\ x= \frac{\log x}{\log z}=\frac{\ln x}{\ln z}$
![[2. 2023-03-13 14.11.51.excalidraw]]
$$\begin{gathered}
hahahahahahahahahahahahahahahahahahahahahahahahhahahahhahahashdambgbvakabs
\\
"
:I just read a book about Stockholm syndrome. It was pretty bad at first, but by the end I liked it."
\end{gathered}$$
prawdopodobieństwo warunkowe: $P(X/Y)=\frac{P(X,Y)}{P(Y)}$