Files
Polsl-Notes/TIiK/Wykład/2..md

1.7 KiB

Date
Date
20230313134633

2.12 dla zidentyfikowania jednakowych uszkodzeń

^{test}\\_{err} 1 2 3 4
1 0 1 0 0
2 0 0 1 0
3 1 0 1 0
4 0 0 0 1
5 0 1 1 0
x= \{x_{1},x_{2},x_{3},x_{4}\}
p(x_{i})=\{\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4}\}
Entropia jest maksymalna i równa logarytmowi z liczby
H(x)=max=$ld4$=2 bity/wiadomość
Minimalna liczba testów wynosi 2 -> 3 i 5

X=X_{0} <--- źródło bezpamięciowe, pojawienie się wiadomości nie zależy od wcześniejszych stanów. Statystyczna niezależność

2.22

2 połączone doświadczenia X i Y zcharakteryzowane są następującymi prawdopodobieństwami zdarzeń

p(x_1, y_1)=0.1 p(x_1, y_2)=0.25 p(x_2, y_1)=0.2 p(x_2, y_2)=0 p(x_3, y_1)=0.3 p(x_3, y_2)=0.15 nadamy x, odbirezemy y

H(x), H(y), H(x,y), H(x/y), H(y/x)

I(x/y)

P(x_{i},y_{j}) y_1 y_2 p(xi)
x_1 0.1 0.25 0.35
x_2 0.2 0 0.2
x_3 0.3 0.15 0.45
p(yi) 0.6 0.4
H(x)=-\sum\limits_{i=1}^{3}P(x_{i})ld\ P(x_{i})= P(x_{1})=P(x_1y_1)+P(x_1y_{2)=0.35}=> max ld 3 P(y_{1})=P(x1y1)+p(x2y1)+p(x3y1)=0.6 max ld 1

Średnia entropia dwóch źródeł - max ld 6 H(x,y)= -\sum_{i}\sum_{j}P(xiyj)ldP(xiyj) H(x/y) x pod warunkiem y , a posteriori=-\sum_{i}\sum_{j}P(xiyj)ldP(xi/yj)

H(x/y)=-01ld0.1-0.25ld0.25-0.2ld0.2-0ld0-0.3ld0.3-0.15ld0.15 = max ld 6 h(y/x)=hx,y -hx

hx/y=hx,y-hy

ld\ x= \frac{\log x}{\log z}=\frac{\ln x}{\ln z}

!2. 2023-03-13 14.11.51.excalidraw

$$\begin{gathered} hahahahahahahahahahahahahahahahahahahahahahahahhahahahhahahashdambgbvakabs \

" :I just read a book about Stockholm syndrome. It was pretty bad at first, but by the end I liked it." \end{gathered}$$