[ Предыдущий билет | К списку билетов | Следующий билет ]
Информация [ ]
Пусть
A
,
B
{\displaystyle A, B}
— события,
P
(
A
)
>
0
,
P
(
B
)
>
0
{\displaystyle \mathbb P(A)>0,\ \mathbb P(B)>0}
. Информация, содержащаяся в
B
{\displaystyle B}
относительно
A
{\displaystyle A}
,
I
(
A
∣
B
)
=
log
P
(
A
∣
B
)
P
(
A
)
{\displaystyle I(A\mid B)=\log\frac{ \mathbb P(A\mid B)}{\mathbb P(A)}}
.
При
A
=
B
I
(
A
∣
B
)
=
log
1
P
(
A
)
=
−
log
P
(
A
)
{\displaystyle A=B \ I(A\mid B)=\log\frac1{ \mathbb P(A)}=-\log \mathbb P(A)}
.
Чем больше
P
(
A
)
{\displaystyle \mathbb P(A) }
, тем меньше
I
(
A
)
{\displaystyle I(A) }
.
Если
A
{\displaystyle A}
и
B
{\displaystyle B}
независимы, то
I
(
A
∣
B
)
=
0
{\displaystyle I(A\mid B)=0 }
.
Если
A
{\displaystyle A}
и
B
{\displaystyle B}
независимы, то
I
(
A
B
)
=
I
(
A
)
+
I
(
B
)
{\displaystyle I(AB)=I(A)+I(B) }
.
Основание логарифма определяет единицу измерения информации.
Если основание
e
{\displaystyle e}
— nat ,
если основание 2 — bit .
В любом случае, основание логарифма всегда больше единицы, это нужно написать.(Шестаков напомнил)
Энтропия эксперимента [ ]
Q
(
E
)
{\displaystyle Q(E) }
— количество информации, полученное в ходе эксперимента
E
{\displaystyle E}
с
n
{\displaystyle n}
исходами.
Энтропия эксперимента
H
(
E
)
=
E
Q
(
E
)
=
∑
i
=
1
n
I
(
A
i
)
P
(
A
i
)
=
−
∑
i
=
1
n
p
i
log
p
i
,
P
(
A
i
)
=
p
i
{\displaystyle H(E)= \mathbb EQ(E)= \sum_{i=1}^nI(A_i) \mathbb P(A_i)=- \sum_{i=1}^np_i\log p_i, \ \mathbb P(A_i)=p_i}
Энтропия — мера неопределённости эксперимента.
H
(
E
)
⩾
0
;
H
(
E
)
=
0
⇔
∃
p
i
=
1
{\displaystyle H(E) \geqslant0; \ H(E)=0 \Leftrightarrow\exists p_i=1}
.
Наивысшей энтропией среди всех экспериментов с
n
{\displaystyle n}
исходами обладает эксперимент, в котором исходы равновероятны.
Рассмотрим эксперименты
E
1
{\displaystyle E_1 }
и
E
2
{\displaystyle E_2}
:
в
E
1
{\displaystyle E_1 }
объединены исходы
A
i
{\displaystyle A_i}
и
A
j
{\displaystyle A_j}
в
E
2
{\displaystyle E_2}
исход
A
i
{\displaystyle A_i}
имеет вероятность
p
i
p
i
+
p
j
{\displaystyle \frac{p_i}{p_i+p_j}}
,
A
j
∼
p
j
p
i
+
p
j
{\displaystyle A_j\sim\frac{p_j}{p_i+p_j}}
(остальные, соответственно, имеют вероятность 0).
Тогда
H
(
E
)
=
H
(
E
1
)
+
(
p
i
+
p
j
)
H
(
E
2
)
{\displaystyle H(E)=H(E_1)+(p_i+p_j)H(E_2)}
.
H
(
E
)
{\displaystyle H(E)}
зависит только от вероятностей
p
i
{\displaystyle p_i}
, но не от самих событий
A
i
{\displaystyle A_i}
.
H
(
E
)
{\displaystyle H(E)}
зависит от
p
i
{\displaystyle p_i}
непрерывно.
Если
H
(
p
1
,
…
,
p
n
)
{\displaystyle H(p_1,\dots,p_n)}
удовлетворяет свойствам энтропии (1-5), то этот функционал имеет вид энтропии:
H
=
−
∑
i
=
1
n
p
i
log
p
i
{\displaystyle H=- \sum_{i=1}^np_i\log p_i}
.
[ Предыдущий билет | К списку билетов | Следующий билет ]