|
Измерение информации.
N=2i
i=log2N
I=K*i
N - полное количество символов
i - количество информации, которое несет каждый символ
K - размер текста
I - размер информации, содержащейся в тексте
Если N - общее число возможных исходов какого-либо
процесса и из них интересующее нас событие может произойти K раз,
то вероятность этого события равна p=K/N.
Количественная зависимость между вероятностью события и количеством
информации в сообщении о нем выражается формулой i=log2(1/p)
Пример 1:
Для записи письма был использован алфавит мощностью в 16 символов.
Письмо состояло из 25 строк. В каждой строке вместе с пробелами было 64 символа.
Сколько байт информации содержало письмо?
Решение:
N=16
i=log216=4 бит
K=25*64=1600
I=K*i=1600 * 4 бит = 6400 бит = 800 байт
Ответ: 800 байт
Привмер 2:
В колоде содержится 32 карты. Из колоды случайным образом вытянули карту.
Сколько информации несет сообщение о том, что вытянутая карта - туз?
Решение:
N=32
K=4 (всего 4 туза в колоде)
p=K/N=4/32=1/8
i=log2(1/p)=log28=3 бита
Ответ: 3 бита
Единицы измерения информации.
бит - базовая единица измерения количества информации.
байт = 8 бит
Приставки для двоичных чисел
Приставка |
Сокращение
(для байтов) |
Значение |
киби |
Кбайт |
210 = 1024 |
меби |
Мбайт |
220 = 1 048 576 |
гиби |
Гбайт |
230 = 1 073 741 824 |
теби |
Тбайт |
240 = 1 099 511 627 776 |
пеби |
Пбайт |
250 = 1 125 899 906 842 624 |
эксби |
Эбайт |
260 = 1 152 921 504 606 846 976 |
зеби |
Збайт |
270 = 1 180 591 620 717 411 303 424 |
йоби |
Йбайт |
280 = 1 208 925 819 614 629 174 706 176 |
|
|
Статистика |
|
|