4. Единицы измерения количества информации.
В качестве единицы информации условились принять один бит.
Бит
в теории информации — количество информации, необходимое
для различения двух равновероятных сообщений. |
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная единица информации.
Формула определения количества информации, учитывающая возможную неодинаковую вероятность сообщений в наборе.
Формула
Шеннона: I = – ( p1
log2
p1
+ p2
log2
p2
+ . . . + pN
log2
pN
), |
Формула Хартли: I = log2N.
Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.