Информационная феноменология жизни. Часть I: Внутриклеточные информационные отношения. Даниил Михайлович Платонов
Чтение книги онлайн.

Читать онлайн книгу Информационная феноменология жизни. Часть I: Внутриклеточные информационные отношения - Даниил Михайлович Платонов страница 13

СКАЧАТЬ множеств и их подмножествами. Именно числ овая форма представления информации нашла глубокое применение в вычисл ительной технике, само название которой подчеркивает эту форму представления информации. Нам рассказывали, что до наступления эры компьютеризации классные китайские телеграфистки «на ходу» переводили иероглифы в цифровой код, лишь изредка сверяясь с таблицами перевода.

      Необходимо отметить, что взаимоотображение алфавитов на основе формальных теоретико-множественных процедур не учитывает содержательной (семантической) значимости (если она имеется) алфавитных знаков. Но вместе с тем, формализация на основе теоретико-множественного представления информации позволяет выработать единый подход к оценке количества информации при знаковой форме отображения событий, соответствующих определенным квантам (минимальным порциям) информации.

      В основе всей теории информации лежит открытие, сделанное Р.Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку. Подход Р.Хартли базируется на фундаментальных теоретико-множественных, по существу комбинаторных, основаниях, а также некоторых интуитивно очевидных предположениях. Если считать, что существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным.

      Если множество элементов, из которых осуществляется выбор, состоит из одного единственного элемента, то его выбор предопределен, т.е. никакой неопределенности выбора нет. Это означает нулевое количество информации. Если множество состоит из двух элементов, то неопределенность выбора существует, и ее значение минимально. В этом случае минимально и количество информации, после того как совершен выбор одного из элементов. Это количество информации принято за единицу измерения и называется бит[21]. Чем больше элементов содержит множество, тем больше неопределенность выбора, т.е. тем больше заключено в нем информации. На основании этого Р.Хартли предложена мера оценки количества информации (H), получаемой при реализации (выборе) одного из N состояний: H=log2N. Эта мера является адекватной в предположении, что равновероятен выбор любого элемента из множества состояний.

      В середине ХХ столетия К.Шеннон дал более широкую интерпретацию количественной оценки информации в сравнении с тезисами Р.Хартли. Подход К.Шеннона основывается на теоретико-вероятностном подходе. Это связано с тем, что исторически теория информации К.Шеннона выросла из потребностей теории связи, имеющей дело со статистическими характеристиками передаваемых сообщений по каналам связи. К.Шеннон обобщает представление Р.Хартли, учитывая, что различные события в общем случае не равновероятны.

      В литературе СКАЧАТЬ



<p>21</p>

От английского binary digit – двоичная цифра, то есть два возможных значения. Обозначение ввел К.Шеннон.