Название: Новая парадигма человека в свете православной психологии
Автор: Лариса Шеховцова
Издательство: АНО "Издательство СПбДА"
Жанр: Религиоведение
isbn: 978-5-906627-89-6
isbn:
2. Как зависимость информации от возможностей человека, способности конкретного субъекта к построению индивидуальной картины мира и нахождению смыслов существования.
5.3. Взаимосвязь информации и энергии
Выше рассматривалась взаимосвязь логоса сущности и энергии в богословском контексте. Существует ли и отрефлексирована ли наукой взаимосвязь информации и энергии?
Эту взаимосвязь отражает определение информации в области статистической термодинамики и теории вероятности как меры определенности и упорядоченности. Шеннон предложил формулу, определяющую количественную меру информации[175].
Статистическая мера количества информации отличается постоянным коэффициентом и обратным знаком от выраженной термодинамической энтропии. Информационные процессы существуют во взаимосвязи с веществом или энергией.
Сущность количественной характеристики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, – писал Н. Винер[176], – есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации». И в случае определения меры физической энтропии, и при определении меры информации применяются законы случайных событий, описываемые теорией вероятности.
Мера организации и в физике, и в теории информации является вероятностно-статистической:
где: Р – вероятность состояния i элемента;
n – количество элементов множества;
Н – мера количества информации.
«Передаваемую сигналом информацию, – писал Н. Винер[177], – возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности». Степень упорядоченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний (n) или его логарифмом (log n). Исходя из этих отношений, чем больше число элементов множества состояний носителя (источника), тем больше его неупорядоченность, тем больше неопределенность, снимаемая каждым из этих элементов, и, отсюда, тем больше упорядоченность соответствующего множества сигнала относительно множества – источника. «Поэтому упорядоченность сигнала как множества состояний носителя и количество заключенной в этом сигнале информации, – пишет Л. М. Веккер[178], – можно измерять неупорядоченностью множества состояний источника – обе меры могут быть выражены одной и той же числовой величиной». Совпадение меры количества информации с формулой термодинамической энтропии дало основание Шеннону, впервые предложившему приведенную выше формулу, распространить общефизический термин «энтропия» на СКАЧАТЬ
175
176
177
Там же.
178