Новая парадигма человека в свете православной психологии. Лариса Шеховцова
Читать онлайн книгу.того, что она существует только при «наличии» воспринимающего ее (сканирующего) субъекта, понимание того, что для человека мир таков, каким он его видит, широкое распространение в науке сегодня антропного принципа – эти итоги научной рефлексии свидетельствуют об истинности богословского утверждения: мир антропоцентричен, мир создан для человека. В антропоцентричном мире все существует для человека. Каждой вещи и явлению Замыслом Творца заданы определенная функция и смысл их существования для человека логосом, парадигмой вещи. Информация – это открытие существования «вещи» каждым субъектом. Логос – это Мысль Бога, информация – это мысль человека о Мысли Бога.
Христоцентричность мира указывает точно так же на субъективность символа: объект или знак не становятся символом, если их человек не видит таковыми. Субъективность информации и символа можно рассматривать в 2-х ракурсах:
1. Как осуществление заданной логосом, Промыслом Творца взаимосвязи мира и человека через информационные параметры среды;
2. Как зависимость информации от возможностей человека, способности конкретного субъекта к построению индивидуальной картины мира и нахождению смыслов существования.
5.3. Взаимосвязь информации и энергии
Выше рассматривалась взаимосвязь логоса сущности и энергии в богословском контексте. Существует ли и отрефлексирована ли наукой взаимосвязь информации и энергии?
Эту взаимосвязь отражает определение информации в области статистической термодинамики и теории вероятности как меры определенности и упорядоченности. Шеннон предложил формулу, определяющую количественную меру информации[175].
Статистическая мера количества информации отличается постоянным коэффициентом и обратным знаком от выраженной термодинамической энтропии. Информационные процессы существуют во взаимосвязи с веществом или энергией.
Сущность количественной характеристики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, – писал Н. Винер[176], – есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации». И в случае определения меры физической энтропии, и при определении меры информации применяются законы случайных событий, описываемые теорией вероятности.
Мера организации и в физике, и в теории информации является вероятностно-статистической:
где: Р – вероятность состояния i элемента;
n – количество элементов множества;
Н – мера количества информации.
«Передаваемую сигналом информацию, – писал Н. Винер[177], – возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности». Степень упорядоченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний
175
176
177
Там же.