Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Фундаментальность категорий «энергия» и «информация» для современной науки




 

Попытка представить психику как инвариант энергоин­формационных взаимоотношений была сделана на факультете психологии ЛГУ в 1969—1970 гг. [37]. Эта гипотеза опиралась на данные биологических дисциплин, а также на теорию ин­формации, кибернетику. Сущность количественной характери­стики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, — писал Н. Винер, — есть мера дезорганизации, так и передавае­мая рядом сигналов информация является мерой организации» [41]. И в случае определения меры физической энтропии, и при определении меры информации применяются законы случай­ных событий, описываемые теорией вероятности. Мера организации и в физике и в теории информации является вероятно­стно-статистической:

Н

; = п Ъ Р. log Р.,

где: Р — вероятность состояния i элемента;

п — количество 'элементов множества;

Н — мера количества информации. «Передаваемую сигналом информацию, — писал Н. Ви­нер, — возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности» [41]. Степень упорядо­ченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний (N) или его логарифмом (log N). Исхо­дя из этих отношений, чем больше число элементов множе­ства состояний носителя (источника), тем больше его неупо­рядоченность, тем больше неопределенность, снимаемая каж­дым из этих элементов, и отсюда — тем больше упорядочен­ность соответствующего множества — сигнала относительно множества — источника. «Поэтому упорядоченность сигнала как множества состояний носителя и количество заключенной в этом сигнале информации, — пишет Л.М. Веккер, — можно измерять неупорядоченностью множества состояний источни­ка — обе меры могут быть выражены одной и той же числовой величиной» [38].

Совпадение меры количества информации с формулой термодинамической энтропии дало основание Шеннону, впер­вые предложившему приведенную выше формулу, распростра­нить общефизический термин «энтропия» на величину количе­ства информации, характеризующую в этом случае упорядо­ченность множества состояний источника.

В рассматриваемой идеальной ситуации полного отсут­ствия шума энтропия источника целиком переходит в сигнал.

По этому поводу Л.М. Веккер высказался таким образом: «конкретизация основных исходных понятий термодинамики и статистической физики раскрыла органическую связь ин­формации (как упорядоченности системы) с физической энт­ропией как величиной, которая, выражая тенденцию системы к наиболее вероятному состоянию неупорядоченности, вместе с тем характеризует разнокачественность различных форм энергии и связанную с этим меру необратимости.процессов в системе» [38]. Тем самым выявлена глубокая связь понятия информации с фундаментальным общефизическим понятием энергии, обладающим во всяком случае не меньшим рангом по уровню обобщения.

Представляется, что высказанную проф. Л.М. Веккером и другими авторами мысль о глубокой связи «энергии» и «ин­формации» можно уточнить. Эквивалентность энтропии и ко­личества информации впервые отметил Л. Сциллард: сумма информации и энтропии при данном распределении вероят­ностей состояния постоянная и равна максимально получае­мой информации или максимальной энтропии в данных усло­виях [38]. Следовало бы говорить не о связи двух понятий, а о двух сторонах одного и того же физического явления: кванте упорядоченного (неупорядоченного) пространства.

Есть физическая реальность, представляющая собой некую структуру (систему, организацию). Структура есть форма связи элементов, ее составляющих. Вспомним, Логосы — «умная структурность» чувственного мира — так пишет А. Сидоров в Комментариях к Творениям преп. Максима Исповедника [172]. Если есть субъект, то он воспринимает эту структуру как меру упорядоченности системы — информацию, а оставшаяся в системе «неупорядоченность» — энтропия — «остаток» анти­энтропийной тенденции — есть несвязанная энергия системы.

Таким образом, это как бы две стороны одной медали. «Упорядоченность» системы или кванта пространства это дву-ликий'Янус: это и «информация», с точки зрения субъекта, и потенциальная, уже связанная в данной системе энергия. Про­цесс упорядочивания, структурализация элементов системы, или самоорганизация, связан, как пишет И.А. Трофимова, с энерго-информационным взаимодействием системы со средой [175]. Это процесс усвоения организации внешней среды, ее энергии и порядка. Но для этого внешняя среда или другая внешняя система должна быть доступна самоорганизующейся системе, т.е. ее организация не должна намного превышать уровень сложности самоорганизующейся системы. Доступное окружение — необходимое условие развития самоорганизации.

Так как мир, как мы установили раньше, это Система си­стем, где все друг с другом взаимосвязано, то и рассматривать информационные (структурные) характеристики одной систе­мы нельзя вне их связи с энтропией окружающей среды — рост упорядоченности системы происходит за счёт роста энт­ропии в окружающей ее среде. В теории И. Пригожина энтро-пиястановится прародительницей порядка^ 146].

В.А. Карташев в своей обобщающей многолетние итоги те­ории систем монографии писал, что «ряд авторов, и, в особен­ности, идеологи общей теории систем, вообще не определяют причин и следствий, лежащих «вне» системы, и трактуют сис­тему как «совокупность взаимосвязанных элементов» (это ти­пичное определение системы), делая ее в самом определении статичной, т.е. лишенной функциональности, и лишь «самоор­ганизующиеся» системы наделяются целевым качеством» [80].

Таким образом, информация есть связанная активность, как бы связанная энергия системы. Энтропия, существующая в первозданном хаосе и в сегодняшней Вселенной, являет­ся, вероятно, реализацией той свободы, которой, помысли Н.А. Бердяева и В.Н. Ильина [17, 78], Бог наделил всякую тварь — от атома до человека.

Превращение хаоса в порядок — потеря микрообъекгами своей «свободы» при вступлении их в связь Друг с другом — есть процесс структурообразования, процесс связывания свободной актуальной энергии микрообъекта и перевод ее в потенциаль­ную энергию структуры — системы. Эта «связанная» энергия (структура) и есть информация для субъекта. Вспомним по это­му поводу богословскую мысль. В Комментариях творений преп. М. Исповедника А. Сидоров писал: «логос придает вид или форму, тип бесформенному веществу. Под материей разу­меется бесформенная основа бытия, принимающая в зависи­мости от того или другого формирующего начала ту или другую форму. В этом смысле она подвержена сжиманию и расшире­нию, т.е. движению от самого родового рода до самого видово­го вида (до отдельного индивида или существа» [172, с. 186]. А вот что по этому поводу писал ученый И.А. Полетаев: «Мож­но, по-видимому, воспользовавшись понятием информацион­ной энтропии, обобщить понятие физической энтропии на бо­лее широкий круг явлений — всех явлений, могущих быть ис­точником той же цели. Именно таким путем было введено не­давно появившееся понятие организации, которое применимо к широкому кругу объектов или систем и которое дает числовую меру статистических связей отдельных элементов, входя­щих в систему» [142].

Далее И.А. Полетаев показывает, что «статистическая мера организации системы, выражающая степень свободы ее элементов, дается величиной неэнтропии» [цитируется по Л.М. Веккеру, с.89]. Фундаментальность категорий «информа­ции» и «энергии» проявляется в том, что они в современной науке становятся ведущими категориями и в космологии, и в биологии.





Поделиться с друзьями:


Дата добавления: 2018-10-15; Мы поможем в написании ваших работ!; просмотров: 250 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Лучшая месть – огромный успех. © Фрэнк Синатра
==> читать все изречения...

2363 - | 2256 -


© 2015-2025 lektsii.org - Контакты - Последнее добавление

Ген: 0.008 с.