На цьому збіги не закінчуються. Одну з величин, що характеризує кількість інформації, яку несе і-й знак повідомлення,
Шеннон узагалі назвав ентропією (І. = ~N^pi ■ log2 p., де
N - кількість знаків у повідомленні, ар. - імовірність появи і-го
знака). Згодом ця величина дістала назву ентропія Шеннона.
Отже, найважливіша інформаційна характеристика системи, у якої параметри її стану мають імовірнісний характер, названа ентропією. Але ентропією називається також один із найважливіших параметрів, що характеризують енергетичний стан системи. Чи випадково це?
Ні. Адже енергетичний стан системи безпосередньо пов'язаний з імовірним розподілом станів елементарних частинок, з яких складається будь-яка система. А як ми щойно переконалися, характеристика цього є інформаційним параметром.
Подібність інформації та ентропії не випадкова. Як уже було сказано, ентропія є мірою невпорядкованості системи. Це можна трактувати як міру нестачі інформації з упорядкування. Зв'язок інформації з ентропією особливо яскраво показано на прикладі дії «демона Максвела», описаного на початку даного підрозділу.
Аргументи вченого
М.В. Волькенштейн: «Доповнюваність інформації та ентропії означає, наприклад, що при випарі рідини зникає інформація про місцезнаходження молекул у певній частині простору - в посудині. Відбувається еквівалентне зростання ентропії. Інформація про перебування молекуп у посудині перетворюється на інформацію про кореляцію між положеннями і швидкостями молекул у газі, що виникають при їх зіткненнях. Але це вже не інформація. Це ентропія» (Волькенштейн, 1986).
Можна сказати інакше: надходження інформації в систему збільшує її упорядкованість і знижує її ентропію.
221
9.4. Енергетичні джерела інформації
Трохи спрощуючи, можна сказати, що інформація - це те, що робить один предмет або явище відмінним від іншого. Саме з цією властивістю інформації пов'язані, зокрема, підходи до її визначення на основі категорії розбіжності, ступеня різноманіття чи ступеня свободи руху (зміни). Уважне вивчення інформаційного начала, утім, переконує, що ці підходи не суперечать один одному, а лише висвітлюють різні грані даної глибинної категорії, взаємодоповнюють загальну її картину.
Виходячи з вищесказаного, можна говорити, що інформацією може володіти лише щось, що має хоч якісь відмітні риси.
Подробиці ________________________________________________
Тепер доречно замислитися, чим може відрізнятися один предмет чи одне явище від іншого. Подібними відмітними властивостями можуть бути: форма, розмір, пропорції, структура, колір, запах, які-небудь фізичні чи хімічні характеристики (наприклад, твердість, еластичність, теплопровідність, електропровідність, їн.) або параметри зміни певних властивостей у часі (зокрема, здатність до коливального чи обертального руху і т.д.)- Усі Ц' властивості — результат різних енергетичних потенціалів, що дозволяють системі змінюватися в одних напрямках простору або періодах часу і не змінюватися в інших. Наприклад, форма - це результат енергетичної здатності тіла підтримувати певну структуру; колір залежить від енергетичної здатності тіла по-різному відбивати різні спектральні діапазони видимого світла і т.д.
Нагадаємо скорочено визначення потенціалу, що ми дали раніше. Потенціал - це наявність у певного об'єкта фізико-хімічних властивостей, що створюють можливість виконати роботу. Цю роботу здійснюють будь-які предмети (обов'язково витрачаючи при цьому енергію) для підтримання своїх відмітних властивостей.
Інформацію формує закріплена пам'яттю різниця енергетичних потенціалів предметів та явищ.
Подібні розпізнавальні потенціали і їх межі формують упорядкованість різних систем та їхніх елементів. Ця упорядкованість передається різними ступенями свободи руху окремих елементів і всієї системи в цілому.
Ідентифікаційність (відмітність) з'являється в елементів розглянутої множини лише тоді, коли вони починають розрізнятися. Відмітні властивості можуть бути задані (у чому ми переко-
222
налися раніш) тільки розбіжністю енергетичних потенціалів кожного елемента з розглянутої множини.
В міру виникнення розбіжності між елементами (різниці енергетичних потенціалів) виникають передумови упорядкованості системи. Вони будуть реалізовані лише тоді, коли виникне порядок, який визначає взаємозв'язки в просторі і часі елементів множини. Ці дві умови: енергетичні потенціали, сформовані розбіжностями окремих елементів, і просторово-часовий порядок взаємозв'язку між ними - створюють можливість руху енергії та речовини всередині розглянутої множини. Якщо обидві згадані умови закріплюються пам'яттю, тобто починають відтворюватися багаторазово, можна говорити про те, що множина елементів починає перетворюватися в систему. Усе це, тобто енергетичний потенціал і просторово-часовий порядок його1 реалізації, і є тим, що називається упорядкованістю системи, чи її інформацією.
Аналізуючи процес виникнення інформації в міру впорядкованості системи, на наш погляд, доречно зупинитися на кількох найбільш важливих моментах.
1. Виникнення енергетичного потенціалу. В упорядкованому стані системи колись однорідні (рівноважні) елементи набувають енергетичні потенціали, що відрізняються від відповідних параметрів інших елементів зовнішнього середовища. Це може статися, скажімо, у результаті випадкових флуктуацій.
Завдяки даним енергетичним потенціалам елементи набувають можливість певного руху щодо інших елементів середовища. Можна сказати, що елементи системи знаходять реальні ступені свободи замість потенційних, тобто одержують потенціали руху, обмежені разом з тим визначеними межами.
Примітка
У даному випадку під рухом мається на увазі не тільки і навіть не стільки механічне переміщення, скільки універсальна здатність змінюватися. А це передбачає також електромагнітні, акустичні, хімічні та інші види реалізації енергетичного потенціалу.
Таким чином, елементи набувають можливість практично реалізувати частину ступенів свободи із потенційно можливих (але не реалізованих у стані повної рівноваги).
Підкреслимо одну важливу деталь: на початкових стадіях розвитку системи з рівноважної множини однорідних елементів
223
ступені свободи обумовлені головним чином величиною формованих (виникаючих) енергетичних потенціалів. У цьому ж і головна причина виникаючих обмежень. Елементи можуть змінюватися (рухатися) настільки, наскільки вистачає їхніх потенціалів.
В міру посилення індивідуальних потенціалів окремих елементів велику роль в обмеженні їхніх ступенів свободи відіграватиме не власна потенція, а обмеження, обумовлені іншими елементами, - так звані зв'язки. Можна сказати, що по досягненні деякого ступеня розвитку системи елементи можуть змінюватися (рухатися) настільки, наскільки їм дозволяють ступені свободи інших елементів.
Таким чином, інформація на початкових етапах самоорганізації систем виникає завдяки емансипації окремих елементів природи, тобто знаходження ними ступенів свободи. Значення ступенів свободи, а разом з ними і обсяг інформації, що характеризує кожний окремий елемент, може зменшуватися в міру ^посилення зв'язків у системі, тобто сил взаємодії окремих елементів між собою (у чому ми переконаємося далі).
Примітка
Вважаємо за доречне звернути увагу на одну примітну деталь. Інформація народжується з різниці енергетичних потенціалів. Причому, щоб стати інформацією, ця різниця повинна відтворюватися (народжуватися) постійно. Це забезпечує пам'ять системи.
Саме так, відповідно до християнського вчення, відбувається «предвічне народження» Бога-Сина (Слова-Логосу) від Бога-Отця, що розглядається як першопричина, чи «первинна потенція» творення сутнісного світу. Від нього ж - Бога-Отця - виходить Святий Дух, що, з'єднуючись зі Словом, реалізує креативну здатність природи, створюючи її творіння.
2. Формування кількісного значення інформації. Кількість інформації, якою володіє будь-який стан системи, обумовлена двома ключовими факторами: по-перше, кількістю можливих напрямків зміни системи (п); по-друге, параметрами кількісних значень змін за кожним із напрямків (т). Фактично йдеться про вектор енергетичного потенціалу (п) і про його кількісне значення (/п).
Виконаний аналіз дозволяє підійти до розуміння ще однієї важливої характеристики, що впливає на величину інформації, - імовірної оцінки розглянутого потенціалу. Річ у тім, що саме
224
А/ж Nu=No/e No *n
Рис. 9.1. Залежність кількості інформації від кількості можливих
змін систем
вона є своєрідним результатом дії розглянутих двох характеристик. Як правило, чим вище значення енергетичного потенціалу, тим меншому значенню імовірності воно відповідає.
Спробуємо проаналізувати зміну інформації в системі за графіком (рис. 9.1). Відповідно до вихідної формули оцінки інформації її величина змінюється за логарифмічною залежністю від кількості способів зміни стану системи.
Крайня точка праворуч (NQ) сполучена з початковим станом розвитку системи (система цілком «розібрана» на однорідні елементи, що знаходяться в рівновазі). Цьому стану відповідає максимальна кількість можливих змін (М0 = М), однак реалізація їх неможлива через нульовий енергетичний потенціал (це відповідає максимальній імовірності станів р. —> max.)
Крайня ліва точка на графіку (N) сполучена з максималь-ним ступенем зарегулювання системи (система найбільш жорстко керована). Даному стану відповідають мінімальні ймовірні значення перебування системи в даному стані - останнє не слід плутати з імовірністю визначення, чи передбачення, даного стану. Хоча енергетичні потенціали реалізації змін у даному стані максимальні, кількість напрямків, за якими можуть бути реалізовані зміни, мінімальна. Це відбувається тому, що поведінка кожного елемента практично жорстко детермінована, регламентована загальним порядком зміни всієї системи в цілому.
Ш
'Ж
225
Примітка __________________________________________________
Втрата окремими елементами (наприклад, біологічними організмами в зграї чи людськими індивідами в колективі) свого індивідуального ступеня свободи на користь твердого порядку системи обертається також втратою частини інформації окремими елементами. Це, зокрема, може бути наслідком втрати індивідами частини своєї ідентичності (пригнічення відмітних індивідуальних особливостей), зниження універсальності, гіпертрофія рівня спеціалізації (замикання на виконанні надто вузьких функцій).
Максимальну інформацію система має в точці N = NJe (e -натуральне число). У даній точці відбувається оптимальне сполучення можливих напрямків змін з потенціалом реалізації даних змін і спостерігаються максимальні ступені свободи окремих елементів.
Примітка
В умовах соціальних систем (чи біологічних систем соціального типу) можна говорити, що свобода (інтереси) окремих індивідів найкраще поєднується з загальним порядком системи (суспільними інтересами).
Області змін станів системи, прилеглій до точки N, влас-тиві також максимальні можливості продукування нової інформації. Індивідуальна свобода окремих елементів є сприятливим «середовищем» виникнення випадкових не детермінованих змін.
3. Подальша еволюція системи. Якщо знову повернутися д0 графіка залежності кількості інформації від кількості можливих змін системи (рис. 9.2), то на підставі аналізу точки N можна додати наступне. Дана точка, що відповідає максимальному рівню зарегулювання системи, є одночасно і точкою вичерпання потенціалу розвитку даної системи. Подальша еволюція системи може йти тільки шляхом її інтеграції з іншими подібними системами за допомогою утворення більш складних систем, куди б названі структури входили як первинні елементи. Процес формування системи починається знову на більш високому рівні. Саме так з одноклітинних організмів утворювалися більш складні системи - організми, у яких клітини вже втрачають самостійну роль, виконуючи вузькі функції, обумовлені жорсткою програмою організму. Умовно початок процесу інтеграції колишніх систем у нову більш складну систему показано на графіку пунктирною лінією.
226
і | <• * *** | ■V ч ч ■V Ч \Ч \ | ||
/* | ^£*- | |||
'ж | ------->. |
л/«
NM=No/e
N
Рис. 9.2. Гіпотетичний характер еволюції системи, що утворилася
як окремий елемент нової системи
Даний стрибок інформації при виникненні нового інтеграційного процесу розвитку природи також знаменує новий процес емансипації природи, оскільки виникнення на новому рівні нової більш складної системи означає і появу в неї більш високого (на порядок) ступеня свободи.
4. Інформація і пам'ять системи. Реалізувати утворені енергетичні потенціали (ступені свободи) елементи зможуть лише за умови, що вони (потенціали) збережуться відносно тривалий період часу. В іншому разі поява і зникнення короткочасних потенціалів може розглядатися як звичайна випадкова флуктуація. Таким чином, про будь-яку впорядкованість елементів (їхні ступені свободи), що створює інформацію, можна говорити лише за умови, якщо ця впорядкованість буде відносно стійкою, тобто тривалою. Ця стійкість забезпечується пам'яттю системи. Саме пам'ять системи дозволяє фіксувати і відтворювати певний стан системи, а отже, і інформацію, пов'язану з цим станом.
Роль пам'яті системи полягає не тільки в тому, що вона дозволяє зафіксувати стан елементів при їх зміні, умовно кажучи, по вертикалі (тобто від більш імовірного стану в менш імовірний), але й при доборах по горизонталі (тобто серед станів, що характеризуються однаковою імовірністю).
227
Примітка __________________________________________________
Так, русло ріки є зафіксованим варіантом, одним із багатьох можливих її плинів; тварина успадковує певний набір із можливих наборів ознак своїх батьків; з величезної безлічі рівноймовірних комбінацій нот композитор фіксує одну, яка стає мелодією.
5. Носії пам'яті. Носіями пам'яті (інформації) є матеріальні системи, що виникли на попередніх стадіях еволюції природи. Таким чином, процес її розвитку являє собою своєрідний багатошаровий «пиріг». Будь-яка матеріальна система народжується на основі формування інформаційної основи (програми). А інформаційна основа потребує для свого формування матеріальної сутності.
Інформація - нематеріальна, але не може існувати без матеріальних носіїв інформації.
Примітка
Зокрема, будь-який біологічний організм — це насамперед унікальна інформаційна програма, що реалізується на основі генетичного коду. Його виникнення стало можливим лише завдяки існуванню в природі нуклеїнових кислот, на молекулах яких (ДНК і РНК) записується необхідна генетична інформація. Саме ген протягом усього життя є інформаційним регулятором потоків речовини й енергії", що кожний момент відтворюють процеси кожної відкритої стаціонарної системи під назвою «біологічний організм». Поява генетичних інформаційних програм обумовила виникнення нового класу матеріальних структур, названих живою речовиною. У живій речовині на основі мозку виникла нова інформаційна сутність — інтелект. Інтелект створив нові матеріальні носії пам'яті (книги, магнітні записи, комп'ютери). На їх основі у наші дні народжується нова інформаційна сутність — єдиний розум Землі, Можливо, саме його В.І. Вернадський мав на увазі, вводячи поняття сфери розуму — ноосфери.
Цілком імовірно, подібні закономірності чергування матеріальних та інформаційних начал присутні в процесах виникнення матеріально-інформаційних систем на більш ранніх етапах еволюції природи. Мова йде про формування елементарних частинок — носіїв енергії та елементарних частинок - носіїв речовини; на основі цих перших двох начал сформувалися нові інформаційно-матеріальні сутності - молекули; а потім — макроскопічні об'єкти. Точну ж відповідь на питання: «Що було раніш:
228
яйце чи курка (інформація або матерія)?» - можна знайти лише в джерелах тієї сутності, яку одні умовно, інші конкретно називають ім'ям Творець.
Вищесказане дозволяє зробити ряд висновків:
• Інформація виникає внаслідок емансипації (підвищення ступенів свободи) елементів природи. Це може відбуватися в таких формах:
- набуття елементами природи енергетичних потенціалів, що обумовлюють відмінність одних елементів від інших (при цьому кожний елемент одержує певний обсяг інформації);
- інтеграції елементів природи і їхніх ступенів свободи в єдину систему; у результаті об'єднання енергетичних потенціалів і їхніх обмежень з'являються нові системні властивості, не характерні ні окремим елементам, ні їх сумі (цей приріст інформації умовно назвемо емерджентним компонентом);
- інтеграції утворенних систем (субсистем) у більш складні системні утворення (системи), що мають більші ступені свободи порівняно із субсистемами.
• Інформація, що означає порядок, надходить у систему ззовні (із зовнішнього середовища), тобто з природи. Туди ж (тобто в зовнішнє середовище) система експортує безладдя (ентропію). При руйнуванні системи відбувається зворотний процес: інформація повертається в середовище (природу), а ентропія повертається в систему.
• Пам'ять системи є обов'язковою умовою формування інформації. Лише в сполученні реальних ступенів свободи (енергетичних потенціалів руху) елементів природи з властивостями цих елементів, що дозволяють фіксувати в часі ці ступені свободи, можуть з'явитися необхідні і достатні фактори виникнення інформації.
• Носіями пам'яті є матеріальні системи, що виникли на попередніх стадіях еволюції природи.
Усі зазначені моменти реалізуються в креативних процесах формування і трансформації будь-яких матеріально-інформацій-них сутностеи, що виникають у природі. У цьому ми переконаємося в наступних розділах книги.
229
Розділ 10
Енергоентропійні основи розвитку
10.1. Поняття про негативну енергію
У попередньому розділі ми переконалися, що збільшення порядку пов'язане зі зниженням ентропії в системі. Власне, ентропія і є мірою безладу системи.
Ервін Шредінгер, лауреат Нобелівської премії, один із творців квантової механіки, перший, хто пояснив феномен життя, виходячи зі статистичної теорії, наочно обґрунтував зв'язок ентропії зі статистичною концепцією впорядкованості і невре-гульованості. Для цього він використовує відкриту Больцманом і Гіббсом кількісну залежність:
Ентропія = k • IgD,
де k - так звана постійна Больцмана, рівна 3,2983 * 10~24 калорій на 1 °С, D - кількісна міра неврегульованості атомів у даному тілі.
Аргументи вченого
«Дати точне пояснення величини D в коротких і неспеціальних термінах майже неможливо. Неврегульованість, яку вона виражає, частково полягає в тому, що атоми і молекули різного сорту змішуються цілком випадково замість того, щоб бути повністю розділеними.
Ізольована система... збільшує свою ентропію і більш-менш швидко наближається до інертного стану максимальної ентропії.»
Як у термінах статистичної теорії' виразити ту дивовижну здатність живого організму, за допомогою якої він затримує перехід до термодинамічної рівноваги (смерті)? Вище ми сказали: «Він живиться негативною ентропією», немов привертаючи до себе її потік, щоб компенсувати цим збільшення ентропії, яке здійснюється ним у процесі життя, і таким чином підтримувати себе на постійному і достатньо низькому рівні ентропії.
231
Якщо D - міра неврегульованості, то зворотну величину 1/D можна розглядати як пряму міру впорядкованості. Оскільки логарифм 1/D є те саме, що і від'ємний логарифм D, ми можемо написати рівняння Больцмана таким чином:
-(Ентропія) = к lg(1/D).
Тепер незграбний вираз «негативна ентропія» можна замінити більш точним: ентропія, узята з від'ємним знаком, є сама по собі міра впорядкованості» (Шредингер, 1999).
Живі організми живляться негативною ентропією.
Ці викладки були наведені Шредінгером у 1943 р. в Триніті-коледжі в Дубліні на лекції, конспект якої був виданий в 1945 р. у Великобританії. У 1947 p. JI. Бріллюен запропонував назвати показник ентропії з від'ємним знаком «негентропіею» (Але-ксеев, 1983). Негентропія може трактуватися як обсяг інформації системи, або міра впорядкованості системи.
Зокрема, якщо з будівельних матеріалів зібрати будинок, а з деталей - автомобіль, то ентропія цих систем зменшиться, а впорядкованість (і відповідно, інформація, яку має система) зросте. Якщо будинок чи автомобіль знову розібрати на «запчастини», ентропія збільшиться, а впорядкованість (інформація) зменшиться.
Примітка
Не слід розглядати процес зміни впорядкованості системи як деяку одночасну дію, після чого, скажімо, частина ентропії зникає, а на ЇЇ місці з'являється інформація. У реальних умовах ситуація швидше нагадує процес, модельований відомою шкільною задачею: «з однієї труби витікає, а в іншу - втікає...». Причому обидва процеси йдуть одночасно і постійно. Залежно від того, темпи якого процесу переважають, ми маємо справу з прогресивними або деградаційними змінами в системі.
Навіть у вищенаведеному прикладі збирання будинку і автомобіля процес руйнування (зростання ентропи) в конкретній системі починається, ледве з'являються на світ відповідні структури: будівля починає руйнуватися, автомобіль — зношуватися. Щоб цього не відбувалося, необхідно докладати енергію або працю на підтримання систем у працездатному стані.
Процеси руйнування системи різноманітні. Умовно можна виділити три основні напрями, за якими відбуваються процеси збільшення ентропії (руйнування) в системі:
232
тепловий - коли система знижує ефективність функціонування, не змінюючи своєї структури і якості виконуваних функцій (збільшуються енерговитрати на виконання одиниці роботи); - структурний - коли відбувається порушення структури (змінюється структурна будова системи), система може «втрачати» частину виконуваних функцій і/або погіршувати якість їх виконання;
інформаційний - коли при збереженні структури системи порушуються зв'язки між її ланками; у результаті погіршується якість виконання функцій окремими підсистемами системи.
Відповідно до зазначених напрямів часто виділяють і три види ентропії: теплову, структурну та інформаційну. Підкреслимо умовність указаного розподілу ентропійної активності системи. Адже ці процеси тісно взаємозв'язані і взаємообумов-лені. Зовнішній прояв того чи іншого процесу є лише однією з форм єдиного процесу зростання ентропії. Загальмувати, зупинити або направити його назад можна, лише прикладаючи додаткову енергію, яку система може взяти із зовнішнього середовища через процеси метаболізму.
Метод дослідження балансів зміни енергії і ентропії дістав назву енергоентропіки (Алексеев, 1983).
Подробиці
У рамках методу на основі теоретичних положень термодинаміки сформульовані п'ять ключових законів енергоентропіки:
1. Закон збереження енергії: жодна матеріальна система не може розвиватися або функціонувати, не споживаючи енергії ДЕ, яка витрачається на здійснення роботи W, на зміну внутрішньої енергії системи AL/ і на розсіяння (дисипацію) теппа в навколишнє середовище Q:
АЕ = AU+ VV+ Qa. (9.1)
2. Закон зростання ентропії: реальні ізольовані макроскопічні системи прагнуть самовільно перейти з менш імовірного стану у більш імовірний,, або з більш упорядкованого в менш упорядкований (за відсутності сил, що перешкоджають цьому), тобто їх ентропія може тільки зростати. Оскільки ентропія в стані рівноваги системи, досягнувши максимуму, більше не змінюється, швидкість її зростання в цьому стані дорівнює нупю.
Проте в деяких випадках досягненню системою рівноважного стану перешкоджають якісь зовнішні умови (теплоізоляція холодипьної шафи,
233
герметизація балонів зі стисненим газом та Ін.). Тоді вона приходить у стан стаціонарно нерівноважнии, що характеризується мінімальним значенням швидкості виникнення ентропії за даних зовнішніх умов. Це положення було вперше сформульоване в 1947 р. І. Пригожиним і назване принципом мінімуму виникнення ентропії.
В уточненому вигляді розглянутий принцип формулюється так: з усіх стійких стаціонарних станів системи, що допускаються граничними умовами, законами перенесення і збереження, а також 2-м законом термодинаміки, реалізується стан з мінімальним виробництвом ентропії.
Саме цей принцип лежить в основі реалізації відбору найефективніших станів системи, що відбито в 5-му законі.
3. Закон зменшення ентропії відкритих систем при прогресивному розвитку: ентропія відкритих систем у процесі їх прогресивного розвитку зменшується внаслідок споживання енергії від зовнішніх джерел.
При цьому ентропія систем, що служать джерелами енергії і негентропії (наприклад, Сонця), зростає. У зв'язку з цим можна сказати, що будь-яка впорядкувальна діяльність здійснюється шляхом виграти енергії і зростання ентропії зовнішніх систем і без такого взагалі відбуватися не може.
Таким чином, цей закон немов протилежний 2-му закону, але не суперечить йому, оскільки стосується не Ізольованих систем, що самовільно змінюються, а систем, над якими здійснюється та чи інша організаційно-впоряд-ковувальна діяльність.
4. Закон граничного розвитку матеріальних систем: матеріальні системи (природні, технічні та ін.) при прогресивному розвитку, тобто при вдосконаленні, досягають характерної для кожної сукупності зовнішніх і внутрішніх умов межі, яку можна виразити максимальним значенням відповідного виду негентропії. Це знамення відраховується від деякого нульового або ж максимального значення якогось критерію ефективності розвитку або функціонування систем, наприклад коефіцієнта корисної дії (ККД).
5. Закон переважного розвитку, або закон конкуренції: у кожному класі матеріальних систем переважного розвитку набувають ті, що за даної сукупності внутрішніх І зовнішніх умов досягають максимального значення негентропії або максимальної енергетичної ефективності (ККД, питомої продуктивності^ довговічності, надійності і т.д.) (Алексеев, 1983).
10.2. Енергоентропійний баланс
Побудова енергоентропійного балансу ґрунтується на аналізі зміни величини ентропії системи. Зміна ентропії відкритої стаціонарної системи має дві складові:
• ентропія, що виробляється всередині системи; вона обумовлена процесами самовільного розупорядкування системи (процеси зносу, розладу, ін.) і є завжди додатною величиною;
234
• зміни ентропії, пов'язані з речовинно-енергетично-інформа-ційним обміном між системою і зовнішнім середовищем; ентропія змінюється в результаті обміну із середовищем як безпосередньо енергією, так і речовинами; адже ентропія залежить від стану речовини і разом з речовиною ентропія надходить у систему або виводиться з неї. Таким чином, стан системи формується з двох чинників: ентропії, що виробляється всередині системи, і зміни ентропії, обумовленої зовнішнім обміном. Алгебраїчна сума цих двох величин може бути додатною, від'ємною або дорівнювати нулю. Іншими словами, приплив ентропії в систему може бути більшим чи меншим її відпливу або рівним йому. Граничний стан системи досягатиметься тоді, коли виробництво ентропії всередині системи в точності компенсуватиметься відпливом ентропії за рахунок її обмінної складової.
Така умова може бути названа необхідною передумовою стій-ко-нерівноважного, або стаціонарного, стану системи. Саме в цьому випадку значення вказаних ентропійних складових будуть рівні за абсолютною величиною, але матимуть протилежні знаки.
Зниження ж ентропії досягатиметься лише в тому випадку, якщо відплив ентропії перевищуватиме її створення всередині системи. Підкреслимо, що розглянуті умови є лише необхідними передумовами перебування системи у відповідних станах.
Чому ж це не забезпечує і достатніх передумов? Тому, що розглянуті умови можуть виявитися результатом фіксації двох розділених в часі станів системи.
Примітка __________________________________________________
У проміжку між початковою і кінцевою фіксацією часу система може багаторазово змінювати свої стани. Зокрема, система може зазнавати постійного, притому абсолютно безладного, чергування зменшення і збільшення ентропії. Подібний стан не може бути названий ні стійким, ні впорядкованим.
Що ж потрібно, щоб досягти достатніх передумов певного стану системи? Необхідне одномоментне виконання вказаних умов. Зокрема, в стаціонарному з нульовим виробництвом ентропії (умовно назвемо його стійким) стані система знаходитиметься тоді, коли в кожний з моментів певного періоду часу виробництво внутрішньої ентропії супроводжуватиметься