Она создавалась и разрабатывалась на базе синтеза различных наук: математики, физики, биологии, теории управления, медицины, социологии и др.
Предметом исследования кибернетики является обмен информацией, оценка функционирования систем управления и их взаимосвязь.
Основным методом кибернетики является метод математического моделирования систем управления.
Основным принципом кибернетики является применение системного подхода при описании и исследовании сложных систем.
Системный подход рассматривает при изучении систему, как совокупность взаимосвязанных элементов, находящихся в определенной функциональной зависимости между собой.
Системой управления называют такую совокупность элементов (частей), в результате деятельности которых, обнаруживаются интегративные свойства, т.е. присущие системе в целом и не свойственные ее элементам (частям) в отдельности,
Пример: «Врач - больной» - система управления.
Обратная связь может быть двух видов: отрицательной и положительной. Отрицательная обратная связь обеспечивает выдачу объекту управления, со стороны устройства управления управляющего воздействия, направленного на ликвидацию рассогласования. Пример: холодильник. Положительная обратная связь ведет не к устранению, а к усилению рассогласования. Пример: больной эпилепсией.
Основные направления медицинской кибернетики:
1. Автоматизация диагностики заболеваний.
2. Автоматизация диагностики состояния больного.
3. Моделирование физиологических процессов в норме и патологии.
4. Автоматизация труда медицинских работников.
5. Разработка плана лечения и прогнозирование хода болезни.
6. Применение диагностики в здравоохранении.
Информатика является основой кибернетики, но и представляет собой самостоятельное научное направление, самостоятельную науку.
Информатика - научная дисциплина, изучающая структуру и общие свойства научной информации, а также закономерности всех процессов научной коммуникации.
Значительную часть этих процессов составляет научно-информационная деятельность по сбору, переработке, хранению, поиску и распространению научной информации. Основная теоретическая задача информатики заключается в определении общих закономерностей, в соответствии с которыми происходит создание научной информации, ее преобразование, передача и использование в различных сферах деятельности человека. Математическая теория информации используется в информатике для обеспечения оптимального кодирования информации, ее долговременного хранения, поиска и передачи на расстояние.
Математическая теория информации - раздел кибернетики, занимающийся математическим описанием и оценкой методов передачи, хранения, извлечения и классификации информации.
Она в основном математическая дисциплина, использующая методы теории вероятности, математической статистики, линейной алгебры и др. Первоначально теория информации возникла как теория связи, обеспечивающая надежность и экономичность передачи сообщений по техническим каналам связи. Сейчас она является универсальной теорией связи для систем любого происхождения, в том числе и биологических. Недостаточное к ней внимание биологов и медиков обусловлено, вероятно, их слабой осведомленностью в этой области. Хотя, даже на первый взгляд ясно, что теория располагает неограниченными возможностями описать, дать количественную характеристику сложных биологических объектов. И не случайно поэтому, в начале медицинская кибернетика (1975 г.), а затем информатика введена в программу медицинских вузов.
Информация так же как масса и энергия является характеристикой окружающего нас мира, это философская категория, материальная субстанция, характеризующая пространственную ориентацию материи.
Информация - это совокупность каких-либо сведений, данных, знаний об изучаемом объекте, явлении, процессе.
Информация предполагает передачу этих сведений другому (воспринимающему) объекту. Сведения, передаваемые с одного объекта к другому, называются сообщениями. Сообщения информативны только в том случае, если они несут новые сведения об объекте. Предназначенные для передачи на расстояние сообщения преобразуются в сигналы. Они по своей природе могут быть дискретными (азбука Морзе, цифры, буквы, молекулы, клетки, особи...) и непрерывными (высота тона звука, изменение давления крови, изменение концентрации веществ в биологических тканях, температура тела и т.д.). Сообщение, подлежащее передаче, в информатике называется словом. Это может быть буква, слово, фраза, сочетание слов и цифр и т.д. Составляющие сообщение элементы, называются буквами или символами.
Количество информации зависит от числа сообщений (N), точнее прямо пропорционально логарифму от N:
J = logaN
Основанием логарифма берется, как правило, число 2, т.к. в принципе, любую информацию можно представить в виде совокупности двух цифр - «0» и «1» («0» - нет, «1» - да), тогда
J = log2N.
Если в этом определении N = 2, то J = log22 = 1. '
Количество информации равно единице, когда число сообщений равно двум. Такая единица измерения количества информации получила название БИТ.
Чаще используется единица 1 байт = 8 бит.
Пример: Подсчитать количество информации, которую несет одна буква русского алфавита. Приближенно будем считать N = 32 и использование каждой буквы равновероятно. J = log232 = 5 бит.
Следовательно, каждая буква русского алфавита несет информацию в 5 бит, если считать использование всех букв равновероятным. Но сообщение, полученное от какого-либо объекта, является случайным явлением. Так, например, буква А в любом тексте встречается чаще, чем буква Ы. В медицине сообщение зависит от многих явлений и процессов, протекающих в организме человека и в окружающей среде. Поэтому для количественной оценки информации используется теория информации.
Преобразуем: J = logN = -log1/N
1/N - это вероятность появления одного сообщения Аi, поэтому, J = -logP(Ai) - информация любого сообщения (основание логарифма не ставим, всегда считая его равным двум). Если в некотором опыте возможно появление нескольких сообщений А1, А2, А3,... Аi (симптомы, анализы) и мы проводим опыты п раз (n - больных с одним диагнозом). Причем, А1 появляется m1, раз, А2 - m2раз, А3 - m3 раз и т.д., то общая информация подсчитывается по формуле:
J = - m1logP(A1) - m2logP(A2) - m3logP(A3)-... = - ∑m1 logP(Ai),
а среднее значение информации на одно сообщение:
J = - ∑P(Ai)logP(Ai), т.к. m1/n = P(Al), m2/n = P(А2),..., mi/n = P(Аi)
Эту же формулу можно получить, проделав ряд преобразований:
J = - log1/N, J = - N1/N log1/N, J = - ∑P(Ai)logP(Ai)
Пример: Т.к. использование букв русского алфавита события не равновероятные и зависимые, то реальное количество информации, приходящееся на одну букву, составляет около 4 бит.
Величину H = ∑P(Ai)logP(Ai) называют информационной энтропией. Энтропия характеризует степень неопределенности системы. Т.к. J и Н имеют различные знаки (J = - Н), то получение информации от системы уменьшает ее степень неопределенности. Кроме величины информации и энтропии, в информатике введено понятие - ценность информации.
Ценность информации - это изменение вероятности достижения цели, в результате получения информации.
∆J = logP1 - logP2,
где Р1 - вероятность достижения цели до получения информации, Р2 - после. Ценность информации бывает как положительной, так и отрицательной. Это зависит от того, повысило или понизило получение новой информации вероятность достижения цели. Отрицательная информация называется дезинформацией. Ценность информации измеряется так же в битах. Любое сообщение от отдельных частей системы или от системы к системе передается по специальным путям, получивших название каналов связи. Для того чтобы сообщение можно было передать по каналу связи, его необходимо преобразовать в форму, удобную для передачи по нему, т.е. представить в виде совокупности символов или сигналов. Материальное воплощение сообщения в канале связи, как мы уже говорили, называется сигналом. Процесс преобразования сообщения в сигналы называется кодированием. Например, вся информация от внешнего мира, поступающая на наши органы чувств, кодируется в виде электрических импульсов в нейронах и в таком виде поступает в центральную нервную систему. На втором конце канала связи сигналы расшифровываются или декодируются и вновь преобразуются в сообщение. Поскольку передача сигналов в любом канале связи сопровождается помехами, то полученное сообщение будет несколько отличаться от первоначального. Американский инженер и математик Клод Шеннон, который считается основоположником теории передачи информации, в своем классическом труде «Теория передачи электрических сигналов при наличии помех «(1948 г.) предложил следующую схему передачи сигналов по каналам связи:
Как видно из данной схемы, передача информации предполагает наличие источника сообщений и получателя или адресата.
Источник сообщений - это материальный объект, основной особенностью которого является то, что он создает совокупность сведений о своем состоянии.
Получатель или Адресат - это материальный объект, для которого предназначено сообщение.
Если существует взаимосвязь между передаваемыми сигналами, то их можно использовать не полностью. Применяя различные методы кодирования, можно уменьшить число необходимых для передачи сигналов, без уменьшения количества передаваемой информации. Однако избыточность информации желательна, т.к. она ведет к увеличению отношения сигнала к шуму.
Избыточность информации - это разность между максимально возможным и реальным количеством информации, переносимой ее носителем.
В рассмотренном примере об информации букв русского алфавита их избыточность составляет 1 бит (5 бит - 4 бита), т.е. она двукратна. Избыточность снижает степень погрешностей, которые вносятся шумами или помехами. Например, нечеткость шрифта, плохая орфография, недостаток освещения и т.д. Еще один пример. Так вместо текста: «Приеду в Омск поездом номер три в восемь часов, пятнадцать минут», можно передать по телеграфу более короткий текст: «Приеду Омск поездом три, восемь, пятнадцать» или так: «поезд 3, 8 - 15». Вследствие наличия помех в каналах связи, одна из букв или цифр в сообщении может принята не правильно. Но если в первых двух примерах это не несет никаких ошибок в понимании смысла сообщения, то в третьем случае может полностью его изменить. Например: «Подъезд 3, 8—15». Поэтому, как мы уже говорили, избыточность информации приводит к повышению надежности передачи информации по каналу связи.
Использование теории информации в биологии и медицине:
1.Живые организмы, как открытые термодинамические системы, обмениваются с окружающей средой и внутри себя веществом, энергией и информацией. Поток информации обязательно должен учитываться при рассмотрении механизмов, поддерживающих постоянство параметров живой системы. Процесс усвоения, переработки, использования информации происходит во всех звеньях, начиная с молекул (ДНК) и кончая сложными сообществами живых организмов.
2.Значительным шагом была расшифровка кибернетикой кодированных сигналов в зародышевых клетках, несущих информацию о наследственности (генетика, теория наследственности).
3.Теория информации позволила получить количественные характеристики системы человека (восприятие рецепторами кожи -109бит/с, количество информации, воспринимаемой центральной нервной системой неосознанно -109бит/с, осознанно -102бит/с и т.д.), что позволило выявить каналы информации, возможности каждого из каналов и проникнуть в структуру мозга.
4.Сейчас доказано, что причины многих тяжелых заболеваний человека, таких как гипертония, рак, сахарный диабет и другие, связаны с нарушением процесса управления и переработки информации.
5. В эпидемиологических, санитарно-гигиенических и социально-гигиенических исследованиях.