Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Количество информации как мера уменьшения неопределенности знания




Получение информации можно связать с уменьшением неопределенности знания. Это позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет оно из двух возможных событий – монета окажется в одном из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближается. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а «решка» – 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» – 40 раз, если бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» – 480 и т.д. В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются.

Перед броском существует неопределенность нашего знания (возможны два события), и как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности нашего знания в два раза, так как из двух возможных равновероятных событий реализовалось одно.

В окружающей действительности достаточно часто встречаются ситуации, когда может произойти некоторое количество равновероятных событий. Так, при бросании равносторонней четырехгранной пирамиды существуют 4 равновероятностных события, а при бросании шестигранного игрального кубика – 6 равновероятностных событий.

Чем больше количество возможных событий, тем больше начальная неопределенность нашего знания и соответственно тем больше количество информации будет содержать сообщение о результатах опыта.

Единицы измерения количества информации. Для количественноговыражения любой величины необходимо определить единицу измерения. Так, для измерения длины, в качестве единицы, выбран метр, для измерения массы – килограмм и т.д. аналогично, для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица названа бит.

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза (из двух возможных событий реализуется одно) и, следовательно, количество полученной информации равно 1 биту.

Минимальной единицей измерения информации является бит, а следующей по величине единицей – байт, причем

1 байт = 23 бит = 8 бит

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятой в большинстве наук. Традиционные метрические системы единиц, например международная система единиц СИ, в качестве множителей кратных единиц использует коэффициент 10n, где n = 3,6,9 и т.д., что соответствует десятичным приставкам «кило»(103), «мега»(106), «гига»(109) и т.д.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется 2n.

Так кратные байту единицы измерения количества информации вводятся следующим образом:

1Кбайт = 210 байт = 1024 байт;

1Мбайт = 210 Кбайт = 1024 Кбайт;

1Гбайт = 210 Мбайт = 1024 Мбайт;

Количество возможных событий и количество информации. Существует формула, которая связывает между собой количество возможных событий N и количество информации I:

N = 2i.

По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло

N = 24 = 16.

И, наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно I.

Практическое задание «Определить количество информации». Определить количество информации, полученной вторым игроком после первого хода первого игрока, в игре «крестики- нолики» на поле размером 8х8 клеток.

Перед первым ходом существует 64 возможных события (64 различных вариантов расположения «крестика»), тогда уравнение принимает вид: 64=2i.

Так как 64=26 , то 26 = 2i. Таким образом, I = 6 бит, т.е. количество информации, полученной вторым игроком после первого хода первого игрока, составляет 6 бит.

 





Поделиться с друзьями:


Дата добавления: 2016-04-03; Мы поможем в написании ваших работ!; просмотров: 722 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Надо любить жизнь больше, чем смысл жизни. © Федор Достоевский
==> читать все изречения...

2420 - | 2088 -


© 2015-2025 lektsii.org - Контакты - Последнее добавление

Ген: 0.013 с.