Ћекции.ќрг


ѕоиск:




 атегории:

јстрономи€
Ѕиологи€
√еографи€
ƒругие €зыки
»нтернет
»нформатика
»стори€
 ультура
Ћитература
Ћогика
ћатематика
ћедицина
ћеханика
ќхрана труда
ѕедагогика
ѕолитика
ѕраво
ѕсихологи€
–елиги€
–иторика
—оциологи€
—порт
—троительство
“ехнологи€
“ранспорт
‘изика
‘илософи€
‘инансы
’ими€
Ёкологи€
Ёкономика
Ёлектроника

 

 

 

 


Ћекци€ 2. —войства информации.  оличество информации. ѕон€тие алгоритма




¬ лекции рассматриваетс€ общий смысл пон€тий алгоритма, количество информации, какими свойствами обладает информаци€. ѕон€ти€ информатизаци€ общества

÷ель лекции: ѕон€ть, как измер€етс€ количество информации. ¬ лекции рассматриваетс€ пон€ти€ бита и байта информации.

 акими свойствами обладает информаци€?

—войства информации:

Ј достоверность; Ј полнота; Ј ценность; Ј своевременность; Ј пон€тность; Ј доступность; Ј краткость; Ј и др.

»нформаци€ достоверна, если она отражает истинное положение дел. Ќедостоверна€ информаци€ может привести к неправильному пониманию или прин€тию неправильных решений.

ƒостоверна€ информаци€ со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаЄт отражать истинное положение дел.

»нформаци€ полна, если еЄ достаточно дл€ понимани€ и прин€ти€ решений.  ак неполна€, так и избыточна€ информаци€ сдерживает прин€тие решений или может повлечь ошибки.

“очность информации определ€етс€ степенью ее близости к реальному состо€нию объекта, процесса, €влени€ и т.п.

÷енность информации зависит от того, насколько она важна дл€ решени€ задачи, а также от того, насколько в дальнейшем она найдЄт применение в каких-либо видах де€тельности человека.

“олько своевременно полученна€ информаци€ может принести ожидаемую пользу. ќдинаково нежелательны как преждевременна€ подача информации (когда она ещЄ не может быть усвоена), так и еЄ задержка.

≈сли ценна€ и своевременна€ информаци€ выражена непон€тным образом, она может стать бесполезной.

»нформаци€ становитс€ пон€тной, если она выражена €зыком, на котором говор€т те, кому предназначена эта информаци€.

»нформаци€ должна преподноситьс€ в доступной (по уровню воспри€ти€) форме. ѕоэтому одни и те же вопросы по разному, излагаютс€ в школьных учебниках и научных издани€х.

»нформацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно).  раткость информации необходима в справочниках, энциклопеди€х, учебниках, всевозможных инструкци€х

 ак измер€етс€ количество информации?

¬озможно, ли объективно измерить количество информации? Ќа этот вопрос ученые до сих пор не могут дать точный ответ.  ак, например можно измерить информацию, котора€ содержитс€ в литературных произведени€х ѕушкина, Ћермонтова, ƒостоевского. ¬ажнейшим результатом теории информации €вл€етс€ следующий вывод: ¬ определенных, весьма широких услови€х можно пренебречь качественными особенност€ми информации, выразить еЄ количество числом, а также сравнить количество информации, содержащейс€ в различных группах данных.

¬ насто€щее врем€ получили распространение подходы к определению пон€ти€ Ђколичество информацииї, основанные на том, что информацию, содержащуюс€ в сообщении, можно нестрого трактовать в смысле еЄ новизны или, иначе, уменьшени€ неопределЄнности наших знаний об объекте. Ёти подходы используют математические пон€ти€ веро€тности и логарифма.

ѕодходы к определению количества информации. ‘ормулы ’артли и Ўеннона. јмериканский инженер –. ’артли в 1928 г. процесс получени€ информации рассматривал как выбор одного сообщени€ из конечного наперЄд заданного множества из N равноверо€тных сообщений, а количество информации I, содержащеес€ в выбранном сообщении, определ€л как двоичный логарифм N.
‘ормула ’артли: I = log2N

ƒопустим, нужно угадать одно число из набора чисел от единицы до ста. ѕо формуле ’артли можно вычислить, какое количество информации дл€ этого требуетс€: I = log2100  6,644. “аким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

ѕриведем другие примеры равноверо€тных сообщений:

1. при бросании монеты: Ђвыпала решкаї, Ђвыпал орелї;

2. на странице книги: Ђколичество букв чЄтноеї, Ђколичество букв нечЄтноеї.

ќпределим теперь, €вл€ютс€ ли равноверо€тными сообщени€ "первой выйдет из дверей здани€ женщина" и "первым выйдет из дверей здани€ мужчина". ќднозначно ответить на этот вопрос нельз€. ¬се зависит от того, о каком именно здании идет речь. ≈сли это, например, станци€ метро, то веро€тность выйти из дверей первым одинакова дл€ мужчины и женщины, а если это военна€ казарма, то дл€ мужчины эта веро€тность значительно выше, чем дл€ женщины.

ƒл€ задач такого рода американский учЄный  лод Ўеннон предложил в 1948 г. другую формулу определени€ количества информации, учитывающую возможную неодинаковую веро€тность сообщений в наборе.

‘ормула Ўеннона: I = Ч (p1log2 p1 + p2 log2 p2 +... + pN log2 pN), где p i Ч веро€тность того, что именно i -е сообщение выделено в наборе из N сообщений.

Ћегко заметить, что если веро€тности p1,..., pN равны, то кажда€ из них равна 1 / N, и формула Ўеннона превращаетс€ в формулу ’артли.

ѕомимо двух рассмотренных подходов к определению количества информации, существуют и другие. ¬ажно помнить, что любые теоретические результаты применимы лишь к определЄнному кругу случаев, очерченному первоначальными допущени€ми.

¬ качестве единицы информации  лод Ўеннон предложил прин€ть один бит (англ. bit Ч binary digit Ч двоична€ цифра).

Ѕит в теории информации Ч количество информации, необходимое дл€ различени€ двух равноверо€тных сообщений (типа ЂорелїЧЂрешкаї, ЂчетїЧЂнечетї и т.п.).

¬ вычислительной технике битом называют наименьшую "порцию" пам€ти компьютера, необходимую дл€ хранени€ одного из двух знаков "0" и "1", используемых дл€ внутримашинного представлени€ данных и команд.

Ѕит Ч слишком мелка€ единица измерени€. Ќа практике чаще примен€етс€ более крупна€ единица Ч байт, равна€ восьми битам. »менно восемь битов требуетс€ дл€ того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Ўироко используютс€ также ещЄ более крупные производные единицы информации:

Ј 1  илобайт ( байт) = 1024 байт = 210 байт,

Ј 1 ћегабайт (ћбайт) = 1024  байт = 220 байт,

Ј 1 √игабайт (√байт) = 1024 ћбайт = 230 байт.

¬ последнее врем€ в св€зи с увеличением объЄмов обрабатываемой информации вход€т в употребление такие производные единицы, как:

Ј 1 “ерабайт (“байт) = 1024 √байт = 240 байт,

Ј 1 ѕетабайт (ѕбайт) = 1024 “байт = 250 байт.

«а единицу информации можно было бы выбрать количество информации, необходимое дл€ различени€, например, дес€ти равноверо€тных сообщений. Ёто будет не двоична€ (бит), а дес€тична€ (дит) единица информации.

ѕри этом важно отличать двоичные кратные приставки от соответствующих дес€тичных:

Ђодин  ї Ц 1  =210=1024 от Ђодин килої Ц 103=1000,

Ђодин ћї Ц 1 ћ=220=1048576 от Ђодин мегаї Ц 106=1000000 и т.д.

Ётим часто злоупотребл€ют производители компьютерной техники, в частности, производители жестких магнитных дисков, которые при указании их информативной емкости используют меньшую единицу измерени€ с тем, чтобы результирующее значение выражалось большим числом (как в известном мультфильме Ц "ј в попуга€х-то € длиннее!").





ѕоделитьс€ с друзь€ми:


ƒата добавлени€: 2015-01-29; ћы поможем в написании ваших работ!; просмотров: 1606 | Ќарушение авторских прав


ѕоиск на сайте:

Ћучшие изречени€:

≈сли вы думаете, что на что-то способны, вы правы; если думаете, что у вас ничего не получитс€ - вы тоже правы. © √енри ‘орд
==> читать все изречени€...

305 - | 320 -


© 2015-2023 lektsii.org -  онтакты - ѕоследнее добавление

√ен: 0.011 с.