Понятие информации
И |
нформация, как и материя, является первичным понятием и поэтому ей нельзя дать строго научного определения. Вместо определения дается понятие информации, которое зависит от конкретной области науки и техники. Слово «информация» происходит от латинского informatio, означающего сведения, разъяснения, пояснения.
Информация – это сведения о людях, предметах, фактах, событиях и процессах, независимо от формы их представления. Данное определение понятия информации зафиксировано в Законе «Об информации, информатизации и защите информации», принятом у нас в стране в 1995 г.
Все процессы в природе сопровождаются сигналами. Зарегистрированные сигналы образуют данные, которые преобразуются, обрабатываются, передаются и используются с помощью методов. С точки зрения информатики как технической науки информацией является динамический объект, образующийся в ходе информационного процесса, то есть при взаимодействии данных и адекватных им методов. Таким образом, с понятием информации связаны такие понятия как сигнал, сообщение, данные и знание.
Сигнал (электромагнитный, звуковой, световой)– это физический процесс, несущий сообщение о событии или состоянии объекта наблюдения.
Сообщение – это информация, предназначенная для передачи в виде сигналов. Сообщение представляется совокупностью различных знаков и символов, позволяющих выразить информацию в некоторой форме.
Данные – это информация, представленная в формализованном виде и предназначенная для обработки ее на компьютере или другими техническими средствами. Данными являются материальные объекты произвольной формы, выступающие в качестве средства предоставления информации. Данные рассматриваются без учета смыслового содержания. После получения данных формируется знание о некотором факте или процессе.
Знание – это информация, которая появляется в результате мыслительной деятельности человека. Знания, материализованные в виде документов, учебников, художественных произведений, объектов искусства, баз данных и баз знаний, компьютерных программ, представляют информационные ресурсы. В современном обществе информационные ресурсы, также как и материальные, трудовые, финансовые и другие ресурсы, рассматриваются как специальная экономическая категория. С ростом потребностей в информации она становится товаром, а информационные ресурсы – базой для создания информационных продуктов.
Энтропийный подход к информации. Энтропия системы является мерой беспорядка, хаоса, неопределенности этой системы. Термин «информация» часто связывается с вероятностью осуществления того или иного события, с новизной сведений для их получателя. С такой точки зрения информацией называется мера устранения неопределенности в отношении исхода того или иного события. Энтропийный подходк информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию. За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность (энтропию) в два раза. Такая единица называется бит. Например, перед броском монеты существует неопределенность, так как можно говорить о двух равновероятных событиях: выпадении «орла» или «решки». После броска монеты наступает полная определенность (например, выпал «орел»). Мы получаем зрительное сообщение, которое уменьшает неопределенность наших знаний в два раза, поскольку до броска мы имели два равновероятных события, а после броска – одно событие, то есть в два раза меньше.