Лекции.Орг


Поиск:




Краткая история развития вычислительной техники




Конспекты лекций по дисциплине

«ИНФОРМАТИКА»

для специальности 032102 “Физическая культура для лиц с отклонениями в состоянии здоровья (адаптивная физическая культура)”, специализации «Адаптивное физическое воспитание»

 

 

Лекции разработала

ст. преподаватель

Толстых Ольга Сергеевна

 

 

Краснодар - 2010

 

 

Раздел 1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации

Лекция 1. Информация и информационные процессы

План:

1.1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации.

1.2. Информатика как научно-учебная дисциплина.

1.3. Краткая история развития вычислительной техники.

  1. Понятие об информации,общая характеристика процессов передачи обработки и накопления информации

Информация – набор символов, графических образов или звуковых сигналов, несущих определенную смысловую нагрузку.

Информационные процессы – это процессы сбора, обработки, накопления, хранения, поиска и передачи информации.

Основными этапами (фазами) обращения информации являются:

· сбор (восприятие) информации;

· подготовка (преобразование) информации;

· передача информации;

· обработка (преобразование) информации;

· хранение информации;

· отображение (воспроизведение) информации.

Информационная система – организационно- упорядоченная совокупность информационных объектов и информационных технологий, реализующих информационные процессы.

Информационный объект – это информация, сохраненная и представленная каким-либо способом.

Способы передачи информации.

Сигнал (англ. signal, от лат. signum – знак) – это знак, физический процесс или явление, несущие сообщение о каком-либо событии, состоянии объекта либо передающие команды управления, оповещения и т. д.

Данными называют факты, сведения, представленные в формали­зованном виде (закодированные), занесенные на те или иные носите­ли и допускающие обработку с помощью специальных технических средств (в первую очередь ЭВМ.

Свойства информации.

актуальность (сохраняет свою ценность с течением времени);

полнота (ее достаточно для понимания и принятия решений);

адекватность (ее содержание соответствует состоянию объекта);

достоверность (степень соответствия истине);

канал связи

ИСТОЧНИК ----------->ПРИЁМНИК

Виды информации.

Информация может поступать в аналоговом (непрерывном) виде или дискретно (в виде последовательности отдельных сигналов).

 

 

Информатика как научно-учебная дисциплина.

Информатика – наука, изучающая способы автоматизированного создания, хранения, обработки, использования, передачи и защиты информации.

Структура информатики

Информатика=ИНФОРМация+автоМАТИКА

Электронно-вычислительная машина (ЭВМ) или компьютер (англ.

Computer - вычислитель) – устройство для автоматизированной обработки информации.

Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.

 

Краткая история развития вычислительной техники

1823 г. – английский учёный Чарльз Бэббидж разработал проект «Разностной машины» – прообраз современной программно-управляемой машины. С 1833 по 1871 г. он предложил схему «Аналитической машины», чтобы «заменить человека в одной из самых медленных операций его ума». Эта машина имела 4 основные части: «склад» для хранения чисел, «мельницу» для операций над ними, устройство управления и устройства ввода/вывода.

1847 г. – английский математик-самоучка Джордж Буль в работе «Математический анализ логики» изложил основы булевой алгебры. Д. Буль считается основоположником современной математической логики.

1928 г. – американский математик Дж. Нейман сформулировал основы теории игр, ныне применяемых в практике машинного моделирования.

Он сформулировал основные принципы, лежащие в основе архитектуры вычислительной машины.

1936 г. – английский математик А. Тьюринг выдвинул идею абстрактной вычислительной машины «Машина Тьюринга» – гипотетический универсальный преобразователь дискретной информации, теоретическая вычислительная система.

1938 г. – американский математик и инженер Клод Шеннон связал Булеву алгебру (аппарат математической логики), двоичную систему кодирования и релейно-контактные переключательные схемы, заложив основы будущих ЭВМ.

1946 г. – американский инженер-электронщик Д.П. Эккерт и физик Д.У. Моучли сконструировали в Пенсильванском университете первую ЭВМ «ENIAC» (Electronic Numerical Integrator and Computer). Она состояла из 20 тыс. электронных ламп.

1947 – 1948 гг. – академик С.А. Лебедев в Институте электроники АН УССР начинает работу по созданию МЭСМ (Малой Электронной Счётной Машины).

1952 г. – закончена разработка БЭСМ (Большой Электронной Счётной Машины) с быстродействием около 10 тыс. операций в секунду под руководством Сергея Алексеевича Лебедева.


 





Поделиться с друзьями:


Дата добавления: 2015-11-23; Мы поможем в написании ваших работ!; просмотров: 551 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Студент всегда отчаянный романтик! Хоть может сдать на двойку романтизм. © Эдуард А. Асадов
==> читать все изречения...

993 - | 818 -


© 2015-2024 lektsii.org - Контакты - Последнее добавление

Ген: 0.01 с.