Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Краткая история развития вычислительной техники




Конспекты лекций по дисциплине

«ИНФОРМАТИКА»

для специальности 032102 “Физическая культура для лиц с отклонениями в состоянии здоровья (адаптивная физическая культура)”, специализации «Адаптивное физическое воспитание»

 

 

Лекции разработала

ст. преподаватель

Толстых Ольга Сергеевна

 

 

Краснодар - 2010

 

 

Раздел 1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации

Лекция 1. Информация и информационные процессы

План:

1.1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации.

1.2. Информатика как научно-учебная дисциплина.

1.3. Краткая история развития вычислительной техники.

  1. Понятие об информации,общая характеристика процессов передачи обработки и накопления информации

Информация – набор символов, графических образов или звуковых сигналов, несущих определенную смысловую нагрузку.

Информационные процессы – это процессы сбора, обработки, накопления, хранения, поиска и передачи информации.

Основными этапами (фазами) обращения информации являются:

· сбор (восприятие) информации;

· подготовка (преобразование) информации;

· передача информации;

· обработка (преобразование) информации;

· хранение информации;

· отображение (воспроизведение) информации.

Информационная система – организационно- упорядоченная совокупность информационных объектов и информационных технологий, реализующих информационные процессы.

Информационный объект – это информация, сохраненная и представленная каким-либо способом.

Способы передачи информации.

Сигнал (англ. signal, от лат. signum – знак) – это знак, физический процесс или явление, несущие сообщение о каком-либо событии, состоянии объекта либо передающие команды управления, оповещения и т. д.

Данными называют факты, сведения, представленные в формали­зованном виде (закодированные), занесенные на те или иные носите­ли и допускающие обработку с помощью специальных технических средств (в первую очередь ЭВМ.

Свойства информации.

актуальность (сохраняет свою ценность с течением времени);

полнота (ее достаточно для понимания и принятия решений);

адекватность (ее содержание соответствует состоянию объекта);

достоверность (степень соответствия истине);

канал связи

ИСТОЧНИК ----------->ПРИЁМНИК

Виды информации.

Информация может поступать в аналоговом (непрерывном) виде или дискретно (в виде последовательности отдельных сигналов).

 

 

Информатика как научно-учебная дисциплина.

Информатика – наука, изучающая способы автоматизированного создания, хранения, обработки, использования, передачи и защиты информации.

Структура информатики

Информатика=ИНФОРМация+автоМАТИКА

Электронно-вычислительная машина (ЭВМ) или компьютер (англ.

Computer - вычислитель) – устройство для автоматизированной обработки информации.

Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.

 

Краткая история развития вычислительной техники

1823 г. – английский учёный Чарльз Бэббидж разработал проект «Разностной машины» – прообраз современной программно-управляемой машины. С 1833 по 1871 г. он предложил схему «Аналитической машины», чтобы «заменить человека в одной из самых медленных операций его ума». Эта машина имела 4 основные части: «склад» для хранения чисел, «мельницу» для операций над ними, устройство управления и устройства ввода/вывода.

1847 г. – английский математик-самоучка Джордж Буль в работе «Математический анализ логики» изложил основы булевой алгебры. Д. Буль считается основоположником современной математической логики.

1928 г. – американский математик Дж. Нейман сформулировал основы теории игр, ныне применяемых в практике машинного моделирования.

Он сформулировал основные принципы, лежащие в основе архитектуры вычислительной машины.

1936 г. – английский математик А. Тьюринг выдвинул идею абстрактной вычислительной машины «Машина Тьюринга» – гипотетический универсальный преобразователь дискретной информации, теоретическая вычислительная система.

1938 г. – американский математик и инженер Клод Шеннон связал Булеву алгебру (аппарат математической логики), двоичную систему кодирования и релейно-контактные переключательные схемы, заложив основы будущих ЭВМ.

1946 г. – американский инженер-электронщик Д.П. Эккерт и физик Д.У. Моучли сконструировали в Пенсильванском университете первую ЭВМ «ENIAC» (Electronic Numerical Integrator and Computer). Она состояла из 20 тыс. электронных ламп.

1947 – 1948 гг. – академик С.А. Лебедев в Институте электроники АН УССР начинает работу по созданию МЭСМ (Малой Электронной Счётной Машины).

1952 г. – закончена разработка БЭСМ (Большой Электронной Счётной Машины) с быстродействием около 10 тыс. операций в секунду под руководством Сергея Алексеевича Лебедева.


 





Поделиться с друзьями:


Дата добавления: 2015-11-23; Мы поможем в написании ваших работ!; просмотров: 577 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Два самых важных дня в твоей жизни: день, когда ты появился на свет, и день, когда понял, зачем. © Марк Твен
==> читать все изречения...

2297 - | 2123 -


© 2015-2025 lektsii.org - Контакты - Последнее добавление

Ген: 0.012 с.