The concept and the resources of a computing system.
The computer system (CS) is a set of interrelated hardware and software, intended for information processing.Sometimes a computer system is understood like a set of computer technical means, which includes not less than two processors, connected of management community and the use of system-wide resources: memory, peripherals, software, etc.
To the resources of the computing system include those of its a means those of its a means which can be allocated for processing database on a certain time slot: processors, memory area, data sets, peripherals, software.The most important characteristic of computer systems is reliability.
Improving the reliability is based on the principle of prevention malfunctions through the application of electronic circuits and components with high and ultra-high degree of integration,
through the decline of the noise level, facilitated of schemes of work mode, through the provision of of thermal conditions of their work, also by improving the hardware assembly methods.
Who is he - Informatics Bachelor?
Bachelor of Computer Science is an intermediary between the economy and the boundless
ocean of information. For the 5 years of study a student receives higher education and a bachelor's degree, becoming an expert in the field of informatics. Now, his primary occupation is a creature, implementation, analysis and maintenance of information systems in the economic field, finance, and bookkeeping sphere. He is a professional in the area of creation and application of information systems, solving problems of control of informational, material and financial flow with its help. Bachelor is able to use the methods and means of implementation of the protocols in the networks of integrated services information system users???? He can work with the software and hardware tools dialogue between man and and information systems and can link information systems based on standard interfaces. Bachelor gets skills to manage of developers`s collective and / or professional users of information systems, and also, he is able to conduct experimental model studies management of social and economic processes.
UNIT III. COMPUTER SCIENCE 1. COMPUTER SCIENCE: GETTING STARTED Computer Science is the scientific and practical approach to computation and its applications. It is the systematic study of the feasibility, structure, expression, and mechanization of or algorithms that underlie the acquisition, representation, processing, storage, communication of, and access to information, whether such information is encoded in bits and bytes in a computer memory or transcribed engines and protein structures in a human cell. A computer scientist specializes in the theory of computation and the design of computational systems. Its subfields can be divided into a variety of theoretical and practical disciplines. Some fields, such as computational complexity theory, which explores the fundamental properties of computational and intractable problems, are highly abstract. Other fields, such as computer graphics, emphasize real-world humancomputer interaction. Still other fields focus on the challenges in implementing computation. For example, programming language theory considers various approaches to the description of computation, whilst the study of computer programming itself investigates various aspects of the use of programming language and complex systems. Human-computer interaction considers the challenges in making computers and computations useful, usable, and universally accessible to humans. The earliest foundations of what would become computer science predate the invention of the modern digital computer. Machines for calculating fixed numerical tasks such as the abacus have existed since antiquity but they only supported the human mind, aiding in computations as complex as multiplication and division. The feasibility of other operations had not been explored. Michael Kohlhase from School of Engineering and Science in Jacobs University, Bremen, Germany speaks of several key concepts in computer science illustrating them with problems and solutions. For example, an essential concept in computer science is the representation. Here is how Kohlhase formulates the problem and its solution in his General Computer Science course: Problem − What is the intuition behind the term ‘representation’? − Why do we need representations? − Give an everyday example of a representation. Solution − A representation is the realization of real or abstract persons, objects, circumstances, events, or emotions in concrete symbols or models. This can be done by visual, aural, or written methods; three-dimensional models, or dance. 21 − We should always be aware, whether we are talking about the real thing or a representation of it. − A representation allows us to abstract away from unnecessary details. Easy for computer to operate with. E.g., a graph may a representation of a maze from the lecture notes.
Информатика: начало работы
Информатика это научный и практический подход к вычислению и к его применению.
Это систематическое изучение технико-экономического обоснования, структуры, выражения, и механизации или алгоритмов, которые лежат в основе приобретения, представления, обработки, хранения, передачи и доступа к информации, будь то информация кодируемая в битах и байтах в памяти компьютера, или расшифрованная двигателями (???) и белковые структуры в человеческой клетке. Компьютерный ученый специализируется на теории вычислений и проектировании вычислительных систем.
Его подсферы можно разделить на различные теоретические и практические
дисциплины. Некоторые области, такие как теория сложности вычислений, которая исследует фундаментальные свойства вычислительных и трудноразрешимых проблем, весьма абстрактные. Другие области, такие как компьютерная графика, подчеркивают в реальном мире взаимодействие человека с компьютером. Тем не менее, другие поля сосредоточены на задачах осуществления вычислений. Например, теория языка программирования рассматривает различные подходы к описанию вычислений, в то время как при изучении компьютера, программирование себя исследует различные аспекты использования языка программирования и сложных систем. Взаимодействие человека и компьютера рассматривает проблемы в изготовлении компьютеров и в вычислении полезных, пригодных для использования, и повсеместно доступных для людей.???
Самые ранние основы для становления информатики предшествует изобретение современной цифровой вычислительной машины.
Машины для расчета фиксированных числовых задач, такие как счет, существовали с древних времен, но они только поддержали человеческий ум, способствуя таким сложным вычислениям, как умножение и деление. Возможность других операций не была изучена.
Майкл Колхаз из Инженерной школы и науки в Якобском Университете Бремен, Германия говорит о нескольких ключевых понятиях в информатике, иллюстрируя их проблемы и пути решения.
Например, существенным понятием в информатике является представление. Вот как Kohlhase формулирует проблему и ее решение в его Общем курсе ЭВМ:
проблема
- Какая интуиция???Стоит за термином "представление"?
- Зачем нам нужны представления?
- Дайте повседневный пример представления.
Решение
- Представление - это осуществление реальных или абстрактных лиц, предметов, обстоятельств, событий или эмоций в конкретных символов или моделей. Это может быть сделано с помощью аудиовизуального или письменного методов; трехмерных моделей или танца.
- Мы всегда должны знать, идет ли речь о реальной вещи или о представлении.
- Представление позволяет абстрагироваться от ненужных деталей. Легко, чтобы работать с компьютером.
Например, графиком может быть представление лабиринта из конспектов.
2. DEVELOPMENT OF COMPUTERS AS A WAY TO TECHNOLOGICAL CROSSROADS
Two hundred years after Blaise Pascal designed and constructed the first working mechanical calculator, Pascal's calculator, Thomas de Colmar launched the mechanical calculator industry when he released his simplified arithmometer, which was the first calculating machine strong enough and reliable enough to be used daily in an office environment. Charles Babbage started the design of the first automatic mechanical calculator, his difference engine, in 1822, which eventually gave him the idea of the first programmable mechanical calculator, his Analytical Engine.
He 23 started developing this machine in 1834 and "in less than two years he had sketched out many of the salient features of the modern computer. A crucial step in the development of computers was the adoption of a punched card system derived from the Jacquard loom" making it infinitely programmable. In 1843, during the translation of a French article on the analytical engine, Ada Lovelace wrote in one of the many notes she included, an algorithm to compute the Bernoulli numbers, which is considered to be the first computer program. Around 1885, Herman Hollerith invented the tabulator, which used punched cards to process statistical information; eventually his company became part of IBM. In 1937, one hundred years after Babbage's impossible dream, Howard Aiken convinced IBM, to develop his giant programmable calculator, the ASCC/Harvard Mark I, based on Babbage's analytical engine, which itself used cards and a central computing unit. When the machine was finished, some hailed it as ‘Babbage's dream come true’. During the 1940s, it became clear that computers could be used for more than just mathematical calculations, the field of computer science broadened to study computation in general. In the 1950s and early 1960s. Computer science was established as a distinct academic discipline. The world's first-degree program in Computer Science, the Cambridge Diploma in Computer Science, began at the University of Cambridge Computer Laboratory in 1953. In 1962 the United States was formed at Purdue University started the American CS first-degree program. When practical computers became available, many applications of computing have become distinct areas of study in their own right. The now well-known IBM (International Business Machines) brand formed part of the computer science revolution during the time. Modern society has seen a significant shift not only in computer architecture, but also in the users of computer technology, from usage only by experts and professionals, to a near-ubiquitous user base. Current computer architectures define a set of interfaces that have evolved slowly for several decades. These interfaces—e.g., the Instruction Set Architecture and virtual memory—were defined when memory was at a premium, power was abundant, software infrastructures were limited, and there was little concern for security. Having stable interfaces has helped foster decades of evolutionary architectural innovations. However, researchers from Computer Community Consortium (CCC) are convinced that we are now at a technology crossroads, and these stable interfaces are a hindrance to many of the innovations.
Развитие компьютеров как способ ТЕХНОЛОГИЧЕСКИХ перекрестков.
Через двести лет после того, как Блез Паскаль разработал и построил первый работающий механический калькулятор, калькулятор Паскаля, Томас де Кольмар запустил механический калькулятор промышленности, когда он выпустил свой упрощенный арифмометр, который был первым достаточно сильным и достаточно надежным арифмометром, чтобы использовать его ежедневно в офисной среде.
Чарльз Бэббидж начал проектирование первого автоматического механического калькулятора, его разницы от в 1822 году, который в конечном счете дал ему идею первого программируемого механического калькулятора, его аналитической машины.
Чарльз Бэббидж начал проектирование первого автоматического
механического калькулятор, его отличие двигателя, в 1822 году, который в конечном счете дал ему
Идея первого программируемого механического калькулятора, его аналитической машины.
Он
начал разрабатывать эту машину в 1834 году и "менее чем за два года он наметил многие из характерных особенностей современного компьютера.
Важнейшим шагом в развитии вычислительной техники стало принятие перфорированная
карточная система получена из жаккардового ткацкого станка ", что делает его бесконечно программируются. В
1843, во время перевода французской статье на аналитическом двигателе, Ada
Лавлейс писал в одном из многочисленных примечаний она включены, алгоритм для вычисления
Числа Бернулли, который считается первым компьютерная программа.
Около
1885, Холлерит изобрел табулятором, который использовал перфокарты для обработки
статистическая информация; в конце концов, его компания стала частью IBM. В 1937 году один
сто лет после того, как несбыточная мечта Бэббиджа, Говард Эйкен убедил IBM, чтобы
развивать свой гигантский программируемый калькулятор, то ASCC / Harvard Mark I, основанный на
Аналитический двигатель Бэббиджа, который сам по себе используются карты и центрального вычислительного блока.
Когда машина была закончена, некоторые приветствовали его как "мечта Бэббиджа сбываются".