Шпоры по информатике
Рефераты >> Кибернетика >> Шпоры по информатике

1. Общие сведения об информации и информатике.

Информатика – молодая научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием информации в самых различных сферах человеческой деятельности. Генетически информатика связана с вычислительной техникой, компьютерными системами и сетями, т.к. именно компьютеры позволяют порождать, хранить и автоматически перерабатывать информацию в таких количествах, что научный подход к информационным процессам становится одновременно необходимым и возможным.

Информатика – отнюдь не только «чистая наука». У нее безусловно имеется научное ядро, но важная особенность информатики – широчайшее приложение, охватывающее почти все виды человеческой деятельности.

Как наука, информатика изучает общие закономерности, свойственные информационным процессам. Когда разрабатываются новые носители информации, каналы связи, приемы кодирования, визуального отображения информации и многое другое, конкретная природа этой информации почти не имеет значения. Для разработчика системы БД важны общие принципы организации и эффективность поиска данных, а не то какие конкретно данные, будут затем заложены в базу многочисленными пользователями. Эти общие закономерности есть предмет информатики как науки.

Объектом приложений информатики являются самые различные науки и области практической деятельности, для которых она стала непрерывным источником самых современных технологий, называемых часто новыми информационными технологиями.

Понятие информации является одним из фундаментальных современной науки вообще и базовым для изучаемой нами информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако, если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. Аналогичными «неопределяемыми» понятиями, например, в математике точка или прямая. Так, можно сделать некоторые утверждения, связанные с этими математическими понятиями, но сами они не могут быть определены с помощью элементарных понятий.

В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представления передаваемой информации.

Человеку свойственно субъективное восприятие информации через набор ее свойств: важность, достоверность, своевременность, доступность и т.д. В этом смысле одно и то же сообщение, передаваемое от источника к получателю, может передавать информацию в разной степени.

Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или хотя бы количественного соотнесения).

Существуют также объективные характеристики, из которых для информации важнейшей является количество. Однако, при объективном измерении количества информации следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество – все зависит от того, как будут введены единицы измерения.

Более широкий взгляд на информацию. Понятие информации нельзя считать лишь техническим термином. Информация – это фундаментальная философская категория. Существуют разные подходы к оценке информации. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается с точки зрения, как формы, так и содержания.

  1. Меры информации.

Информация бывает непрерывной и дискретной. В случае, когда параметр сигнала принимает последовательное во времени конечное число значений, сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов – дискретным. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной.

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли практически одновременно. Это вероятностный подход и объемный подход.

Вероятностный подход. Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного или двух равновероятных исходов. Такая единица информации называется «бит».

Объемный подход. В двоичной системе счисления знаки 1 и 0 будем называть битами (от англ. выражения BInary digiTs - двоичные цифры).

Для удобства использования введены и более крупные, чем бит единицы количества информации. Так двоичное слово из 8-ми знаков содержит 1 байт информации, 1024 байта – образуют килобайт, 1024 килобайта – 1 мегабайт, 1024 мегабайта – 1 гигабайт и т.д.

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

  1. ЭВМ как средство обработки информации. Понятие архитектуры ЭВМ.

В познании деятельности компьютера есть несколько уровней. Первый из них, необходимый каждому специалисту, - уровень архитектуры. Архитектура – это наиболее общие принципы построения ЭВМ, реализующие программное управление работой и взаимодействием основных функциональных узлов. Под архитектурой ЭВМ естественно понимать ту совокупность характеристик, которая необходима пользователю. Это, прежде всего основные устройства и блоки ЭВМ, а так же структура связей между ними. И действительно, если заглянуть в толковый словарь по вычислительным системам, мы прочтем там, что термин архитектура ЭВМ используется для описания принципа действия, конфигурации и взаимного соединения основных логических узлов ЭВМ.

«Архитектура - это наиболее общие принципы построения ЭВМ, реализующие программное управление работой и взаимодействие основных ее функциональных узлов».

  1. Принципы построения ЭВМ.

Большинство современных ЭВМ строится на базе принципов, сформулированных американским ученым, одним из «отцов» кибернетики Дж. Фон Нейманом. Впервые эти принципы были опубликованы фон Нейманом в 1945 г. в его предложениях по машине EDVAC. Эта ЭВМ была одной из первых машин с хранимой программой, т.е. с программой, запомненной в памяти машины, а не считываемой с перфокарты или другого подобного устройства. В целом эти принципы сводятся к следующему:

1) Основными блоками фон-неймановской машины являются блок управления, арифмико-логическое устройство, память и устройство ввода-вывода.


Страница: