Информация (от латинского intormatio - разъяснение, изложение) -
совокупность сведений, знаний и т. п. Различают информацию, динамически
возникающую в повседневной деятельности людей, и накопленный объем
знаний, образующий, так сказать, социальную память человечества.
Каналы связи, по которым передается информация, могут быть самыми
различными. Так, при разговоре информация передается посредством звуков,
распространяющихся в виде упругих колебаний воздуха (см. Акустика,
акустическая техника). При передаче сообщений по радио используют
электромагнитные колебания, или радиоволны. Сообщение по телефону
передается по проводам от одного телефонного аппарата к другому
электрическими колебаниями, возникающими в микрофоне (см. Телефонная
связь).
По мере того как возрастал объем знаний, накопленных человечеством,
увеличивалось и количество передаваемой информации. Это потребовало
решения ряда технических проблем, связанных со скоростью передачи и
переработки информации, ее кодированием и расшифровкой, а также с
преобразованием сигналов на входе и выходе канала связи между источником
информации и ее потребителем. В середине XX в. в результате бурного
развития науки и техники неизмеримо возросла роль информации как
средства общения не только между людьми, но и между человеком и машиной,
и даже между машинами (см. Автомат, автоматика; Автоматизация и
механизация производства; Передача данных для ЭВМ). Лавинообразное
нарастание информации во второй половине XX в. получило название
информационного взрыва.
В связи с этим возникла потребность в научном подходе к информации,
выявлении ее наиболее характерных свойств. Основы теории информации были
заложены американскими учеными Р. Хартли и К. Шенноном; большой вклад в
нее внесли советские ученые А. Н. Колмогоров, А. Я. Хинчин, В. А.
Котельников, А. А. Харкевич и другие.
Одним из важнейших понятий теории информации является мера количества
информации. В качестве такой меры принято число двоичных знаков (<О> и
<1>), необходимое для записи произвольного сообщения. Любое сообщение
можно представить - закодировать - в виде цепочки символов <О> и <Ь,
расположенных в определенном порядке.
Очень важная характеристика информации - ее доступность для потребителя.
Например, количество информации, которое нервная система человека
способна подать в мозг при чтении текста, составляет примерно 16
двоичных знаков в 1 с. Если информация поступает большими порциями, то
мозг уже не воспринимает ее раздельно. Или, например, частота смены
кадров при демонстрации фильма должна быть не менее 16 кадров в 1 с,
чтобы эти кадры не воспринимались отдельно, а отражались в сознании как
единое непрерывное изображение.
Информация является одним из основных понятий кибернетики (см.
Техническая кибернетика) - науки об управлении, которая изучает машины и
живые организмы именно с точки зрения их способности воспринимать,
сохранять и передавать определенную информацию.
Возникла особая отрасль науки - информатика, изучающая структуру и общие
свойства научной информации, вопросы, связанные с ее хранением и
использованием в различных сферах деятельности.