Естествознание. Базовый уровень. 11 класс. В. И. СивоглазовЧитать онлайн книгу.
среды.
Рис. 19. К. Шеннон
Человеку свойственна непрерывная познавательная деятельность, в течение жизни он постоянно узнаёт что-то новое и что-то в устной или письменной форме сообщает другим людям. Мы постоянно передаём окружающим и получаем от них знаки и сообщения, содержащие сведения о мыслях, чувствах, мнениях или желаниях. Мир этих сообщений и способов их передачи кажется необъятным, не поддающимся никакому строгому формальному описанию, тем более в математической форме.
Тем не менее в первой половине XX в. встал вопрос о необходимости введения количественной характеристики для передаваемых и принимаемых сообщений. Эта количественная характеристика вскоре получила название информация. Официально создателем теории информации считается американский инженер и математик Клод Шеннон (1916–2001), опубликовавший свою работу в этой области в 1948 г., хотя ещё в начале XX в. у него были предшественники (рис. 19). Работая в компании «Белл», Шеннон занимался процессами передачи сообщений, а во время Второй мировой войны много времени уделял процедуре шифрования (рис. 20). Перед исследователями, занимавшимися проблемами связи, стоял вопрос, как передать полезное сообщение с максимальной точностью и минимальными затратами. Для этого требовалось знать, сколько информации попало к потребителю и сколько её потерялось в процессе передачи. Поэтому количество информации необходимо было измерить.
Как можно измерить информацию? Прежде всего, надо уяснить, что информация – это не характеристика сообщения, а характеристика отношения между сообщением и его потребителем. Одно и то же сообщение может содержать огромную информацию для одного потребителя и нулевую – для другого, например для человека, незнакомого с языком, на котором передано это сообщение.
Логично предположить, что количество содержащейся в сообщении информации зависит от того, насколько это сообщение было неожиданным. Ведь если мы заранее знали всё, о чём нам сообщили, то никакой информации нам это сообщение не дало. Но как измерить степень неожиданности строгой количественной мерой? Допустим, получив сообщение, мы не узнали ничего нового. Это означает, что результат был известен нам и до сообщения и мы могли предугадать его с вероятностью, равной единице. Значит, единичной вероятности соответствует нулевая информация. Но если мы не были уверены в правильном ответе на интересующий нас вопрос, мы вместе с точным ответом получаем и какую-то информацию. Определить её количество можно, если представить себе, что такое самый простой вопрос. Очевидно, это такой вопрос, на который можно ответить либо «да», либо «нет».
Рис. 2 0. Лаборатория «Белл» в Мюррей Хилл (Нью-Джерси, США), работая в которой в 1948 г. Клод Шеннон опубликовал статью «A Mathematical Theory of Communication», одну из основополагающих работ по теории информации.
Если мы не имеем заранее никаких предположений, то, независимо от того, каким будет ответ, мы получаем одно и то же количество информации. Это количество представляет собой единицу информации и называется бит.
В том случае, когда ответ нельзя получить сразу, требуется задавать