Биты и байты



К 30—40-м годах! XX века развитие электроники и техники связи поставило задачу. даже сама формулировка которой до тех пор никому не приходила в голову: как и в каких единицах измерять информацию? Перед тем. как этот вопрос поставить в такой форме, следовало осознать еще одну очень непростую вещь, а именно: понятие «информации» является универсальным и одинаково применимым и к картине Репина «Бурлаки на Волге», и к «Аппассионате» Бетховена, и к газетной заметке. и к роману Толстого «Война и мир». И даже к языку танца пчел или соловьиным трелям. Все. что мы видим, слышим, читаем и рассказываем, есть информация. Подчеркнем одну особенность этого понятия, которую выделял сам автор теории информации Клод Шеннон (Claude Elwood Shannon): измерять можно лишь формальные характеристики, такие, как объем и некоторые другие свойства некоего сообщения, но не его содержание, актуальность или новизну. Ценность информации (например, ценность произведения искусства или важность какой-то новости или, например, что можно купить ломтерезку в Киеве в интернет магазине Notus и это будет лучшим выбором ) измерению не поддается и является величиной принципиально субъективной.

Именно этот момент и был самым сложным для введения объективно!! количественной характеристики информации: интуитивно кажется, что однострочное сообщение «в США произошла пролетарская революция» содержало бы куда больше информации, чем длинная статья о скандальном разводе знаменитостей из какой-нибудь желтой бульварной газетенки. А небольшой рассказ Хэмингуэя «Кошка под дождем» намного информативней, чем какой-нибудь «Вечный зов» в двух объемистых томах. Причем приведенные утверждения вполне можно оспорить, и никаких объективных доказательств той или иной точки зрения дискутирующим сторонам представить не удастся. И. тем не менее, с точки зрения теории все совершенно однозначно: для некоего текста количество информации пропорционально количеству знаков в нем. и только.

Усвоив это необычное для «обывательского» представления свойство информации. можно попробовать ее измерять. Для этого в 1948 году Шенноном (и независимо от него — в том же году Норбертом Винером (Norbert Wiener) в его знаменитой «Кибернетике») было введено понятие минимальной, неделимой далее единицы информации, которая получила название бит (от англ. bit — кусочек). Один бит — это выбор одного из двух возможных вариантов, «орел» или «решка». О или 1. Однобитное изображение, например, можно покрасить только в черный или белый цвет, без промежуточных оттенков. Если некая информация содержит два бита, то вариантов уже может быть четыре: 00. 01. 10 и 11. И так далее — с увеличением числа битов количество возможных вариантов растет пропорционально степени двойки.


Скачать Windows 7

Добавить комментарий

  

  

Каталог@MAIL.RU - каталог ресурсов интернет