Вт. Ноя 19th, 2024

Как отмечалось при рассмотрении начальных понятий информатики, для представления дискретных сообщений употребляется некий алфавит. Но однозначное соответствие меж содержащейся в сообщении информацией и его алфавитом отсутствует.

В целом ряде практических приложений появляется необходимость перевода сообщения хода из 1-го алфавита к другому, при этом, такое преобразование не должно приводить к потере инфы.

Введем ряд с определений.

Будем считать, что источник представляет информацию в форме дискретного сообщения, используя для этого алфавит, который в предстоящем условимся именовать первичным. Дальше это сообщение попадает в устройство, модифицирующее и представляющее его в другом алфавите — этот алфавит назовем вторичным.

Код(1) правило, описывающее соответствие символов либо их сочетаний первичного алфавита знакам либо их сочетаниям вторичного алфавита. (2) набор символов вторичного алфавита, применяемый для представления символов либо их сочетаний первичного алфавита.

Кодирование перевод инфы, представленной сообщением в первичном алфавите, в последовательность кодов.

Декодирование — операция, оборотная кодированию, т.е. восстановление инфы в первичном алфавите по приобретенной последовательности кодов.

Кодер устройство, обеспечивающее выполнение операции кодировки.

Декодер — устройство, производящее декодирование.

Операции кодировки и декодирования именуются обратимыми, если их последовательное применение обеспечивает возврат к начальной инфы без каких-то ее утрат.

Примером обратимого кодировки является представление символов в телеграфном коде и их восстановление после передачи. Примером кодировки необратимого может служить перевод с 1-го естественного языка на другой — оборотный перевод, вообщем говоря, не восстанавливает начального текста. Непременно, для практических задач, связанных со знаковым представлением инфы, возможность восстановления инфы по ее коду является нужным условием внедрения кода, потому в предстоящем изложении ограничим себя рассмотрением только обратимого кодировки.

Кодирование предшествует передаче и хранению инфы. При всем этом, как указывалось ранее, хранение связано с фиксацией некого состояния носителя инфы, а передача — с конфигурацией состояния со временем (т.е. процессом). Эти состояния либо сигналы будем именовать простыми сигналами —конкретно их совокупа и составляет вторичный алфавит.

Не обсуждая технических сторон передачи и хранения сообщения (т.е. того, каким образом практически реализованы передача-прием последовательности сигналов либо фиксация состояний), попробуем дать математическую постановку задачки кодировки.

Пусть первичный алфавит А состоит из N символов со средней информацией на символ I(A), а вторичный алфавит B — из М символов со средней информацией на символ I(B). Пусть также начальное сообщение, представленное в первичном алфавите, содержит п символов, а закодированное сообщение — т символов. Если начальное сообщение содержит Ist(A) инфы, а закодированное — Ifin(B), то условие обратимости кодировки, т.е. неисчезновения инфы при кодировке, разумеется, может быть записано последующим образом:

смысл которого в том, что операция обратимого кодировки может прирастить количество инфы в сообщении, но не может его уменьшить. Но любая из величин в данном неравенстве может быть заменена произведением числа символов на среднее информационное содержание знака, т.е.:

либо

Отношение т/п, разумеется, охарактеризовывает среднее число символов вторичного алфавита, которое приходится использовать для кодировки 1-го знака первичного алфавита — будем именовать его длиной кода либо длиной кодовой цепочки и обозначим К(А,В). Как следует

Обычно N > М и I(А) > I(В), откуда К(А,В) > 1, т.е. один символ первичного алфавита представляется несколькими знаками вторичного. Так как методов построения кодов при фиксированных алфавитах А и В существует огромное количество, появляется неувязка выбора (либо построения) лучшего варианта — будем именовать его хорошим кодом. Выгодность кода при передаче и хранении инфы — это экономический фактор, потому что более действенный код позволяет затратить на передачу сообщения меньше энергии, также времени и, соответственно, меньше занимать линию связи; при хранении употребляется меньше площади поверхности (объема) носителя. При всем этом следует сознавать, что выгодность кода не схожа временной выгодности всей цепочки кодирование-передача-декодирование; вероятна ситуация, когда за внедрение действенного кода при передаче придется рассчитываться тем, что операции кодировки и декодирования будут занимать больше времени и других ресурсов (к примеру, места в памяти технического устройства, если эти операции выполняются с его помощью).

Как надо из (3.1), мало вероятным значением средней длины кода будет:

Данное выражение следует принимать как соотношение оценочного нрава, устанавливающее нижний предел длины кода, но, из него непонятно, в какой степени в реальных схемах кодировки может быть приближение К(А,В) к Kmin(А,В). По этой причине для теории кодировки и теории связи важное значение имеют две аксиомы, доказанные Шенноном. 1-ая — ее мы на данный момент разглядим — затрагивает ситуацию с кодировкой при отсутствии помех, искажающих сообщение. 2-ая аксиома относится к реальным линиям связи с помехами и будет дискуссироваться.

1-ая аксиома Шеннона, которая именуется основной аксиомой о кодировке при отсутствии помех, формулируется последующим образом:

От content

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *