Автор работы: Пользователь скрыл имя, 13 Марта 2012 в 01:36, курсовая работа
В кибернетике и математике, информация – это количественная мера устранения неопределенности (энтропия).
Теория информации (теория сообщений) – область кибернетики, в которой математическими методами исследуется:
способы измерения количества информации;
сбора информации;
кодирование;
преобразование;
передача.
1. Система передачи дискретных сообщений 3
1.1 Блок-схема передачи СПДС. 3
1.2 Функции блоков источника сообщений: 4
1.3 Виды информации: 4
1.4 Виды и функции линий связи 4
1.5 Функции блока приемника сообщений: 5
2. Информационные характеристики дискретного канала 5
2.1 Информационные характеристики источника сообщений. 5
2.2 Информационные характеристики приемника сообщений. 6
2.3 Расчет канальных матриц 6
2.4 Характеристики источника сообщений 8
2.5 Характеристики приемника сообщения 9
2.6 Скоростные характеристики 10
2.7 Рекомендации и вывод по надежности и эффективности канала 10
3. Оптимальное кодирование 11
3.1 Назначение ОНК 11
3.2 Равномерный двоичный код 11
3.2.1 Корневое бинарное дерево РДК 12
3.3 Метод Шеннона–Фано 13
3.3.1 Алгоритм метода бисекции вычисления ОНК: 13
3.3.2 КБР ОНК Шеннона–Фано 14
3.3.3 Информационные характеристики ОНК Шеннона–Фано 14
3.4 Метод Хаффмена 15
3.4.1 Алгоритм Хафффмена: 15
3.4.2 КБД ОНК Хаффмена 16
3.4.3 Информационные характеристики ОНК Шеннона–Фано 17
4. Помехоустойчивое кодирование 18
4.1 Обнаруживающие коды 18
4.1.1 Обнаруживающий код чётности (ОКЧ) 18
4.1.2 Обнаруживающий код удвоения (ОКУ) 19
4.1.3 Обнаруживающий код инверсией (ОКИ) 20
4.1.4 Обнаруживающий код стандартный телеграфный код №3 (ОК СТК №3) 21
4.2 Корректирующие коды 21
4.2.1 Корректирующий систематический код Хэмминга (КСК Хэмминга) 21
4.3 Корректирующий циклический код (КЦК) 23
4.4 Коды, корректирующие кратную ошибку 26
4.4.1 Корректирующий мажоритарный код (КМК)(код по голосованию) (К – удвоения) 26
Литература 27
Безусловные вероятности появления символов на выходе источника сообщений равны: p(a1) = 0,4; p(a2) = 0,2; p(a3) = 0,1; p(a4) = 0,3. Длительность передачи одного символа τ = 0,0002, передано сообщение из 400 символов.
Вычислить информационные характеристики дискретного канала связи, включая I(ai), H(A), H(B/ai), H(B/A), p(bj), H(B), I(A,B), n, H’(A), R, C, Kэ, Rкр.
Проверить выполнение теорем Шеннона про скорость передачи и про кодирование. Сделать вывод про надежность и эффективность канала связи.
А. Вычислим канальную матрицу объединения:
Зная КМИ можно вычислить КМО по формуле:
p(ai;bj) = p(ai) * p(bj/ai)
Канальная матрица объединения
p(ai;bj) = |
0,39 |
0 |
0 |
0 |
0,03 |
0,15 |
0,02 |
0 | |
0,03 |
0,02 |
0,05 |
0,01 | |
0 |
0,01 |
0,01 |
0,29 |
Проверка:
ΣΣ p(ai;bj) = 0,39 + 0 + 0 + 0 + 0,03 + 0,15 + 0,02 + 0 + 0,03 + 0,02 + 0,05 +
+ 0,01 + 0 + 0,01 + 0,01 + 0,29 = 1
Вывод: КМО составлена правильно.
Б. Зная КМО, найдем КМП:
p(ai/bj) = p(ai;bj) / p(bj)
p(b1) = 0,39 + 0,03 + 0,03 + 0 = 0,45
p(b2) = 0 + 0,15 + 0,02 + 0,01 = 0,18
p(b3) = 0 +0,02 +0,05 +0,01= 0,08
p(b4) = 0 + 0 + 0,01 + 0,29 = 0,29
Канальная матрица приемника
p(ai/bj)= |
0,88 |
0,02 |
0,05 |
0 |
0,07 |
0,84 |
0,24 |
0 | |
0,05 |
0,11 |
0,60 |
0,02 | |
0 |
0,03 |
0,11 |
0,98 |
Проверка:
Σ p(a1/bj) = 0,88 + 0,07 + 0,05 +0 =1
Σ p(a2/bj) = 0,02 + 0,84 + 0,11 +0,03 = 1
Σ p(a3/bj) = 0,05 + 0,24 + 0,60 +0,11 = 1
Σ p(a4/bj) = 0 + 0 + 0,02 + 0,98 = 1
Вывод: КМИ составлена правильно.
1. Количество информации I(ai) каждого символа b1, b2, b3, b4 дискретного сообщения В:
I(ai) = – log p(ai)
I(a1) = – log p(a1) = –log 0,4 = 1,321928
I(a2) = – log p(a2) = – log 0,2 = 2,321928
I(a3) = – log p(a3) = – log 0,1 = 3,321928
I(a4) = – log p(a4) = – log 0,3 = 1,736966
2. Среднее
количество информации на
H(A) = 1,8464 бит/символ
Максимальная энтропия источника сообщений Hmax(A):
Hmax(A) = log 4 = 2 [бит/символ]
3. Информационные
потери при передаче каждого
символа определяют частную
, (i=1,2,3,4), [бит/символ]
H(B/a1) = – (0,98 log 0,98 + 0,01 log 0,01 + 0,01 log 0,01 + 0) = 0,1614бит/симв
H(B/a2) = – (0,15 log 0,15 + 0,75 log 0,75 + 0,10 log 0,10 + 0) = 1,054бит/симв
H(B/a3) = – (0,25 log 0,25 + 0,20 log 0,20 + 0,50 log 0,50 + 0,05 log 0,05 ) =
=1,6805бит/симв
H(B/a4) = – (0 + 0,02 log 0,02 + 0,03 log 0,03 + 0,95 log 0,95 ) = 0,3349бит/симв
4. Средние
потери информации при
= 0,4 * 0,1614+ 0,2 * 1,054 + 0,1 * 1,6805 + 0,3 * 0,3349 =
= 0,5439 бит/символ
5. Общие потери информации в канале связи при передачи сообщения из 400 символов ΔI:
ΔI = k H(B/A) = 400 * 0,5439 = 217,5644 бит,
где k – количество символов в переданном сообщении.
1. Безусловные вероятности появления сигналов на входе приемника p(bj) определяются по форме:
, (j = 1,2,3,4)
p(b1) = 0,4 * 0,98 + 0,2 * 0,15 + 0,1 * 0,25 + 0 = 0,447
p(b2) = 0,4 * 0,01 + 0,2 * 0,75 + 0,1 * 0,20 + 0,3 * 0,02 = 0,18
p(b3) = 0,4 * 0,01 + 0,2 * 0,10 + 0,1 * 0,50 + 0,3 * 0,03 = 0,083
p(b4) = 0 + 0 + 0,1 * 0,05 + 0,3 * 0,95 = 0,29
Проверка:
2. Среднее количество информации, принятое приемником на один символ, определяется энтропией приемника H(B):
= – ( 0,447 log 0,447 + 0,18 log 0,18 + 0,083 log 0,083 + 0,29 log 0,29) =
= 1,7805 бит/символ
Максимальная энтропия источника сообщений Hmax(B):
Hmax(B) = log 4 = 2 [бит/символ]
3. Среднее количество полученной приемником информации, полученная приемником на один символ с учетом потерь информации, пораженной помехами, I(A,B):
I(A,B) = H(B) – H(B/A) = 1,7805 – 0,5439 = 1,2366 бит/символ
1. Скорость модуляции дискретного источника сообщений, n:
2. Продуктивность дискретного источника сообщений, H’(A):
3. Скорость передачи информации, R:
в данном случае скорость равна
4. Пропускная способность (емкость) С дискретного канала связи определяется максимальной скоростью передачи С = max R:
в данном случае
5. Коэффициент эффективности дискретного канала связи Кэ
6. Критическая скорость передачи Rкр:
1. Теорема Шеннона о скорости передачи
R < Rкр
6182,9567 < 3942,99 не выполняется
2. Теорема Шеннона о кодировании
H’(A) < C
9232 < 7280,5 не выполняется
3. Рекомендации по повышению надёжности и эффективности
Так как теоремы о скорости передачи не выполняется, восстановление исходного сообщения становится невозможным.
Существует способ кодирования и декодирования информации, при котором вероятность ошибки может быть очень большой. Для увеличения значения С, требуется увеличить количество символов сообщения.
В данной работе теоремы Шеннона не выполняются, следовательно, канал связи не является надежным и эффективным.
Оптимальный неравномерный код (ОНК) – это такой код, для которого средняя длина кода является минимальной.
Основная характеристика
дискретного канала связи – скорость
передачи данных. При избыточности
переданного сообщения
Для сжатия (компрессии данных)
применяется оптимальное
Основная идея оптимального кодирования: символам сообщения, которые имеют большую вероятность, присваиваются короткие бинарные коды, то есть образуются бинарные кодовые слова разной длины – неравномерные коды.
Оптимальное кодирование позволяет:
Сообщение:
Х={ТОПАЛОВА АЛЕКСАНДРА АЛЕКСАНДРОВНА}.
Длина сообщения:
Lx= 32 [символ].
Алфавит сообщения:
А={А, В, Д, Е, К, Л, Н, О, П, Р, С, Т, пробел}.
Длина алфавита:
LА= 13 [символ].
Вероятности символов алфавита и равномерный двоичный код РДК
i |
ai |
V(ai) |
Р(ai) |
РДК |
1 |
А |
8 |
0,24 |
0001 |
2 |
О |
3 |
0,09 |
0010 |
3 |
Л |
3 |
0,09 |
0011 |
4 |
Н |
3 |
0,09 |
0100 |
5 |
В |
2 |
0,06 |
0101 |
6 |
Д |
2 |
0,06 |
0110 |
7 |
Е |
2 |
0,06 |
0111 |
8 |
К |
2 |
0,06 |
1000 |
9 |
Р |
2 |
0,06 |
1001 |
10 |
С |
2 |
0,06 |
1010 |
11 |
ПРОБЕЛ |
2 |
0,06 |
1011 |
12 |
П |
1 |
0,03 |
1100 |
13 |
Т |
1 |
0,03 |
1101 |
LРДК = 4 [бит].
LSрдк = Lх * 4 = 33 * 4 =132 [бит].
Проверка:
Σ p(ai) = 0,2424 + 0,0606*7 + 0,0909*3 + 0,0303*2=1;
Σ Vi =33 [символ];
все правильно.
SРДК = 110100101100000100110010010100
001000110110001001101111000101
(4–ого порядка)
Деление заканчивается, когда в подгруппе остается 1 символ.
Для однозначности кодирования
и декодирования оптимальных
неравномерных кодов
i |
ai |
Vi |
Р(ai) |
1й бит |
2й бит |
3й бит |
4й бит |
5й бит |
ОНК |
ИОНК |
Li |
Li*P(ai) |
H(ai) |
1 |
А |
8 |
0,24 |
0,52 |
→0 |
00 |
11 |
2 |
0,48 |
0,49 | |||
2 |
О |
3 |
0,09 |
0,39 |
0,18 |
→0 |
0100 |
1011 |
4 |
0,36 |
0,31 | ||
3 |
Л |
3 |
0,09 |
→1 |
0101 |
1010 |
4 |
0,36 |
0,31 | ||||
4 |
Н |
3 |
0,09 |
0,15 |
→0 |
0110 |
1001 |
4 |
0,36 |
0,31 | |||
5 |
В |
2 |
0,06 |
→1 |
0111 |
1000 |
4 |
0,24 |
0,24 | ||||
6 |
Д |
2 |
0,06 |
0,48 |
0,24 |
0,12 |
→0 |
1000 |
0111 |
4 |
0,24 |
0,24 | |
7 |
Е |
2 |
0,06 |
→1 |
1001 |
0110 |
4 |
0,24 |
0,24 | ||||
8 |
К |
2 |
0,06 |
0,12 |
→0 |
1010 |
0101 |
4 |
0,24 |
0,24 | |||
9 |
Р |
2 |
0,06 |
→1 |
1011 |
0100 |
4 |
0,24 |
0,24 | ||||
10 |
С |
2 |
0,06 |
0,18 |
→0 |
110 |
001 |
3 |
0,18 |
0,24 | |||
11 |
ПРОБЕЛ |
2 |
0,06 |
0,12 |
→0 |
1110 |
0001 |
4 |
0,24 |
0,24 | |||
12 |
П |
1 |
0,03 |
0,06 |
→0 |
11110 |
00001 |
5 |
0,15 |
0,15 | |||
13 |
Т |
1 |
0,03 |
→1 |
11111 |
00000 |
5 |
0,15 |
0,15 | ||||
Сумма |
3,48 |
3,44 |
Информация о работе Расчет и оптимизация характеристик дискретного канала