Расчет и оптимизация характеристик дискретного канала

Автор работы: Пользователь скрыл имя, 13 Марта 2012 в 01:36, курсовая работа

Описание

В кибернетике и математике, информация – это количественная мера устранения неопределенности (энтропия).
Теория информации (теория сообщений) – область кибернетики, в которой математическими методами исследуется:
способы измерения количества информации;
сбора информации;
кодирование;
преобразование;
передача.

Содержание

1. Система передачи дискретных сообщений 3
1.1 Блок-схема передачи СПДС. 3
1.2 Функции блоков источника сообщений: 4
1.3 Виды информации: 4
1.4 Виды и функции линий связи 4
1.5 Функции блока приемника сообщений: 5
2. Информационные характеристики дискретного канала 5
2.1 Информационные характеристики источника сообщений. 5
2.2 Информационные характеристики приемника сообщений. 6
2.3 Расчет канальных матриц 6
2.4 Характеристики источника сообщений 8
2.5 Характеристики приемника сообщения 9
2.6 Скоростные характеристики 10
2.7 Рекомендации и вывод по надежности и эффективности канала 10
3. Оптимальное кодирование 11
3.1 Назначение ОНК 11
3.2 Равномерный двоичный код 11
3.2.1 Корневое бинарное дерево РДК 12
3.3 Метод Шеннона–Фано 13
3.3.1 Алгоритм метода бисекции вычисления ОНК: 13
3.3.2 КБР ОНК Шеннона–Фано 14
3.3.3 Информационные характеристики ОНК Шеннона–Фано 14
3.4 Метод Хаффмена 15
3.4.1 Алгоритм Хафффмена: 15
3.4.2 КБД ОНК Хаффмена 16
3.4.3 Информационные характеристики ОНК Шеннона–Фано 17
4. Помехоустойчивое кодирование 18
4.1 Обнаруживающие коды 18
4.1.1 Обнаруживающий код чётности (ОКЧ) 18
4.1.2 Обнаруживающий код удвоения (ОКУ) 19
4.1.3 Обнаруживающий код инверсией (ОКИ) 20
4.1.4 Обнаруживающий код стандартный телеграфный код №3 (ОК СТК №3) 21
4.2 Корректирующие коды 21
4.2.1 Корректирующий систематический код Хэмминга (КСК Хэмминга) 21
4.3 Корректирующий циклический код (КЦК) 23
4.4 Коды, корректирующие кратную ошибку 26
4.4.1 Корректирующий мажоритарный код (КМК)(код по голосованию) (К – удвоения) 26
Литература 27

Работа состоит из  1 файл

Курсовая работа.docx

— 202.40 Кб (Скачать документ)

 

Безусловные вероятности  появления символов на выходе источника  сообщений равны: p(a1) = 0,4; p(a2) = 0,2; p(a3) = 0,1; p(a4) = 0,3. Длительность передачи одного символа τ = 0,0002, передано сообщение из 400 символов.

Вычислить информационные характеристики дискретного канала связи, включая I(ai), H(A), H(B/ai), H(B/A), p(bj), H(B), I(A,B), n, H’(A), R, C, Kэ, Rкр.

Проверить выполнение теорем Шеннона про скорость передачи и  про кодирование. Сделать вывод  про надежность и эффективность  канала связи.

 

А. Вычислим канальную матрицу объединения:

Зная КМИ можно вычислить КМО по формуле:

p(ai;bj) = p(ai) * p(bj/ai)

 

Канальная матрица объединения

 

p(ai;bj) =

0,39

0

0

0

0,03

0,15

0,02

0

0,03

0,02

0,05

0,01

0

0,01

0,01

0,29


 

Проверка:

ΣΣ p(ai;bj) = 0,39 + 0 + 0 + 0 + 0,03 + 0,15 + 0,02 + 0 + 0,03 + 0,02 + 0,05 +

+ 0,01 + 0 + 0,01 + 0,01 + 0,29 = 1

 

Вывод: КМО составлена правильно.

 

Б. Зная КМО, найдем КМП:

 

p(ai/bj) = p(ai;bj) / p(bj)

 

p(b1) = 0,39 + 0,03 + 0,03 + 0 = 0,45

p(b2) = 0 + 0,15 + 0,02 + 0,01 = 0,18

p(b3) = 0 +0,02 +0,05 +0,01= 0,08

p(b4) = 0 + 0 + 0,01 + 0,29 = 0,29

Канальная матрица приемника

 

p(ai/bj)=

0,88

0,02

0,05

0

0,07

0,84

0,24

0

0,05

0,11

0,60

0,02

0

0,03

0,11

0,98


Проверка:

Σ p(a1/bj) = 0,88 + 0,07 + 0,05 +0 =1

Σ p(a2/bj) = 0,02 + 0,84 + 0,11 +0,03 = 1

Σ p(a3/bj) = 0,05 + 0,24 + 0,60 +0,11 = 1

Σ p(a4/bj) = 0 + 0 + 0,02 + 0,98 = 1

Вывод: КМИ составлена правильно.

2.4 Характеристики  источника сообщений

1. Количество  информации I(ai) каждого символа b1, b2, b3, b4 дискретного сообщения В:

I(ai) = – log p(ai)

I(a1) = – log p(a1) = –log 0,4 = 1,321928

I(a2) = – log p(a2) = – log 0,2 = 2,321928

I(a3) = – log p(a3) = – log 0,1 = 3,321928

I(a4) = – log p(a4) = – log 0,3 = 1,736966

2. Среднее  количество информации на символ  сообщения определяет энтропию  источника сообщений H(A):

 

H(A) = 1,8464 бит/символ

Максимальная  энтропия источника сообщений Hmax(A):

Hmax(A) = log 4 = 2 [бит/символ]

3. Информационные  потери при передаче каждого  символа определяют частную условную  энтропию источника H(B/ai)

, (i=1,2,3,4), [бит/символ]

H(B/a1) = – (0,98 log 0,98 + 0,01 log 0,01 + 0,01 log 0,01 + 0) = 0,1614бит/симв

H(B/a2) = – (0,15 log 0,15 + 0,75 log 0,75 + 0,10 log 0,10 + 0) = 1,054бит/симв

H(B/a3) = – (0,25 log 0,25 + 0,20 log 0,20 + 0,50 log 0,50 + 0,05 log 0,05 ) =

=1,6805бит/симв

H(B/a4) = – (0 + 0,02 log 0,02 + 0,03 log 0,03 + 0,95 log 0,95 ) = 0,3349бит/симв

4. Средние  потери информации при передаче  одного символа определяет общую  условную энтропию источника  H(B/A):

 

= 0,4 * 0,1614+ 0,2 * 1,054 + 0,1 * 1,6805 + 0,3 * 0,3349 =

= 0,5439 бит/символ

5. Общие  потери информации в канале  связи при передачи сообщения  из 400 символов ΔI:

ΔI = k H(B/A) = 400 * 0,5439 = 217,5644 бит,

где k – количество символов в переданном сообщении.

2.5 Характеристики приемника сообщения

1. Безусловные вероятности появления сигналов на входе приемника p(bj) определяются по форме:

, (j = 1,2,3,4)

p(b1) = 0,4 * 0,98 + 0,2 * 0,15 + 0,1 * 0,25 + 0 = 0,447

p(b2) = 0,4 * 0,01 + 0,2 * 0,75 + 0,1 * 0,20 + 0,3 * 0,02 = 0,18

p(b3) = 0,4 * 0,01 + 0,2 * 0,10 + 0,1 * 0,50 + 0,3 * 0,03 = 0,083

p(b4) = 0 + 0 + 0,1 * 0,05 + 0,3 * 0,95 = 0,29

Проверка:

 

2. Среднее количество информации, принятое приемником на один символ, определяется энтропией приемника H(B):

 

= – ( 0,447 log 0,447 + 0,18 log 0,18 + 0,083 log 0,083 + 0,29 log 0,29) =

= 1,7805 бит/символ

Максимальная  энтропия источника сообщений Hmax(B):

Hmax(B) = log 4 = 2 [бит/символ]

 

3. Среднее количество полученной приемником информации, полученная приемником на один символ с учетом потерь информации, пораженной помехами, I(A,B):

I(A,B) = H(B) – H(B/A) = 1,7805 – 0,5439 = 1,2366 бит/символ

2.6 Скоростные характеристики

1. Скорость модуляции дискретного источника сообщений, n:

 

2. Продуктивность дискретного источника сообщений, H’(A):

 

3. Скорость передачи информации, R:

 

в данном случае скорость равна

 

4. Пропускная способность (емкость) С дискретного канала связи определяется максимальной скоростью передачи С = max R:

 

в данном случае

 

5. Коэффициент эффективности дискретного канала связи Кэ

 

6. Критическая скорость передачи Rкр:

 

2.7 Рекомендации и вывод по надежности и эффективности канала

1. Теорема  Шеннона о скорости передачи

R < Rкр

6182,9567 < 3942,99   не выполняется

2. Теорема  Шеннона о кодировании

H’(A) < C

9232 < 7280,5   не выполняется

3. Рекомендации  по повышению надёжности и  эффективности

Так как теоремы о скорости передачи не выполняется, восстановление исходного сообщения становится невозможным.

Существует способ кодирования  и декодирования информации, при  котором вероятность ошибки может  быть очень большой. Для увеличения значения С, требуется увеличить  количество символов сообщения.

В данной работе теоремы  Шеннона не выполняются, следовательно, канал связи не является надежным и эффективным.

3. Оптимальное кодирование

3.1 Назначение ОНК

Оптимальный неравномерный код (ОНК) – это такой код, для которого средняя длина кода является минимальной.

Основная характеристика дискретного канала связи – скорость передачи данных. При избыточности переданного сообщения уменьшается  скорость передачи. Математические и  программные средства компрессии данных (без потерь содержания информации), в том числе оптимальное кодирование, используют для исключения избыточности сообщения.

Для сжатия (компрессии данных) применяется оптимальное кодирование, что позволяет эффективно использовать память ЭВМ, уменьшить длительность и увеличить скорость передачи сообщений, выполнять архивацию данных, уменьшить  действие помех на информацию.

Основная идея оптимального кодирования: символам сообщения, которые  имеют большую вероятность, присваиваются  короткие бинарные коды, то есть образуются бинарные кодовые слова разной длины  – неравномерные коды.

Оптимальное кодирование  позволяет:

  • сжимать время передачи данных при той же скорости;
  • уменьшать возможные потери и искажения информации;
  • сжимать данные (компрессия);
  • архивировать данные;
  • эффективно использовать память.

3.2 Равномерный двоичный код

Сообщение:

Х={ТОПАЛОВА АЛЕКСАНДРА АЛЕКСАНДРОВНА}.

Длина сообщения:

Lx= 32 [символ].

Алфавит сообщения:

А={А, В, Д, Е, К, Л, Н, О, П, Р, С, Т, пробел}.

Длина алфавита:

LА= 13 [символ].

 

Вероятности символов алфавита и равномерный двоичный код РДК

 

i

ai

V(ai)

Р(ai)

РДК

1

А

8

0,24

0001

2

О

3

0,09

0010

3

Л

3

0,09

0011

4

Н

3

0,09

0100

5

В

2

0,06

0101

6

Д

2

0,06

0110

7

Е

2

0,06

0111

8

К

2

0,06

1000

9

Р

2

0,06

1001

10

С

2

0,06

1010

11

ПРОБЕЛ

2

0,06

1011

12

П

1

0,03

1100

13

Т

1

0,03

1101


 

LРДК = 4 [бит].

LSрдк = Lх * 4 = 33 * 4 =132 [бит].

 

Проверка:

Σ p(ai) = 0,2424 + 0,0606*7 + 0,0909*3 + 0,0303*2=1;

Σ Vi =33 [символ];

все правильно.

 

SРДК = 110100101100000100110010010100011011000100110111100010100001010001101

  001000110110001001101111000101000010100011010010010010101000001

3.2.1 Корневое бинарное дерево РДК

(4–ого порядка)

 

3.3 Метод Шеннона–Фано

3.3.1 Алгоритм метода бисекции вычисления ОНК:

  • предварительный шаг: вероятности ранжируются по убыванию или возрастанию;
  • шаг 1: все вероятности делятся на две равновероятные группы; символам верхней строки секции назначается 0, нижним – 1 (или наоборот); т.о. вычислен первый бит ОНК;
  • шаг 2: каждую группу делим на две равновероятные подгруппы; верхним – 0, нижним –1 (или наоборот). Вычислен второй бит и т. д.

Деление заканчивается, когда  в подгруппе остается 1 символ.

 

Для однозначности кодирования  и декодирования оптимальных  неравномерных кодов необходимо, чтобы они были префиксными, т.е. для них должен выполняться критерий Фано: ни одно кодовое слово ОНК  не является началом другого кодового слова ОНК.

 

i

ai

Vi

Р(ai)

1й бит

2й бит

3й бит

4й бит

5й бит

ОНК

ИОНК

Li

Li*P(ai)

H(ai)

1

А

8

0,24

0,52 
→0

→0

     

00

11

2

0,48

0,49

2

О

3

0,09

0,39 
→1

0,18 
→0

→0

 

0100

1011

4

0,36

0,31

3

Л

3

0,09

→1

 

0101

1010

4

0,36

0,31

4

Н

3

0,09

0,15 
→1

→0

 

0110

1001

4

0,36

0,31

5

В

2

0,06

→1

 

0111

1000

4

0,24

0,24

6

Д

2

0,06

0,48 
→1

0,24 
→0

0,12 
→0

→0

 

1000

0111

4

0,24

0,24

7

Е

2

0,06

→1

 

1001

0110

4

0,24

0,24

8

К

2

0,06

0,12 
→1

→0

 

1010

0101

4

0,24

0,24

9

Р

2

0,06

→1

 

1011

0100

4

0,24

0,24

10

С

2

0,06

0,18 
→1

→0

   

110

001

3

0,18

0,24

11

ПРОБЕЛ

2

0,06

0,12 
→1

→0

 

1110

0001

4

0,24

0,24

12

П

1

0,03

0,06 
→1

→0

11110

00001

5

0,15

0,15

13

Т

1

0,03

→1

11111

00000

5

0,15

0,15

 

Сумма

                   

3,48

3,44

Информация о работе Расчет и оптимизация характеристик дискретного канала