Автор работы: Пользователь скрыл имя, 13 Марта 2012 в 01:36, курсовая работа
В кибернетике и математике, информация – это количественная мера устранения неопределенности (энтропия).
Теория информации (теория сообщений) – область кибернетики, в которой математическими методами исследуется:
способы измерения количества информации;
сбора информации;
кодирование;
преобразование;
передача.
1. Система передачи дискретных сообщений 3
1.1 Блок-схема передачи СПДС. 3
1.2 Функции блоков источника сообщений: 4
1.3 Виды информации: 4
1.4 Виды и функции линий связи 4
1.5 Функции блока приемника сообщений: 5
2. Информационные характеристики дискретного канала 5
2.1 Информационные характеристики источника сообщений. 5
2.2 Информационные характеристики приемника сообщений. 6
2.3 Расчет канальных матриц 6
2.4 Характеристики источника сообщений 8
2.5 Характеристики приемника сообщения 9
2.6 Скоростные характеристики 10
2.7 Рекомендации и вывод по надежности и эффективности канала 10
3. Оптимальное кодирование 11
3.1 Назначение ОНК 11
3.2 Равномерный двоичный код 11
3.2.1 Корневое бинарное дерево РДК 12
3.3 Метод Шеннона–Фано 13
3.3.1 Алгоритм метода бисекции вычисления ОНК: 13
3.3.2 КБР ОНК Шеннона–Фано 14
3.3.3 Информационные характеристики ОНК Шеннона–Фано 14
3.4 Метод Хаффмена 15
3.4.1 Алгоритм Хафффмена: 15
3.4.2 КБД ОНК Хаффмена 16
3.4.3 Информационные характеристики ОНК Шеннона–Фано 17
4. Помехоустойчивое кодирование 18
4.1 Обнаруживающие коды 18
4.1.1 Обнаруживающий код чётности (ОКЧ) 18
4.1.2 Обнаруживающий код удвоения (ОКУ) 19
4.1.3 Обнаруживающий код инверсией (ОКИ) 20
4.1.4 Обнаруживающий код стандартный телеграфный код №3 (ОК СТК №3) 21
4.2 Корректирующие коды 21
4.2.1 Корректирующий систематический код Хэмминга (КСК Хэмминга) 21
4.3 Корректирующий циклический код (КЦК) 23
4.4 Коды, корректирующие кратную ошибку 26
4.4.1 Корректирующий мажоритарный код (КМК)(код по голосованию) (К – удвоения) 26
Литература 27
Министерство образования и науки Украины
Одесский Национальный Морской Университет
Кафедра «Информационные технологии»
Курсовая работа
Расчет и оптимизация характеристик дискретного канала
Выполнила:
студентка КСФ II к. 4 гр.
Топалова Александра
Александровна
Поверили:
Ширшков А.К.
Сафонова Н.В.
Одесса 2012
Содержание
1. Система
передачи дискретных сообщений
1.1 Блок-схема передачи СПДС. 3
1.2 Функции блоков источника сообщений: 4
1.3 Виды информации: 4
1.4 Виды и функции линий связи 4
1.5 Функции блока приемника сообщений: 5
2. Информационные
характеристики дискретного
2.1 Информационные
характеристики источника
2.2 Информационные
характеристики приемника
2.3 Расчет канальных матриц 6
2.4 Характеристики источника сообщений 8
2.5 Характеристики приемника сообщения 9
2.6 Скоростные характеристики 10
2.7 Рекомендации и вывод по надежности и эффективности канала 10
3. Оптимальное кодирование 11
3.1 Назначение ОНК 11
3.2 Равномерный двоичный код 11
3.2.1 Корневое бинарное дерево РДК 12
3.3 Метод Шеннона–Фано 13
3.3.1 Алгоритм
метода бисекции вычисления
3.3.2 КБР ОНК Шеннона–Фано 14
3.3.3 Информационные
характеристики ОНК Шеннона–
3.4 Метод Хаффмена 15
3.4.1 Алгоритм Хафффмена: 15
3.4.2 КБД ОНК Хаффмена 16
3.4.3 Информационные
характеристики ОНК Шеннона–
4. Помехоустойчивое кодирование 18
4.1 Обнаруживающие коды 18
4.1.1 Обнаруживающий код чётности (ОКЧ) 18
4.1.2 Обнаруживающий код удвоения (ОКУ) 19
4.1.3 Обнаруживающий код инверсией (ОКИ) 20
4.1.4 Обнаруживающий код стандартный телеграфный код №3 (ОК СТК №3) 21
4.2 Корректирующие коды 21
4.2.1 Корректирующий систематический код Хэмминга (КСК Хэмминга) 21
4.3 Корректирующий циклический код (КЦК) 23
4.4 Коды, корректирующие кратную ошибку 26
4.4.1 Корректирующий мажоритарный ко
Литература 27
Информация – с лат. языка «разъяснение, просвещение»:
В кибернетике и математике, информация – это количественная мера устранения неопределенности (энтропия).
Теория информации (теория сообщений) – область кибернетики, в которой математическими методами исследуется:
Теория информации: определение количества информации, потери информации на канале связи под воздействием помех, пропускная способность канала связи, скорость модуляции и скорость передачи данных, надежная и эффективная эксплуатация телекоммуникационных каналов.
Теория информации изучает математические методы, с помощью которых оценивается количество информации, действие помех на каналах связи, определяет эффективность скорости модуляции передачи данных.
В Шеноновской теории количество информации определяется только по ее вероятностным свойствам.
Теория кодирования: включает в себя три направления:
Система передачи дискретных сообщений (СПДС). Непрерывная информация, которая много раз меняет свою форму, по мере того как проходит по схеме. Но при этом первоначальное содержание не изменяется. СПДС включает в себя следующие информационные блоки.
источник сообщений
приемник сообщений
В процессе обработки и прохождения по блокам источника и приёмника, информация многократно меняет свою форму, сохраняя при этом содержание:
Обозначения:
Единицы измерения количества информации определяется видом log.
Log – Бит
Ln – Нат
Lg – Дит
Линии связи – физическая середа, в которой распространяются сигналы: проводниковые, кабельные, радио и спутниковые линии.
Виды линий связи:
Функции: линии связи предназначены для передачи данных на различные расстояния. Информация может менять свою форму при передаче, но содержание при этом сохраняется.
Количество информации символа сообщения определяется вероятностью появления этого символа в данном сообщении.
I(ai) =–log2 p(ai)
Свойства количества информации:
P(a1) < P(a2) → I(a1) > I(a2)
Каждый символ сообщения имеет свое количество информации. Энтропия – это среднее количество информации на символ данного сообщения, то есть математическое ожидание количества информации.
Н (а) = –Σ Р(аi) log Р(аi) (бит/символ)
Свойства энтропии:
H(X, Y) = H(X) + H(Y).
Частотно условная энтропия источника:
ЧУЭП – определяет информационные потери приемника сообщений B={b1, b2,…,bn} относительно переданного сигнала ai.
H (B/ai) = – Σ P(bj/ai) log P(bj/ai), i=1, 2,…, n
Общая условная энтропия источника:
ОУЭИ – определяет потери информации при приеме ансамбля
B={b1, b2,…,bn} относительно переданного ансамбля А={а1, а2...an}
H (B/A) = – Σ Σ P(ai) P(bj/ai) log P(bj/ai)
Для равно вероятностного аi Р(аi) = 1/n (i = 1,2,3...n).
Суммарные потери информации определяет общие условия энтропии источника и имеет вид:
H (B/A) = – 1/n Σ Σ P(bj/ai) log P(bj/ai)
Частотно условная энтропия приемника:
ЧУЭП – определяет информационные потери источника сообщений А={а1, а2...an} относительно принятого сигнала bj.
H (A/bj) = – Σ P(ai/bj) log P(ai/bj), j=1, 2,…, n
Общая условная энтропия приемника:
ОУЭП – определяет потери информации при передаче ансамбля А={а1, а2...an} относительно принятого ансамбля B={b1, b2,…,bn}.
H (A/B) = – Σ Σ P(bj) P(ai/bj) log P(ai/bj)
Для равно вероятностного bj Р(bj) = 1/n (i = 1,2,3...n)
Суммарные потери информации определяет общие условия энтропии приемника и имеет вид:
H (A/B) = – 1/n Σ Σ P(ai/bj) log P(ai/bj)
Теорема 1. «О скорости передачи» Определяет критическую скорость передачи данных Rкр, зависимую только от распределения вероятностей, при которой существует средство передачи со скоростью R близкой к критической (R < Rкр), при которой возможно восстановление начального сообщения (если скорость R < Rкр, восстановление сообщения невозможно). Критическая скорость равняется:
где H(A) – энтропия источника, С – пропускная способность канала.
Теорема 2. «О кодировании» Если производительность источника H’(А) меньше пропускной способности канала:
H’(А) < С,
то существует средство кодирования и декодирования информации при которой вероятность ошибки может быть сколько угодно мала и наоборот.
Дано: канальная матрица условных вероятностей, которые отображают действие помех дискретного канала связи.
p(bj/ai) = |
0,98 |
0,01 |
0,01 |
0 |
0,15 |
0,75 |
0,10 |
0 | |
0,25 |
0,20 |
0,50 |
0,05 | |
0 |
0,02 |
0,03 |
0,95 |
Информация о работе Расчет и оптимизация характеристик дискретного канала