Автор работы: Пользователь скрыл имя, 10 Декабря 2012 в 00:30, контрольная работа
Задание 1.
Сравнить количество информации. Содержащееся в двух сообщениях: «sdfdsfg» и «вапвап».
Задание 2.
Сообщение составлено из символов алфавита {-, +, 2, 1, 0}. Вычислить количество информации в сообщении: «+-0-+1002».
...
Задание 6.
Источник выдает сигналы с вероятностями: 0,15, 0,25, 0,2, 0,15, 0,1, 0,15. Длительность передачи одной цифры по каналу связи составляет 0,03 секунды. Распределение вероятностей при передаче сигналов задано таблицей. Вычислить пропускную способность канала связи.
Задание 1. 3
Задание 2. 4
Задание 3. 5
Задание 4. 6
Задание 5. 7
Задание 6. 8
Список литературы 10
Содержание
Задание 1. 3
Задание 2. 4
Задание 3. 5
Задание 4. 6
Задание 5. 7
Задание 6. 8
Список литературы 10
Сравнить количество информации. Содержащееся в двух сообщениях: «sdfdsfg» и «вапвап».
Решение:
Русский язык: , i = 6 бит (i не должно быть меньше 6, т.к. , а в русском языке 33 буквы)
Латинский язык: , i = 5 бит.
Количество бит информации одного символа русского языка больше на 1, чем в латинском языке.
Следовательно, информационный объём:
1 сообщения: 7*5=35 бит, или 35/8=4,375 байт
2 сообщения: 6*6=36 бит, или 36/8=4,5 байт.
Сообщение составлено из символов алфавита {-, +, 2, 1, 0}. Вычислить количество информации в сообщении: «+-0-+1002».
Решение:
N=5
Количество информации, содержащееся в одном символе алфавита заданной мощности используют формулу i = log2N:
i=log2(5)=2,3 бит
Т.к. вес каждого символа равен log2(5)=2,3 бит, следовательно, информационный объём сообщения:
9* log2(5)=21 бит или 2,6 байт.
Информационное сообщение закодировано цифрами в 3-й системе счисления. Вероятности появления цифр в сообщении заданы таблицей.
Цифра |
0 |
1 |
2 |
Вероятность |
0,5 |
0,26 |
0,24 |
В сообщении ******** стали известны 5 цифр. Вычислить априорную и апостериорную энтропии сообщения.
Решение:
Событие «В сообщении ******** стали известны 5 цифр» обозначим буквой А. Данное испытание имеет 8 равновозможных элементарных исходов, из которых 5 благоприятствуют событию A, вероятность события:
p1i=5/8=0,625.
Априорная энтропия определяется формулой:
Н0(p)= бит
Апостериорная энтропия:
Для данных из задачи №3 вычислить скорость передачи информации, если длительность передачи символов составляет 0,01, 0,02, 0,04 с.
Решение:
Энтропия входе/выходе источника равна:
Вероятности появления символов на входе приемника
Скорость передачи информации равна:
0,01*0,5000=0,005 бит/с.
0,02*0,5053=0,01 бит/с.
0,04*0,4941=0,02 бит/с.
Вычислить пропускную способность бинарного симметричного канала с вероятностью ошибки 0,01 и длительностью передачи одного символа 0,04 с.
Решение:
Бинарным дискретным каналом называется канал, по которому передается только два элементарных дискретных символа (т.е. используется двоичный код).
Пропускная способность бинарного симметричного канала связи:
где Р – вероятность перехода одного символа в другой.
22,1 бит/с.
Ответ: пропускная способность симметричного бинарного канала связи С=22,1 бит/с.
Источник выдает сигналы с вероятностями: 0,15, 0,25, 0,2, 0,15, 0,1, 0,15. Длительность передачи одной цифры по каналу связи составляет 0,03 секунды. Распределение вероятностей при передаче сигналов задано таблицей. Вычислить пропускную способность канала связи.
0 |
1 |
2 |
3 |
4 |
5 | |
0 |
0,6 |
0,1 |
0,12 |
0,06 |
0,07 |
0,05 |
1 |
0,1 |
0,75 |
0,09 |
0,01 |
0,02 |
0,03 |
2 |
0,06 |
0,05 |
0,7 |
0,07 |
0,03 |
0,09 |
3 |
0,1 |
0,03 |
0,02 |
0,8 |
0,03 |
0,02 |
4 |
0,1 |
0,05 |
0,02 |
0,01 |
0,75 |
0,07 |
5 |
0,04 |
0,02 |
0,05 |
0,05 |
0,1 |
0,74 |
Решение:
1. Энтропия источника сообщений равна:
2. Вероятности появления символов на входе приемника
3. Энтропия приемника информации равна
4. Общая условная энтропия равна
5. Пропускная способность канала связи
0,03*(2,585-1,419)=0,035 бит/с.