Автор работы: Пользователь скрыл имя, 07 Января 2011 в 16:32, контрольная работа
В алфавите три буквы А, В, С. а) Составить максимальное количество сообщений, комбинируя по 3 буквы в сообщении? б) Какое количество информации приходится на одно такое сообщение? в) Чему равно количество информации на символ первичного алфавита?
ОБРАЗОВАТЕЛЬНАЯ
АВТОНОМНАЯ НЕКОММЕРЧЕСКАЯ ОРГАНИЗАЦИЯ
"ВОЛЖСКИЙ УНИВЕРСИТЕТ ИМ. В.Н. ТАТИЩЕВА"
(ИНСТИТУТ)
Факультет
"Информатика и
Кафедра
“Информатика и системы управления"
КОНТРОЛЬНАЯ
РАБОТА
по
дисциплине "Теория информации и
кодирования"
Студент Аляутдинов Р.Х.
Группа ИТЗ - 301
Дата выполнения
________
Проверил _______________
Воронцова Е.В.
Тольятти 2009 г.
Решение:
а) ААА ААВ ААС
АВА АВВ АВС
АСА АСВ АСС
ВАА ВАВ ВАС
ВВА ВВВ ВВС
ВСА ВСВ ВСС
САА САВ САС
СВА СВВ СВС
ССА ССВ ССС
б) m=3, n=3
; бит.
в) I=log log =1.58 бит/символ
Решение.
m=4, n=6
= бит
бит/символ.
а)
Составить канальную матрицу,
описывающую данный канал
б) Определить
общую условную энтропию сообщений,
алфавитом которых являются частоты f1
- f4,если вероятности появления этих частот
в передаваемых сообщениях соответственно
равны: p(f1)=0,37, p(f2)=0,3, p(f3)=0,23, p(f4)=0,1.
Решение.
а)
f1 | f2 | f3 | f4 | |
f1 | 0,97 | 0,02 | 0,01 | 0 |
f2 | 0,02 | 0,98 | 0 | 0 |
f3 | 0 | 0,02 | 0,96 | 0,02 |
f4 | 0 | 0 | 0,01 | 0,99 |
б) Общая условная энтропия для неравновероятностной системы:
-(0,37*(0,97
+0,02
+0,01
)+0,3*(0,02
+ +0,98
)+0,23*(0,02
+0,96
+0,02
)+0,1*(0,01*
+0,99
))=0,37*(0,04+0,11+0,07)+0,3*(
+0,11)+0,1*(0,33+0,01)= 0,37*0,22+0,3*0,14+0,23*0,28 +0,1*0,34=0,08+0,04+0,06+0,03=
=0,21 бит/символ
f1 | f2 | f3 | f4 | |
f1 | 0,9834 | 0,0160 | 0,0006 | 0 |
f2 | 0,0160 | 0,9837 | 0,0003 | 0 |
f3 | 0 | 0,0290 | 0,9708 | 0,0002 |
f4 | 0 | 0 | 0,0087 | 0,9913 |
а) Определить энтропию объединения передаваемых и принимаемых сообщений, если частоты f1 – f4 появляются на выходе передатчика со следующими вероятностями: p(f1) = =p(f2) = p(f3) = 0,2; p(f4) = 0,4.
б) Определить информационные потери при передаче сообщений, состоящих из 1000 элементарных частотных посылок.
Решение.
а) Энтропия объединения находится по формуле:
Т.к. условная вероятность находится , то выражаем взаимную вероятность:
Соответственно матрица взаимных вероятностей будет иметь вид:
f1 | f2 | f3 | f4 | |
f1 | 0,9834*0,2 | 0,0160*0,2 | 0,0006*0,2 | 0*0,2 |
f2 | 0,0160*0,2 | 0,9837*0,2 | 0,0003*0,2 | 0*0,2 |
f3 | 0*0,2 | 0,0290*0,2 | 0,9708*0,2 | 0,0002*0,2 |
f4 | 0*0,4 | 0*0,4 | 0,0087*0,4 | 0,9913*0,4 |
т.е.:
f1 | f2 | f3 | f4 | |
f1 | 0,19668 | 0,0032 | 0,00012 | 0 |
f2 | 0,0032 | 0,19674 | 0,00006 | 0 |
f3 | 0 | 0,0058 | 0,19416 | 0,00004 |
f4 | 0 | 0 | 0,00348 | 0,39652 |
Теперь можно найти энтропию объединения:
0,19668*log
0,19668+0,0032*log
0,0032+0,00012*log
0,00012+
+0,0032*log
0,0032+0,19674*log
0,19674+0,00006*log
0,00006+0,0058*log
0,0058+
+0,19416*log 0,19416+0,00004*log 0,00004+0,00348*log 0,00348+0, 39652*
*log
0,39652)=0.461+0.027+0.02+0.
=2.252 символ
б) Информационные потери при передаче сообщений, состоящих из 1000 элементарных частотных посылок, найдём по формуле:
H(A)= = -(0.2*log 0.2+0.2* log 0.2+0.2* log 0.2+0.2* log 0.2)=
=4*0.2* log 0.2)=1.858
H(B)=
=-(0.2*log
0.2+0.206*log
0.206+0.199*log
0.199+0.397* log
0.397)=0.464+0.47+0.464+0.529=
бит
Решение.
Избыточность находится по формуле:
Для алфавита из четырех букв максимальная энтропия
Средняя энтропия на символ сообщения
1 2 3 4 5 6 7 8
1 2 3 4 5 6 7 8
1 2 3 4 5 6 7 8
1 2 3 4 5 6 7 8
1 2 3 4 5 6 7 8
Решение.
1 2 3 4 5 6 7 8
p p p p
Информация о работе Контрольная работа по "Теории информации и кодирования"