Автор работы: Пользователь скрыл имя, 05 Августа 2013 в 00:29, курсовая работа
Целью дипломной работы является исследование непрерывных источники информации и их характеристика.
Основными задачами исследования являются:
– определение непрерывных источников информации;
– анализ методов математического описания непрерывных источников информации;
– изучение и оценка основных характеристик непрерывных источников информации;
– примеры расчета информационных характеристик непрерывных источников информации.
ВВЕДЕНИЕ 3
гЛАВА 1. непрерывныЕ источники информации. Случайные сигналы 5
1.1. Источники информации. Основные понятия. 5
1.2. Математическое описание случайных сигналов 7
1.3. Преобразование непрерывных сигналов в дискретные 10
Глава 2. основные характеристики Непрерывных источников информации 12
2.1. Количественная оценка информации 12
2.2. Количественная оценка информации непрерывного источника. Дифференциальная энтропия 15
2.3. Свойства дифференциальной энтропии 16
2.4. Совместная и условная дифференциальная энтропия 23
ЗАКЛЮЧЕНИЕ 29
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 30
Для доказательства свойства также используем метод вариационного исчисления – .
Теперь при максимизации интеграла в выражении
\* MERGEFORMAT ()
второе ограничение в можно отбросить и положить
, \* MERGEFORMAT ()
поскольку дисперсия распределения не ограничивается.
Это соответствует в уравнении Эйлера значению , откуда следует, что искомая плотность имеет вид
, \* MERGEFORMAT ()
и, следовательно, является равномерной.
Подставляя в условие и выполняя интегрирование на ограниченном интервале , получаем
,
откуда следует, что , искомая плотность распределения принимает вид
и совпадает с .
Для непрерывных источников вводятся понятия совместной и условной дифференциальных энтропий, которые позволяют учитывать статистические связи между сечениями сигналов U и V двух или нескольких источников, между последовательными сечениями сигнала на выходе одного источника, между отсчетами сигналов на входе и выходе канала связи.
Совместная дифференциальная энтропия двух сечений U и V определяется выражением
, \* MERGEFORMAT ()
где – совместная плотность распределения случайных величин U и V.
Совместную плотность распределения можно представить в виде
, \* MERGEFORMAT ()
где
; \* MERGEFORMAT ()
–
плотности распределения
Условная дифференциальная энтропия случайной величины U при известной случайной величине V определяется по формуле
, \* MERGEFORMAT ()
а условная дифференциальная энтропия случайной величины V при известной случайной величине U составляет
. \* MERGEFORMAT ()
Из выражений – следует, что перечисленные дифференциальные энтропии связаны соотношениями
; \* MERGEFORMAT ()
, \* MERGEFORMAT ()
причем для статистически независимых сечений U и V, когда в выражениях , и , дифференциальная энтропия объединения равна сумме энтропий и
, \* MERGEFORMAT ()
а условные дифференциальные энтропии равны соответствующим безусловным
, . \* MERGEFORMAT ()
Вычислим совместную и взаимную дифференциальную энтропии и между отстоящими через интервал времени сечениями и стационарного гауссовского сигнала с математическим ожиданием , дисперсией и нормированной автокорреляционной функцией .
Сначала найдем совместную плотность распределения сечений и как частный случай соотношения при m = 2.
При m = 2 корреляционная матрица принимает вид
и ее определитель равен .
Обратная матрица определяется выражением
,
где – алгебраические дополнения элементов , равные умноженным на величины определителям матриц порядка , получающихся из матрицы путем вычеркивания в ней i-й строки и j-го столбца.
Так как и , матрица принимает вид
и в соответствии с общим выражением двумерная плотность вероятностей составляет
Согласно выражение для совместной дифференциальной энтропии имеет вид
.
Вычислим логарифм плотности
и подставим найденное значение в формулу для . Получим
Далее учтем соотношения, которые в соответствии с формулами , и имеют следующий вид:
;
;
;
.
В результате получаем
или в окончательном виде
.
Теперь найдем значение условной дифференциальной энтропии.
Непосредственное вычисление можно провести по формуле , которая в данном случае имеет вид
.
Условная плотность вероятностей сечения при заданном значении в соответствии с формулой определяется выражением
и имеет вид
После сокращения и приведения подобных членов в показателе экспоненты получаем
Найдем логарифм полученной плотности
и подставим его значение в формулу для :
Учитывая используемые ранее соотношения, представим последнее выражение для в виде
или окончательно
.
Полученное
соотношение можно найти
.
Подставляя в эту формулу значения соответствующих дифференциальных энтропий
и
,
получаем такой же результат:
.
Передача
информации осуществляется либо самим
источником информации, либо по запросу.
Это происходит для того, чтобы
устранить неопределенность относительно
последовательности состояний, которые
реализуются некоторым
Информация передается всегда в форме сигналов. Сигналы z, поступающие с выхода первичного преобразователя источника информации на вход канала связи, называется сообщениями в отличие от сигнала u, которые формируются на входе линии связи. В зависимости от формы создаваемых сообщений различают источники дискретных и непрерывных сообщений.
Отдельные первичные сигналы с выхода источника дискретных сообщений называют элементами сообщения, которым соответствует определенное состояние источника информации. В случае параллельной реализации источником информации множества состояний, как это имеет место, например, в документах с печатным текстом, первичный преобразователь обеспечивает их последовательное отображение элементами сообщения. Таким преобразователем может быть как автоматическое читающее устройство, так и человек.
Основная характеристика источника информации — количество информации — рассматривается в данной работе применительно к передаче отдельных статистически несвязанных элементов сообщения. При этом непрерывный источник характеризуется одномерной плотностью распределения случайной величины z — ρ(z).
Информация о работе Характеристика непрерывных источников информации