Автор работы: Пользователь скрыл имя, 05 Августа 2013 в 00:29, курсовая работа
Целью дипломной работы является исследование непрерывных источники информации и их характеристика.
Основными задачами исследования являются:
– определение непрерывных источников информации;
– анализ методов математического описания непрерывных источников информации;
– изучение и оценка основных характеристик непрерывных источников информации;
– примеры расчета информационных характеристик непрерывных источников информации.
ВВЕДЕНИЕ 3
гЛАВА 1. непрерывныЕ источники информации. Случайные сигналы 5
1.1. Источники информации. Основные понятия. 5
1.2. Математическое описание случайных сигналов 7
1.3. Преобразование непрерывных сигналов в дискретные 10
Глава 2. основные характеристики Непрерывных источников информации 12
2.1. Количественная оценка информации 12
2.2. Количественная оценка информации непрерывного источника. Дифференциальная энтропия 15
2.3. Свойства дифференциальной энтропии 16
2.4. Совместная и условная дифференциальная энтропия 23
ЗАКЛЮЧЕНИЕ 29
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 30
Подача информации в цифровой форме облегчает унификацию операций ее преобразования на всех этапах обращения. Массовость изготовления типовых узлов и блоков, простота их настройки, отсутствие необходимости регулировки в процессе эксплуатации позволяют, в свою очередь, улучшить такие важнейшие технико-экономические показатели средств цифровой техники, как стоимость изготовления и эксплуатации, а также надежность.
Низкая
стоимость и высокая
надежность больших интегральных
схем, естественно, являются мощными
стимулами дальнейшего
Рассмотрим дискретный источник информации, который может в каждый момент времени случайным образом принять одно из конечного множества возможных состояний. Каждому состоянию источника ставится в соответствие условное обозначение в виде знака (буквы) из алфавита данного источника: u1, u2, ..., uN.
Поскольку одни состояния выбираются источником чаще, а другие реже, то в общем случае он характеризуется полной совокупностью состояний с вероятностями их появления, составляющими в сумме единицу:
или (6)
причем
или (7)
Меру неопределенности выбора состояния источника можно рассматривать и как меру количества информации, получаемой при полном устранении неопределенности относительно состояния источника. Мера должна удовлетворять ряду естественных условий. Одним из них является необходимость монотонного возрастания с увеличением возможностей выбора, т. е. числа возможных состояний источника N, причем недопустимые состояния (состояния с вероятностями, равными нулю) не должны учитываться, так как они не меняют неопределенности.
Степень неопределенности реализации состояния источника информации зависит не только от числа состояний, но и от вероятностей этих состояний. При неравновероятных состояниях свобода выбора источника ограничивается, это приводит к уменьшению неопределенности. Если источник информации имеет, например, два возможных состояния с вероятностями 0,99 и 0,01, то неопределенность выбора у него значительно меньше, чем у источника, имеющего два равновероятных состояния.
Это позволяет сформулировать следующее требование к искомой мере неопределенности Н(р1 ... рi ... рN): она должна быть непрерывной функцией вероятностей состояний источника р1 ... pi ... рN с соблюдением условия
Наибольшее ее значение 1 должно достигаться при равенстве вероятностей всех состояний.
Кроме того, Н(р1…ρN) должна являться функционалом распределения вероятностей.
Мера неопределенности выбора дискретным источником состояния из ансамбля U, удовлетворяющая указанным условиям, была предложена американским ученым К. Шенноном [36]. Ее называют энтропией дискретного источника информации или энтропией конечного ансамбля:
где С – произвольное положительное число.
К. Шенноном высказано, а советским ученым Л. Я. Хинчиным математически строго доказано утверждение, что это единственный функционал, удовлетворяющий сформулированным условиям.
Ориентируясь на измерение неопределенности в двоичных единицах, основание логарифма принимают равным двум, а С= 1. Тогда из (8)
Мера К. Шеннона позволяет учесть статистические свойства источника информации.
Рассмотрим основные свойства энтропии, обратив внимание на то, что сформулированные условия для меры неопределенности выполняются.
6.
Энтропия объединения
7.
Энтропия характеризует
8.
Энтропия как мера
Замена
равновероятных раздражителей
Математическая
модель непрерывного источника определяется
статистическими
Стационарный эргодический источник без памяти – это источник, вырабатывающий стационарный эргодический случайный сигнал , сечения которого в различные моменты времени являются статистически независимыми случайными величинами.
Энтропию одного сечения U сигнала на выходе стационарного эргодического источника можно найти, если разбить диапазон возможных значений случайной величины U на малые интервалы и ввести дискретную случайную величину , принимающую значения (i = 1, 2, …m) с вероятностями , где одномерная плотность вероятности случайной величины U; – среднее значение i-го интервала. При этом энтропия дискретной случайной величины в соответствии с классической формулой для энтропии дискретного источника без памяти [1, 2, 7, 12, 17, 19]
, \* MERGEFORMAT ()
где – независимые символы источника, вырабатываемые с вероятностями , может быть записана в виде
\* MERGEFORMAT ()
По мере уменьшения длины интервала свойства дискретной случайной величины все больше приближаются к свойствам непрерывной случайной величины U и поэтому предельный переход в формуле при приводит к выражению для энтропии сечения U:
. \* MERGEFORMAT ()
Первое слагаемое в правой части соотношения имеет конечное значение и полностью определяется видом одномерной плотности распределения сигнала . Второе слагаемое зависит только от величины интервала и при стремится к бесконечности [1 – 6, 20 – 21].
В качестве меры неопределенности непрерывного источника используется первое слагаемое в , которое называется дифференциальной (относительной, приведенной) энтропией и имеет вид [1 – 6, 20 – 21]
. \* MERGEFORMAT ()
Дифференциальная энтропия имеет следующие свойства:
1. Дифференциальная
энтропия не может служить
абсолютной мерой
2. Дифференциальная
энтропия является
. \* MERGEFORMAT ()
Действительно, если U – непрерывная случайная величина с плотностью распределения и случайная величина V связана с U функциональной зависимостью
,
то при условии, что является монотонно возрастающей или убывающей функцией на всем участке изменения u, плотность распределения случайной величины V определяется выражением
, \* MERGEFORMAT ()
где – функция, обратная функции ; .
В соответствии с
,
обратная функция составляет
и, следовательно,
.
Таким образом, в соответствии с формулой ,
.
Подставляя полученное распределение в соотношение для дифференциальной энтропии, получаем
Проведя замену переменных , так что , , и выполняя интегрирование, из полученного выражения окончательно имеем
,
что совпадает с выражением .
3. Дифференциальная
энтропия, в отличие от энтропии
дискретного источника, наряду
с нулевыми и положительными
значениями также может
4) Дифференциальная энтропия не изменяется, если к случайной величине U прибавить некоторую постоянную величину c, т. е. при переходе к случайной величине дифференциальная энтропия составит
. \* MERGEFORMAT ()
Отсюда следует, что дифференциальная энтропия не зависит от значения математического ожидания случайной величины U, и случайные величины, отличающиеся только математическими ожиданиями, имеют одинаковые дифференциальные энтропии.
Для доказательства учтем, что в соответствии с этой формулой и, следовательно, , .
Поскольку из выражения вытекает, что , соотношение дает окончательный результат
5. Если единственным
ограничением для случайной
, \* MERGEFORMAT ()
обладает случайная величина с равномерным распределением вероятностей
\* MERGEFORMAT ()
6. Если ограничения
на область определения
, \* MERGEFORMAT ()
обладает нормальная случайная величина с нормальной плотностью распределения вероятностей и любым, в частности нулевым, математическим ожиданием.
Для доказательства свойства используем метод вариационного исчисления.
Если требуется найти максимум (или минимум) интеграла
\* MERGEFORMAT ()
при дополнительных условиях
\* MERGEFORMAT ()
то функция , доставляющая экстремум интеграла , находится из решения уравнения Эйлера
, \* MERGEFORMAT ()
где – некоторые константы (неопределенные множители Лагранжа), которые определяются путем подстановки функции , являющейся решением уравнения , в равенства .
В данном случае требуется найти такую функцию , при которой интеграл в выражении
\* MERGEFORMAT ()
достигает максимума при ограничивающих условиях
и , \* MERGEFORMAT ()
где принято, что математическое ожидание .
Согласно – соответствующие функции имеют вид
,
, ,
их производные составляют
, , ,
а уравнение Эйлера задается соотношением
, \* MERGEFORMAT ()
из которого следует
. \* MERGEFORMAT ()
Для определения неизвестных и сначала подставим решение в первое условие :
. \* MERGEFORMAT ()
Отмечая, что величина должна быть отрицательной, поскольку в противном случае интеграл в расходится, и, используя табличное значение интеграла , из получаем
или
.
Тогда решение принимает вид
. \* MERGEFORMAT ()
Подставляя во второе условие и используя табличный интеграл , получаем
и, следовательно,
. \* MERGEFORMAT ()
Наконец, подставляя значение в , окончательно имеем
,
что
соответствует нормальному
Вычислить дифференциальную энтропию случайной величины U с нормальным распределением вероятностей .
Подставляя плотность под знак логарифма в формуле , получаем
\* MERGEFORMAT ()
Так как и в соответствии с формулой для дисперсии , из последнего выражения окончательно имеем
,
что совпадает с соотношением .
Информация о работе Характеристика непрерывных источников информации