Автор работы: Пользователь скрыл имя, 11 Мая 2012 в 18:41, курсовая работа
Целью настоящей работы является исследование понятия энтропии и его применения для описания реальных явлений, взаимосвязь энтропии и информации.
В связи с поставленной целью можно формулировать следующие задачи исследования:
дать определение термина «информация» и рассмотреть ее свойства, виды;
рассмотреть виды информационных систем;
рассмотреть, как экономия энергии зависит от энтропии.
Введение. 4
Понятие информации. 5
Информационные системы. 9
Связь информации с энтропией. 17
Энергия и энтропия. 24
Заключение. 26
Список использованной литературы. 27
Предложенная
Р.Хартли мера количества информации имеет
ограниченное применение, поскольку
предполагает равную вероятность выбора
источником любого из возможных его
состояний. В общем случае, когда
вероятности различных
Когда К. Шеннон искал способ количественного описания информации, содержащейся в некотором сообщении, то логические рассуждения вывели его на формулу фактически того же вида, что и у энтропии S, определяемой формулой Планка – Больцмана и характеризующейся термодинамической вероятностью W,
S=k∙ln
W,
k = 1,38 ∙ 10 -16 эрг/град – постоянная Больцмана.
В
противоположность обычной
Энтропию производят любые сложные системы, между ними в процессе эволюции идет обмен информацией, который сопровождается изменением энтропии, например при испарении воды утрачивается информация о пространственном расположении молекул, энтропия возрастает; если вода замерзнет, уменьшается неопределенность в расположении молекул, этот процесс сопровождается понижением энтропии [8]. При этом каждый бит информации имеет энтропийную цену:
1 бит = k ∙ ln2 = 0,97 ∙ 10 -23 Дж/град.
Приобретение информации происходит за счет изменения энтропии, т.е. физическая и информационная энтропии связаны друг с другом.
Численно количество информации равно той энтропии, которая имела место до получения информации. Количественное равенство информации и энтропии не означает торжественности этих понятий. Наоборот, они противоположны друг другу, так как информация равна не просто энтропии, а устраненной энтропии [2].
Ключом
к новому пониманию сущности феномена
информации и механизма информационных
процессов послужила
Л.
Бриллюэн писал, что информацию следует
рассматривать как
Из этого следует, что Л. Бриллюэн не приписывал любой информации свойства негэнтропии, а это свойство приписывал только связанной информации. Важно понять, какое физическое и информационное наполнение содержит термин негэнтропия. Таким образом, для характеристики степени порядка материальных объектов часто используют энтропию как неупорядоченность и негэнтропию, т.е. связанную информацию, как упорядоченность.
Физическая
энтропия является мерой энергетической
упорядоченности объекта и
Понимание физического смысла энтропии затруднено тем обстоятельством, что ее значение не может быть измерено никаким прибором, но зато вычисляется [6].
Физическая и термодинамическая энтропия и информационная энтропия системы принципиально различны. Если физическая и термодинамическая энтропии для замкнутых систем со временем не уменьшается, а растут в соответствии со вторым началом термодинамики, то информационная энтропия со временем может не увеличиваться, а уменьшаться для любых систем [4].
Поскольку
принципиально неустранимыми
Всякое явление двойственно, и оно одновременно содержит в себе некоторую хаотическую, броуновскую составляющую и упорядоченную составляющую, как составляющую хаоса, так и порядка.
Наряду
с общей положительной
Известно, что система обладает антиэнтропией даже тогда, когда для не существует полной процедуры воспроизведения. Полная процедура воспроизведения эквивалентна существованию полного алгоритма воспроизведения. Однако если простейшие системы алгоритмируемы, то природа в целом изобилует неалгоритмируемыми системами, к которым следует отнести сознание и, вероятно, все живые организмы. Круг математических задач, не имеющих общего логарифма для своего решения, относится к системам, не имеющих полной алгоритмической процедуры для своего воспроизведения.
В такой ситуации К. Шеннон количество информации I(ui), содержащееся в дискретных сообщениях ui , определил как функцию вероятности этих сообщений p(ui ) = pi и охарактеризовал величиной
H (U) = - log pi (1.3)
названой им энтропией [3].
Позаимствовать
термин из термодинамики посоветовал
К. Шеннону знаменитый математик
Джон фон Нейман. Полушутя Д. Нейман
обосновал свой совет тем, что
в среде математиков и
Основание логарифма в (1.3) выбирается из тех же соображений, что и в (1.1). Знак минус в равенстве (1.3) необходим для того, чтобы количество информации I(ui) было неотрицательным числом, так как pi = 1. Очевидно что, так же как мера H (U), определяемая (1.1), величина I(ui) обладает свойствами аддитивности и в случае достоверного сообщения, тогда p(ui ) = 1, I(ui) = 0. Однако теперь количество информации, содержащееся в дискретном сообщении, зависит от степени неожиданности этого сообщения, характеризуемой вероятностью его появления.
Количество информации, которое приходиться на одно сообщение ai определяется выражением
I(ai) = p(ai) ∙ log2 = - p(ai) ∙ log2 p(ai) (1.4)
т.е. количество информации в сообщении тем больше, чем меньше вероятность его наступления (чем более неожиданно его наблюдение).
Официальное рождение теории информации как научной дисциплины принято отсчитывать от основополагающей работы К. Шеннона «Математическая теория связи». Именно он ввел в обиход и двоичную единицу информации, впоследствии названую бит, и широко используемую сегодня меру количества информации и энтропии [3].
Итак, энтропия в термодинамики, введенная в 1865 г. Р. Клаузиусом, образовавшим ее от корня греческого слова «тропе», означающего «превращение», с добавлением заимствованной из слова «энергия» приставки «эн-», характеризует неопределенность теплового состояния системы, являясь мерой ее внутренней неупорядоченности. В информатике энтропия рассматривается как мера неопределенности системной ситуации [6].
Единицей измерения энтропии, как и информации, является бит. 1 бит – это та неопределенность, которую имеет источник с равновероятной выдачей двух возможный сообщений, обычно символов 0 и 1 [5].
Можно
сказать, что энтропия является мерой
молекулярного хаоса: чем она
больше, тем хаотичнее движение частиц
(например атомов или молекул). Второй
закон термодинамики
В
мировом процессе развития принцип
минимума диссипации энергии играет
особую роль. Суть его: если допустимо
не единственное состояние системы,
а целая совокупность состояний,
согласных с законами сохранения
и принципами, а также связями,
наложенными на систему, то реализуется
то состояние, которому соответствует
минимальное рассеивание
Принцип минимума диссипации энергии является частным случаем более общего принципа “экономии энтропии”.
В
природе все время возникают
структуры, в которых энтропия не
только не растет, но и локально уменьшается.
Этим свойством обладают многие открытые
системы, в том числе и живые,
где за счет притока извне вещества
и энергии возникают так
Таким образом, если в данных конкретных условиях возможны несколько типов организации материи, согласующихся с другими принципами отбора, то реализуется та структура, которой соответствует минимальный РОСТ энтропии. Так как убывание энтропии возможно только за счет поглощения внешней энергии, то реализуются те из возможных форм организации материи, которые способны в максимальной форме поглощать энергию.
Область применения принципа минимума диссипации энергии непрерывно расширяется. На протяжении всей истории человечества стремление овладеть источниками энергии и вещества было одним из важнейших стимулов развития и устремления человеческих интересов. И поэтому всегда было источником разнообразных конфликтов.
По
мере развертывания научно-
Если говорить об иерархии принципов отбора, то он играет роль как бы завершающего, замыкающего принципа: когда другие принципы не выделяют единственного устойчивого состояния, а определяют целое их множество, то этот принцип служит дополнительным принципом отбора. Проблема экономии энтропии, этой меры разрушения организации и необратимого рассеяния энергии, решается в мире живой природы. Существует теорема о минимуме воспроизводства энтропии, которая утверждает, что производство энтропии системой, находящейся в стационарном состоянии, достаточно близком к равновесному состоянию, минимально. Этот принцип можно рассматривать в качестве универсального. В живом веществе он проявляется не как закон, а как тенденция. В живой природе противоречие между тенденцией к локальной стабильности и стремлением в максимальной степени использовать внешнюю энергию и материю является одним из важнейших факторов создания новых форм организации материального мира [8].
Информационное общество диктует человеку нового времени свои правила. Оно ведет к отмиранию старых форм власти, культуры, общественного устройства и перераспределяет мировые процессы в соответствии доступа и доступности, управления информацией как основы управления миром.
Для удовлетворения неизбежно растущих потребностей самого «прожорливого» на идеи и технологии времени ученые постоянно изыскивают способы ускорить информационные процессы, совершенствуют электронную технику, уходят в область абстрактного мышления, пытаясь заменить более обычное реле сложным физико-химическим профессом, порождают наноэлектронику, оптические системы передачи данных, системы комплексной безопасности и другие.