Автор работы: Пользователь скрыл имя, 10 Февраля 2013 в 11:01, курсовая работа
Термин информация обычно используется в различных смысловых значениях. На бытовом уровне под информацией понимается любое знание о чем-либо или передача и обработка данных в системах связи и вычислительной технике. Однако имеется множество определений информации, относящихся к различным сферам деятельности человека. Исследования свидетельствуют о том, что единого универсального определения информации не существует
ВВЕДЕНИЕ 3
Глава 1. Информация об информации 5
1.1. К истории вопроса об информации 5
1.2. Определение понятия «информация» 7
1.3 Информация – свойство материального мира 10
Глава 2. Информация и сложные системы. 15
2.1 Информационные процессы в обществе 15
2.2 Шенноновская информация – изгнание смыслового содержания 18
2.3. Энтропия и информация 20
2.4 Саморождение смысла 22
ЗАКЛЮЧЕНИЕ 28
СПИСОК ЛИТЕРАТУРЫ 29
Человеком разработаны технические устройства, в том числе современные компьютеры, которые специально предназначены для автоматической обработки информации.
Жизнедеятельность любого организма или нормальное функционирование технического устройства связаны с процессами управления.
Процессы управления включают в себя получение, хранение, преобразование и передачу информации.
В любом процессе управления всегда происходит взаимодействие двух объектов – управляющего и управляемого, которые соединены каналами прямой и обратной связи.
По каналу прямой связи передаются управляющие сигналы, а по каналу обратной связи - информация о состоянии управляемого объекта.
Сигнал (англ. signal, от лат. signum – знак) – это знак, физический процесс или явление, несущие сообщение о каком-либо событии, состоянии объекта либо передающие команды управления, оповещения и т. д.
По своей природе сигнал может быть:
Сигналы могут преобразовываться (без изменения несомой ими информации) из одного вида в другой, более удобный для последующей передачи, восприятия, хранения, переработки.
Процесс передачи информации:
Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал.
Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.
Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.
В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, то есть измерить информацию.
В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.
Помимо двух подходов к определению
количества информации (они будут
рассмотрены в следующем
Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.
В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).
Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.
А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Обработка информации – получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.
Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.
Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.
Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов. Живые организмы и растения обрабатывают информацию с помощью своих органов и систем. [10]
Для объяснения понятия информации по Шеннону сначала рассмотрим несколько примеров. Когда мы бросаем монету, возможны два исхода. Когда мы бросаем игральную кость, возможны шесть исходов. При бросании монеты мы получаем информацию двух типов: орел или решка. При бросании игральной кости мы получаем информацию о выпадении одного из шести чисел от 1 до 6. Аналогичным образом мы можем, задавая вопросы, получать ответы типа «да» или «нет» и т. д. Понятие информации по Шеннону относится просто к числу возможных исходов, или ответов. Для бросания монеты Z = 2, для бросания игральной кости Z = 6. Как мы увидим в дальнейшем, собственно мерой информации служит не само число Z, а его логарифм, причем обычно принято брать логарифм цо основанию 2, т.е. информация по определению равна величине [8]
I = log2N (2.2.1)
Это выражение является формулой Хартли. Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста.
По формуле Хартли можно вычислить, какое количество информации для этого требуется:
I = log2100 ≈ 6,644. (2.2.2)
То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.
Приведем другие примеры равновероятных сообщений:
при бросании монеты: "выпала решка", "выпал орел";
на странице книги: "количество букв чётное", "количество букв нечётное".
Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина".
Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.
Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. [10]
Рассмотрим, например, такой язык, как английский. Буквы его алфавита a, b, с, ... можно обозначить числами у' = 1, 2, 3,..., т. е. установить соответствие а->1, b->2 и т.д. Затем мы можем подсчитать частоты Nj с которыми встречаются в какой-нибудь книге или, быть может, библиотеке буквы а, Ь, с,.... Определим относительную частоту буквы, обозначенной нами j, как величину
(2.2.3)
где N- общее число подсчитанных букв: N= Средняя информация, приходящаяся на одну букву в обследованной книге (или библиотеке) определяется выражением [8]
(2.2.4)
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли. [10]
Шеннон использовал определение информации (2.2.4) при изучении пропускной способности канала связи-способности передавать информацию даже при наличии помех. Для дальнейшего особое значение имеют две особенности шенноновской информации. 1) Шенноновская информация никак не связана со смыслом передаваемого сигнала. В его концепцию информации не входят такие ее аспекты, как осмысленность или бессмысленность, полезность или бесполезность и т. д. 2) Шенноновская информация относится к замкнутым системам. Имеется ограниченный резервуар сигналов, число которых равно Z. [8]
Рассмотрим случай, когда весь идеальный газ состоит только из одной частицы. Поначалу кажется, что это абсолютно абсурдный подход, но не будем слишком поспешны в своих суждениях. Если одна частица заключена в сосуде объемом V со стенками, находящимися при температуре Г, то рано или поздно она придет в равновесие с этими стенками. В каждый момент времени она, разумеется, находится в одной определенной точке пространства и имеет вполне определенную скорость. Однако мы можем условиться проводить все процессы настолько медленно, что частица не только успеет в среднем заполнить все пространство объема V, но и сможет многократно поменять величину и направление скорости при неупругих столкновениях со стенками сосуда. В этом случае можно говорить о частице, имеющей максвелловское распределение по скоростям и в среднем равномерно заполняющей сосуд. Здесь очень важным является условие, что мы ничего не хотим знать о частице кроме того, что она соударяется со стенками и оказывает на них среднее давление и что ее распределение по скоростям является максвелловским с температурой Т.
Теперь мы можем, например, адиабатически сжимать эту частицу, и в среднем ее действие на стенки будет в точности таким же, как у N частиц, но только в N раз меньшим. Не спеша можно изменять и температуру частицы, соответствующим образом меняя температуру стенок сосуда и давая возможность частице прийти в тепловое равновесие со стенками.
Среднее давление одной частицы на стенку при N = 1 равно, очевидно, р = T/V, а средняя плотность n = 1/V. Для этой частицы мы опять можем организовать цикл Карно и тем самым создать идеальную тепловую микромашину, полностью обратимую и имеющую КПД µ =1-, теперь с помощью некоторых идеальных устройств и с привлечением второго начала термодинамики мы постараемся установить связь между энтропией и информацией.
Начнем с самого простого случая изотермических процессов. Итак, положим Т =const. С помощью первого начала термодинамики при Т =const и соотношении р = T/V получаем
TdS=pdV=T (2.3.1)
Отсюда нахрдим, что изменение энтропии не зависит от величины Т, так что можно положить
S=ln (2.3.2)
Работа изотермического процесса тоже выглядит довольно просто
W= T = Tln (2.3.3)
Как мы видим, работа выражается просто через разность соответствующих энтропии. Продолжим наши идеальные мыслительные эксперименты. Допустим, что у нас есть идеальные перегородки, которыми мы можем делить сосуд на части без затраты энергии или рождения новой энтропии. Разделим наш сосуд на две равные части с объемом V/2 каждая. Частица при этом остается в одной из половин, но в которой мы пока не знаем. Допустим теперь, что у нас имеется средство или некоторый измерительный прибор, с помощью которого можно определить, где именно находится частица. Если это так, то из начального симметричного распределения вероятностей 50% на 50% нахождения на в двух половинах мы получаем вероятность 100% для одной из половин. Происходит как бы "стягивание", или "коллапс"» распределения вероятностей. Соответственно, и новая энтропия оказывается меньше исходной энтропии на величину ΔS=ln2. За счет уменьшения энтропии можно совершить механическую работу. Для этого достаточно сдвигать перегородку в сторону пустого объема вплоть до полного его исчезновения, когда частица вновь займет полный объем. Соответствующая работа равна W = TΔS = T ln2. Если при этом во внешнем мире ничего бы больше не менялось, то повторяя эти циклы, можно построить вечный двигатель второго рода. Но поскольку второй закон термодинамики запрещает получение работы просто за счет тепла, то во внешнем мире должно что-то происходить. Что же происходит еще? Обнаружение частицы в одной из половин меняет информацию о частице. А именно, из двух возможных половинок указывается только одна, в которой находится частица. Это знание соответствует в точности одному биту информации. Процесс измерения уменьшает энтропию частицы и ровно настолько же увеличивает информацию измерительного прибора. Если совершать повторные деления пополам полученных ранее половинок, четвертушек, восьмушек и т.д., то энтропия будет последовательно уменьшаться, а информация увеличиваться. Другими словами:
S + I = const.
Чем больше известно о частице, или в более общем случае о физической системе, тем меньше ее энтропия.
Но теперь мы можем сделать вывод, что появление информации во внешнем мире (или внешних приборах) невозможно без возрастания энтропии внешнего окружения на величину, не меньшую ΔI. Другими словами, информация, т.е. определенная порция порядка, может быть усвоена внешними приборами автоматами или просто внешним миром только за счет появления во внешнем окружении дополнительного беспорядка (теплового движения) с возрастанием энтропии не меньшим, чем усвоено информации.
Другими словами, любое измерение, которое увеличивает информацию о частице» должно обязательно сопровождаться увеличением энтропии прибора или окружения. Это своеобразная "плата за знание".[6]
Как уже упоминалось, синергетику можно рассматривать как теорию возникновения новых качеств на макроскопическом уровне. При надлежащей интерпретации результатов синергетики мы можем рассматривать возникновение смысла как возникновение нового качества системы, или, иначе говоря, как саморождение смысла. Чтобы понять, как происходит саморождение смысла, мы намереваемся сравнить физическую систему, а именно лазер, с несколькими модельными системами биологии. Начнем с нескольких общих замечаний о роли информации в биологических системах.
Одна из наиболее поразительных особенностей любой биологической системы - необычайно высокая степень координации между ее отдельными частями. В клетке одновременно и согласованно могут происходить тысячи метаболических процессов. У животных от нескольких миллионов до нескольких миллиардов нейронов и мышечных клеток своим согласованным действием обеспечивает координированные движения, сердцебиение, дыхание и кровообращение. Распознавание образов-процесс в высшей степени кооперативный, равно как и речь и мышление у людей. Совершенно очевидно, что все эти высоко координированные, когерентные процессы становятся возможными только путем обмена информацией, которая должна быть произведена, передана, принята, обработана, преобразована в новые формы информации и должна участвовать в обмене информацией между различными частями системы и вместе с тем, как мы увидим в дальнейшем, между различными иерархическими уровнями. Так мы приходим к непреложному выводу о том, что информация является решающим элементом существования самой жизни.
Информация может обретать роль своего рода среды, существование которой поддерживается отдельными частями системы-среды, из которой эти части получают конкретную информацию относительно того, как им функционировать когерентно, кооперативно. Именно на этом уровне в игру вступает семантика.