Автор работы: Пользователь скрыл имя, 08 Января 2011 в 15:28, реферат
Структура изложения такова. Сначала описан ряд частных теорий информации, обладающих весьма ограниченной областью применения, но дающих хорошие результаты для определенных классов явлений. Каждая из этих теорий сама по себе связана с теми или иными философскими обобщениями и потому их рассмотрение имеет непосредственное отношение к теме реферата. Далее раскрывается связь понятия информации с философскими категориями различия и отражения. Определение информации, получаемое на этом пути, принимается в качестве наиболее общего и используется всюду в оставшейся части.
Второй раздел посвящен системам и информационным процессам в них. Дано общее определение системы и уточнены отдельные аспекты этого понятия. Отдельно рассмотрен класс систем, имеющий особую важность, — сложные самоуправляемые (кибернетические) системы.
В третьем разделе описана связь понятия информации с законами и категориями диалектики. Особое внимание уделено категориям причинности, пространства, времени и развития.
ВВЕДЕНИЕ 2
КОБЩЕМУ ОПРЕДЕЛЕНИЮ ПОНЯТИЯ ИНФОРМАЦИИ 3
КОЛИЧЕСТВЕННЫЕ ТЕОРИИ ИНФОРМАЦИИ. МЕРА ШЕННОНА 3
КАЧЕСТВЕННЫЙ АСПЕКТ ИНФОРМАЦИИ 4
ИНФОРМАЦИЯ КАК ФУНКЦИЯ РАЗНООБРАЗИЯ 6
ОТРАЖЕНИЕ И ИНФОРМАЦИЯ 7
ИНФОРМАЦИЯ И СЛОЖНЫЕ СИСТЕМЫ 9
К ОПРЕДЕЛЕНИЮ ПОНЯТИЯ СИСТЕМЫ 9
ИНФОРМАЦИЯ В КИБЕРНЕТИЧЕСКИХ СИСТЕМАХ 11
ИНФОРМАЦИЯ В ТЕОРЕТИКО-ИГРОВЫХ МОДЕЛЯХ 13
СВЯЗЬ ИНФОРМАЦИИ С ЗАКОНАМИ И КАТЕГОРИЯМИ ДИАЛЕКТИКИ 14
ЗАКОНЫ ДИАЛЕКТИКИ И ИНФОРМАЦИЯ 14
ИНФОРМАЦИЯ И РАЗВИТИЕ 15
ИНФОРМАЦИЯ, ЗАКОНЫ ПРИРОДЫ И ПРИЧИННОСТЬ 16
ПРОСТРАНСТВО-ВРЕМЯ И ИНФОРМАЦИЯ 18
ИНФОРМАЦИЯ И ОБЩЕСТВО 19
ОСОБЕННОСТИ СОЦИАЛЬНОЙ ИНФОРМАЦИИ 19
НАУЧНО-ТЕХНИЧЕСКАЯ ИНФОРМАЦИЯ И ПОЗНАНИЕ 21
ОБЩЕСТВО И ИНФОРМАТИЗАЦИЯ 22
ЗАКЛЮЧЕНИЕ 25
ЛИТЕРАТУРА 25
В человеческом общении особую роль играет смысл информации, то есть семантический аспект. Одна из известных семантических теорий — теория Р. Карнапа и Й. Бар-Хиллела [А11], использующая аппарат символической логики. По существу, каждому предложению, выражающему законченную мысль, ставится в соответствие его вероятность (мера истинности). Когда из более простых суждений образуются более сложные, вероятность последнего вычисляется по определенным правилам исходя из вероятностей исходных суждений. Таким образом, теория Карнапа — Бар-Хиллела основывается на вероятностной логике.
Допустим, имеется начальное достоверное знание о мире , и пусть — гипотеза. Методы вероятностной логики позволяют вычислить степень новизны гипотезы по сравнению с начальным знанием — . Степень новизны тем больше, чем меньше данная гипотеза следует из установленных фактов. Очевидно, если сбъекту будет сообщена новая информация, никак не следующая из имеющегося у него запаса знаний, то субъект получит большое количество информации. Наоборот, если то, что субъекту сообщено, и без того следует из известных фактов, то никакой новой информации субъект не получает. На основании этого в теории Карнапа — Бар-Хиллела степень новизны сообщения и считается количеством семантической информации.
С точки зрения данной семантической теории высказывание «На Марсе есть жизнь» содержит немалое количество информации, ибо эта гипотеза не подтверждена имеющимися экспериментальными данными. В то же время высказывание «На Земле есть жизнь» оказывается лишенным семантической информации, ибо это достоверное знание. Хотя положение, лежащее в основе теории, согласуется со здравым смыслом, последовательное проведение такой точки зрения, очевидно, должно приводить к неадекватностям.
Другой подход к формализации семантического аспекта был предложен Ю. А. Шрейдером. В его модели информацией обладают не только гипотезы, но вообще любые сведения, которые изменяют запас знаний (тезаурус) приемника информации. В общем случае семантический аспект выражает отношение между информацией как компонентом отражения и отражаемым объектом, который играет роль передатчика информации. В модели Ю. А. Шрейдера количество семантической информации, содержащееся, например, в каком-либо тексте, измеряется степенью изменения тезауруса под воздействием этого текста. Это изменение может быть определенным способом измерено количественно. При чтении школьного учебника тезаурус школьника существенно расширяется, — ученик получает новую информацию. Тезаурус же академика при чтении того же учебника не изменяется, он не получает семантической информации, не изменяет запаса знаний.
В любом случае учет семантического аспекта требует рассмотрения отношения двух сторон: информации и воспринимающего субъекта, так как одна и та же информация для двух разных людей может обладать различным смыслом. Синтаксический аспект информации требует рассмотрения лишь одной стороны, то есть самой информации. Рассмотрим теперь еще одно отношение, трехстороннее — между информацией, субъектом и целью, которую ставит перед собой субъект. Это отношение соответствует высшему, прагматическому аспекту.
Одним из наиболее важных прагматических свойств информации является ценность. Ценность информации вначале была определена с помощью теоретико-вероятностного подхода (А. А. Харкевич). А именно, если до получения сообщения вероятность достижения цели субъектом была , а после его получения стала , то ценность полученной информации (или прагматическое количество информации) определяется через приращение этой вероятности. Существуют и другие подходы к определению ценности информации, среди которых особое место занимают теоретико-игровые модели.
Важно
отметить, что ценность одного и
того же сообщения существенно зависит
как от субъекта, так и от поставленной
цели. Вне связи с целью
Учет
прагматического аспекта
Из изложеного можно сделать вывод, что развитие учений об информации происходит одновременно во многих направлениях. Каждое направление фиксирует определенную сторону понятия информации и имеет свою область применимости. При выходе за границы этой области эффективность применения того или иного подхода резко падает и может даже привести к ошибочным выводам. Наилучшего, универсального определения среди перечисленных (и многих других) формальных математических определений информации нет.
Примечательно, что при анализе всех трех семиотических аспектов информации: синтаксического, семантического и прагматического, первыми разрабатывались вероятностные теории, а затем происходил постепенный тход от вероятностных моделей. Тем самым само понятие информации освобождалось от слишком узких вероятностных представлений.
Количественные меры информации выступают как наиболее простой уровень научного знания об информации. После овладения количественными методами неизбежен подъем на следующую ступень — постижение глубокой сущности информации. Из приведенного далеко не полного перечня несводимых друг к другу частных теорий информации обнаруживается многогранность и сложность понятия информации. В связи с этим возникает вопрос о наиболее общем определении информации, не специально-научном, а философском, которое бы не противоречило ни одной из существующих частных теорий и содержало бы их в себе в виде частных случаев.
В основе более широкого подхода к определению понятия информации лежит представление о тесной связи информации и разнообразия. Данная точка зрения является в настоящее время наиболее широко распространенной и аргументированной [А6]. Согласно этой концепци природа информации заключается в разнообразии, а количество информации выражает количество разнообразия.
Концепция разнообразия хорошо согласуется со всеми упоминавшимися ранее теориями информации. Так, в статистической теории рассматривается разнообразие сообщений, а устранение неопределенности можно представить как ограничение разнообразия возможностей до одной реализовавшейся действительности. Рассмотрим пример. Пусть дано множество, состоящее из 10 различных элементов, то есть множество, обладающее большим внутренним разнообразием. Выбор одного, заранее не указанного, элемента, говоря языком статистической теории, устраняет неопределенность . Если же совокупность однообразна, то есть состоит из совершенно одинаковых элементов, принадлежащих к одному типу, то случайный выбор элемента никакую неопределенность не устраняет: мы и так заранее знаем, к какому типу будет принадлежать выбранный элемент ( ). Следовательно, чем больше разнообразие элементов, теи больше информации заключено в акте выбора одного из них.
В
комбинаторной теории рассматривается
разнобразие элементов и
Таким образом, каждая частная теория информации изучает некоторый специальный вид разнообразия. То, что для одной теори выступает как разнообразие (информация), для другой может быть однообразием, тождеством (отсутствием информации). Так, одно и то же сообщение (однообразие на уровне синтаксиса) может иметь разный смысл для различных субъектов (разнообразие на уровне семантики). Наоборот, два сообщения, совершенно различных с синтаксической точки зрения, могут нести одинаковый смысл. Поэтому синтаксические теории информации имеют дело с иным типом разнообразия, чем семантические.
Методологическая
эффективность и
Определяя информацию как меру разнообразия, мы имеем в виду информацию, взятую в определенный момент времени, в одномоментном срезе. Соответственно, все информационные процессы должны рассматриваться как трансформации, количественные и качественные изменения разнообразия, передача разнообразия во времени и пространстве.
Статистическая теория вводит в рассмотрение процесс ограничения неопределенности, акт выбора. Иными словами, статистическая теория — это не столько теория информации, сколько теория элементарных форм движения информации. Сама же информация определяется на основе процесса своего движения. То, что концепция разнообразия свободна от акта выбора, является ее существенным достоинством, так как жесткая привязка понятия информации к процессам ее движения сужает область применимости теории.
Подход к определению информации, близкий к концепции разнообразия, имеется и в работах академика В. М. Глушкова. Он характеризует информацию как «меру неоднородности в распределении энергии (или вещества) в пространстве и во времени». «Информация существует постольку, поскольку существуют сами материальные тела и, следовательно, созданные ими неоднородности. Всякая неоднородность несет с собой какую-то информацию». (Цитируется по [А11].)
Данное определение информации имеет одно важное следствие. Разнообразие (различие) объективно свойственно всей материи. Любые два объекта хоть чем-то различаются (иначе это не были бы разные объекты), и сам по себе каждый объект содержит внутренние различия. Следовательно, определяя информацию на основе понятия разнообразия, мы тем самым признаем, что информация является атрибутом материи, носит всеобщих характер, и что информационные процессы свойственны в том числе и неживой природе.
Выше понятие информации было определено на основе понятия разнообразия, и, следовательно, на основе категории различия. В настоящем разделе будет показана связь понятия информации и категории отражения ([А6], [А8], [А10], [А11], [Б9], [Б16], [Б17], [Б18]). В частности, определение «информация = разнообразие» оказывается неполным, и для исчерпывающего определения необходимо привлечь отражение.
Рассмотрение содержания категории отражения начнем с понятия взаимодействия и причинности. Воздействие одного тела на другое сопряжено с отражением. При этом объект, являющийся причиной, называется отражаемым, а объект-следствие — отражающим. Отражение является стороной причинной связи. Из всего содержания понятия взаимодействия извлекается лишь определенный аспект. Под отражением в широком смысле понимается процесс и результат воздействия одной материальной системы на другую, который представляет собой воспроизведение в иной форме особенностей (черт, сторон, структуры) одной системы в особенностях (чертах, структуре) другой системы. В процессе взаимодействия в общем случае возможны и другие изменения, которые не соответствуют особенностям отражаемой системы. Но от этих последних изменений при определении отражения отвлекаются.
Если попытаться раскрыть, в чем именно заключается соответствие между отражающим и отражаемым, то можно прийти к такому определению. Отражение — это воздействие одной материальной системы на другую, ведущее к установлению определенного (конкретного) тождества между системами, когда внутренние различия одной системы (отражающей) соответствуют внутренним различиям другой системы (отражаемой).