Информация: понятие, свойства, измерение

Автор работы: Пользователь скрыл имя, 11 Декабря 2011 в 20:59, реферат

Описание

Слово “информация” латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом “информация” подразумевали: “представление”, “понятие”, затем-“сведения”, “передача сообщений”. В последние годы ученые решили, что обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “ мера определенности в сообщении”.

Работа состоит из  1 файл

Информация.docx

— 20.08 Кб (Скачать документ)

Введение                                

Слово “информация” латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом “информация” подразумевали: “представление”, “понятие”, затем-“сведения”, “передача сообщений”. В последние годы ученые решили, что обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “  мера определенности в сообщении”.  

Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях.

1. ПОНЯТИЕ ИНФОРМАЦИИ

       Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

       Информация  — это настолько общее и  глубокое понятие, что его нельзя объяснить одной фразой. В это  слово вкладывается различный смысл  в технике, науке и в житейских  ситуациях.

       В обиходе информацией называют любые  данные или сведения, которые кого-либо интересуют. Например, сообщение о  каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное  раньше".

     Информация  – одно из основных понятий науки. Наряду с такими понятиями, как вещество, энергия, пространство и время, оно  составляет основу современной научной  картины мира. Его нельзя определить через более простые понятия.

     В слово «информация» вкладывается различный  смысл в технике, науке, и в  житейских ситуациях.

     Под информацией в быту (житейский аспект) понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами.

     Под информацией в технике понимают сообщения, передаваемые в форме  знаков или сигналов.

     Под информацией в теории информации понимают не любые сведения ,а лишь те, которые снимают полностью или уменьшают существующую неопределенность. По определению К. Шеннона, информация – это  снятая неопределенность.

      Под информацией в кибернетике, по определению  Н. Винера, понимают ту часть знаний, которая используется для ориентирования, активного действия ,управления, т.е. в целях сохранения, совершенствования, развития системы. 

       Информация  — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах  и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы. 

       Одно  и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача  и т.п.) может содержать разное количество информации для разных людей  — в зависимости от их предшествующих знаний, от уровня понимания этого  сообщения и интереса к нему.

       Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным  для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно  или уже известно.

       Информация  есть характеристика не сообщения, а  соотношения между сообщением и  его потребителем. Без наличия  потребителя, хотя бы потенциального, говорить об информации бессмысленно. 

       В случаях, когда говорят об автоматизированной работе с информацией посредством  каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение  содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую  последовательность символических  обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой  последовательности символов увеличивает  информационный объём сообщения. 

       2. СВОЙСТВА ИНФОРМАЦИИ

       Информация  обладает следующими свойствами, характеризующими ее качественные признаки: достоверность, полнота, ценность, своевременность, понятность, доступность, краткость и др.   

       Информация  достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному  пониманию или принятию неправильных решений.

       Достоверная информация со временем может стать  недостоверной, так как она обладает свойством устаревать, то есть перестаёт  отражать истинное положение дел.  

       Информация  полна, если её достаточно для понимания  и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.  

       Точность  информации определяется степенью ее близости к реальному состоянию  объекта, процесса, явления и т.п.  

       Ценность  информации зависит от того, насколько  она важна для решения задачи, а также от того, насколько в  дальнейшем она найдёт применение в  каких-либо видах деятельности человека.  

       Только  своевременно полученная информация может  принести ожидаемую пользу. Одинаково  нежелательны как преждевременная  подача информации (когда она ещё  не может быть усвоена), так и её задержка.  

       Если  ценная и своевременная информация выражена непонятным образом, она может  стать бесполезной.

       Информация  становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.  

       Информация  должна преподноситься в доступной (по уровню восприятия) форме. Поэтому  одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.  

       Информацию  по одному и тому же вопросу можно  изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях. 

       3. ИЗМЕРЕНИЕ ИНФОРМАЦИИ

       Какое количество информации содержится, к  примеру, в тексте романа "Война  и мир", в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.

       А возможно ли объективно измерить количество информации? Важнейшим результатом  теории информации является вывод:

       В определенных, весьма широких условиях можно пренебречь качественными  особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных. 

       В настоящее время получили распространение  подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

       Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд  заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.  

       Формула Хартли:  

       Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле  Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 ” 6,644. То есть сообщение о  верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.  

       Приведем  другие примеры равновероятных сообщений:

       при бросании монеты: "выпала решка", "выпал орел";

       на  странице книги: "количество букв чётное", "количество букв нечётное".

       Определим теперь, являются ли равновероятными  сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все  зависит от того, о каком именно здании идет речь. Если это, например, станция  метро, то вероятность выйти из дверей первым одинакова для мужчины  и женщины, а если это военная  казарма, то для мужчины эта вероятность  значительно выше, чем для женщины.  

       Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную  неодинаковую вероятность сообщений  в наборе.  

       ФормулаШеннона:

       , 

       где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.   

       Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна , и формула Шеннона превращается в формулу Хартли.  

       Помимо  двух рассмотренных подходов к определению  количества информации, существуют и  другие. Важно помнить, что любые  теоретические результаты применимы  лишь к определённому кругу случаев, очерченному первоначальными допущениями.  

       В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

       Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.

       А в вычислительной технике битом  называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. 

       Бит — слишком мелкая единица измерения. На практике чаще применяется более  крупная единица — байт, равная восьми битам. Именно восемь битов требуется  для того, чтобы закодировать любой  из 256 символов алфавита клавиатуры компьютера (256=28).

       Широко  используются также ещё более  крупные производные единицы  информации:  

       1 Килобайт (Кбайт) = 1024 байт = 210 байт,

       1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

       1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.  

       В последнее время в связи с  увеличением объёмов обрабатываемой информации входят в употребление такие  производные единицы, как:  

       1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

       1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.  

       За  единицу информации можно было бы выбрать количество информации, необходимое  для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Информация о работе Информация: понятие, свойства, измерение