Автор работы: Пользователь скрыл имя, 30 Марта 2012 в 00:13, курсовая работа
Цель исследования – проанализировать основные задания в ЕГЭ по информатике к теме «Кодирование информации» и провести методический пример подготовки к ЕГЭ и ГИА.
Задачи исследования:
- определить, что собой представляет информация в ЭВМ;
- раскрыть понятие «кодирование» и дать полное представление различным его видам;
26
Введение
В России все больше внедряется практика оценивания выпускников школ методом сдачи единого государственного экзамена (ЕГЭ).
ЕГЭ – это экзамен, который сегодня касается всех российских выпускников 9 и 11 классов. Единый государственный экзамен (ЕГЭ) начал проводиться в ряде российских школ с 2002 года – это был первый экспериментальный экзамен. В 2007 году сдача ЕГЭ была «узаконена» специально изданным законом: эта форма испытаний распространилась абсолютно на все школы всех субъектов РФ.
Подготовка к ЕГЭ должна быть грамотной и основательной: чем раньше учащиеся начнут готовиться к вступительным испытаниям и выберут действенные методы, тем больший эффект от занятий они получат.
Учителям следует активнее вводить тестовые технологии контроля знаний в систему обучения. С помощью тематических тестов можно оценивать уровень усвоения учебного материала в процессе обучения, а использование итоговых тестов в конце обучения позволит сформировать устойчивые навыки работы с тестовыми материалами. Зная типовые конструкции тестовых заданий, ученик практически не будет тратить время на понимание инструкции по их выполнению. Во время таких тренировок формируются соответствующие психотехнические навыки саморегуляции и самоконтроля. Основную часть работы по подготовке к тестированию нужно проводить заранее, отрабатывая отдельные детали при сдаче зачетов и классных самостоятельных или проверочных работ, в случаях не столь эмоционально напряженных, как контрольные работы или экзамены. Считается, что психотехнические навыки сдачи тестовых экзаменов не только повышают эффективность подготовки к таким экзаменам, позволяют более успешно вести себя во время экзамена, но и вообще способствуют развитию навыков мыслительной работы, умению мобилизовать себя в решающей ситуации, овладевать собственными эмоциями.
Подготовка к ЕГЭ по информатике стала актуальной с введением экзамена по информатике по выбору при окончании средней школы и введением в некоторых ВУЗах, включая и гуманитарные, вступительных экзаменов по информатике. К таким ВУЗам относятся многие институты управления, институты экономики и финансов, институты биотехнологии, технические университеты. По информатике разработано множество элективных курсов, но более подходящий для подготовки к ЕГЭ, охватывающий все разделы кодификатора ЕГЭ по информатике пока отсутствует (Антонов Ю.С., Павлов Н.Н., Иванов А.П. 2004).
Средний процент выполнения заданий на тему «Кодирование информации» колеблется от 88% (знание кодовых таблиц) до 55% (знание математических основ записи чисел в позиционных системах счисления). Помимо кодовых таблиц не вызывают затруднений задания на двоичное кодирование – средний процент выполнения от 88% до 79%, в зависимости от варианта. На наш взгляд, необходима более тщательная подготовка учащихся по данному разделу курса информатики для успешной сдачи Единого Государственного Экзамена. Выше указанные проблемы определи тему нашего исследования «Подготовка учащихся к ГИА и ЕГЭ к решению задач по теме «Кодирование информации».
Объект исследования - подготовка учащихся к итоговой аттестации по информатике.
Предмет исследования - подготовка учащихся к ГИА и ЕГЭ к решению задач по теме "кодирование информации".
Цель исследования – проанализировать основные задания в ЕГЭ по информатике к теме «Кодирование информации» и провести методический пример подготовки к ЕГЭ и ГИА.
Задачи исследования:
- определить, что собой представляет информация в ЭВМ;
- раскрыть понятие «кодирование» и дать полное представление различным его видам;
- проанализировать основные задания в ЕГЭ по информатике к теме «Кодирование информации»;
- провести методический анализ подготовки учащихся к ЕГЭ и ГИА;
- рассмотреть структуру содержания ЕГЭ.
Данная работа состоит из введения, основной части, заключения, списка использованной литературы и приложения. В введении доказывается актуальность темы по проблеме исследования, формулируется объект, предмет, цель и задачи исследования. Основная часть разделена на два раздела. Первый раздел имеет теоретический характер. В нем рассматриваются основные понятия по теме исследования. Во втором разделе раскрываются основные виды кодирования информации: кодирование звуковой, текстовой и графической информации. В приложении представлен конспект урока по подготовке учащихся к тестовым заданиям ЕГЭ и ГИА.
Заключение содержит выводы по исследуемой работе.
Глава 1. Представление информации в ЭВМ
1.1 Непрерывная и дискретная информация
Человек воспринимает информацию с помощью органов чувств. Свет, звук, тепло – это энергетические сигналы, а вкус и запах – это результат воздействия химических соединений, в основе которого тоже энергетическая природа. Человек испытывает энергетические воздействия непрерывно и может никогда не встретиться с одной и той же их комбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютно одинаковых звуков – это информация аналоговая. Если же разным цветам дать номера, а разным звукам – ноты, то аналоговую информацию можно превратить в цифровую.
Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала (Ершова А.П., Монахова В.М. 1985).
В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов - дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь] (см. рис. 1). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Для этого из бесконечного множества значений этой функции (параметра сигнала) выбирается их определенное число, которое приближенно может характеризовать остальные значения. Один из способов такого выбора состоит в следующем. Область определения функции разбивается точками x1, x2,... хn, на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке; полученная на этом этапе функция называется в математике ступенчатой. Следующий шаг – проецирование значений “ступенек” на ось значений функции (ось ординат). Полученная таким образом последовательность значений функции у1, у2, ... уn. является дискретным представлением непрерывной функции, точность которого можно неограниченно улучшать путем уменьшения длин отрезков разбиения области значений аргумента.
Рис. 1. Процедура дискретизации непрерывного сообщения
Ось значений функции можно разбить на отрезки с заданным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений (рис. 1). В итоге получим конечное множество чисел, определяемых, например, посередине или одной из границ таких отрезков.
Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита (Карасев П.Н. 2002).
Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки. Существуют и другие вычислительные машины – аналоговые ЭВМ. Они используются обычно для решения задач специального характера и широкой публике практически не известны. Эти ЭВМ в принципе не нуждаются в дискретизации входной информации, так как ее внутреннее представление у них непрерывно. В этом случае все наоборот – если внешняя информация дискретна, то ее “перед употреблением” необходимо преобразовать в непрерывную.
Единицы количества информации: вероятностный и объемный подходы.
Определить понятие “количество информации” довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к “объемному” подходу.
Вероятностный подход.
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.
Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:
H = f (N), (1.1)
а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.
Рассмотрим процедуру бросания кости более подробно:
1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;
2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;
3) обозначим неопределенность данного опыта после его осуществления через H2. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей “до” и “после” опыта:
I = H1 – H2 (1.2)
Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим “З”.
Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равно N в степени М:
X=NM. (1.3)
Так, в случае двух бросаний кости с шестью гранями имеем: Х=62=36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 – соответственно исходы первого и второго бросаний (общее число таких пар – X).
Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем – “однократных бросаний кости”. Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый “принцип аддитивности энтропии”):
f(6M) = M ∙ f(6)
Данную формулу можно распространить и на случай любого N:
F(NM) = M ∙ f(N) (1.4)
Прологарифмируем левую и правую части формулы (1.3):
lnX=M ∙ lnN, М=lnX/1nM.
Подставляем полученное для M значение в формулу (1.4):
Обозначив через К положительную константу, получим: f(X) =К ∙ lnХ, или, с учетом (1.1), H=K ∙ ln N. Обычно принимают К = 1 / ln 2. Таким образом
H = log2 N. (1.5)
Это – формула Хартли.
Важным при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N=2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты, при котором возможны два исхода: “орел”, “решка”). Такая единица количества информации называется “бит”.
Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на “долю” каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)1N. При этом вероятность i-го исхода Рi равняется, очевидно, 1/N.
Таким образом,
(1.6)
Та же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравно вероятны (т.е. Рi могут быть различны). Формула (1.6) называется формулой Шеннона.
В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5)
Н = log2 34 ≈ 5 бит.
Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов (Кушниренко А.Г. 1993).
В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs – двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).