Автор работы: Пользователь скрыл имя, 24 Ноября 2011 в 00:58, курсовая работа
Метод математического моделирования, сводящий исследование явлений внешнего мира к математическим задачам, занимает ведущее место среди других методов исследования, особенно в связи с появлением ЭВМ. Он позволяет проектировать новые технические средства, работающие в оптимальных режимах, для решения сложных задач науки и техники; проектировать новые явления. Математическая модель проявили себя как важное средство управления.
1.Введение………………………………………………………………………….
1.1. Корреляционно-регрессионный анализ……………………………………..
1.2. Корреляционно-регрессионный анализ и его возможности……………….
1.3. Предпосылки корреляционного и регрессионного анализа………………..
1.4. Метод наименьших квадратов (расчёт коэффициентов)…………………
1.5. Интерпретация параметров регрессии…………………………………….
2. Программа для расчёта полиномиальной корреляции……………………….
3.Расчёт , выбор полиномиальной и графической зависимости………………..
4.Список литературы……………………………………………………………....
Корреляционный
анализ имеет своей задачей
Теснота
связи количественно выражается
величиной коэффициентов
Предпосылки корреляционного и регрессионного анализа
Перед
рассмотрением предпосылок
После обработки данных на предмет «аномальности» следует провести проверку, насколько оставшаяся информация удовлетворяет предпосылкам для использования статического аппарата при построении моделей, так как даже незначительные отступления от этих предпосылок часто сводят к нулю получаемый эффект. Следует иметь ввиду, что вероятностное или статистическое решение любой экономической задачи должно основываться на подробном осмыслении исходных математических понятий и предпосылок, корректности и объективности сбора исходной информации, в постоянном сочетании с теснотой связи экономического и математико-статистического анализа.
Для применения корреляционного анализа необходимо, чтобы все рассматриваемые переменные были случайными и имели нормальный закон распределения. Причем выполнение этих условий необходимо только при вероятностной оценке выявленной тесноты связи.
Рассмотрим простейшие случай выявления тесноты связи – двумерную модель корреляционного анализа.
Для характеристики тесноты связи между двумя переменными обычно пользуются парным коэффициентом корреляции , если рассматривать генеральную совокупность, или его оценкой – выборочным парным коэффициентом , если изучается выборочная совокупность. Парный коэффициент корреляции в случае линейной формы связи вычисляют по формуле
,
а его выборочное значение – по формуле
При малом числе наблюдений выборочный коэффициент корреляции удобно вычислять по следующей формуле:
Величина коэффициента корреляции изменяется в интервале .
При между двумя переменными существует функциональная связь, при - прямая функциональная связь. Если , то значение Х и У в выборке некоррелированы; в случае, если система случайных величин имеет двумерное нормальное распределение, то величины Х и У будут и независимыми.
Если коэффициент корреляции находится в интервале , то между величинами Х и У существует обратная корреляционная связь. Это находит подтверждение и при визуальном анализе исходной информации. В этом случае отклонение величины У от среднего значения взяты с обратным знаком.
Если каждая пара значений величин Х и У чаще всего одновременно оказывается выше (ниже) соответствующих средних значений, то между величинами существует прямая корреляционная связь и коэффициент корреляции находится в интервале .
Если же отклонение величины Х от среднего значения одинаково часто вызывают отклонения величины У вниз от среднего значения и при этом отклонения оказываются все время различными, то можно предполагать, что значение коэффициента корреляции стремится к нулю.
Следует отметить, что значение коэффициента корреляции не зависит от единиц измерения и выбора начала отсчета. Это означает, что если переменные Х и У уменьшить (увеличить) в К раз либо на одно и то же число С, то коэффициент корреляции не изменится.
Регрессио́нный анализ (линейный) — статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных (см. Ложная корреляция), а не причинно-следственные отношения.
Цели регрессионного анализа
Регрессионный
анализ нельзя использовать для определения
наличия связи между
Математическое определение регрессии
Строго
регрессионную зависимость
y(x1,x2,...,xp) = E(Y | X1 = x1,X2 = x2,...,Xp = xp) (уравнение линейной регрессии в общем виде),
то функция y(x1,x2,...,xp) называется регрессией величины Y по величинам X1,X2,...,Xp, а ее график — линией регрессии Y по X1,X2,...,Xp, или уравнением регрессии.
Зависимость Y от X1,X2,...,Xp проявляется в изменении средних значений Y при изменении X1,X2,...,Xp. Хотя при каждом фиксированном наборе значений X1 = x1,X2 = x2,...,Xp = xp величина Y остается случайной величиной с определенным рассеянием.
Для выяснения
вопроса, насколько точно регрессионный
анализ оценивает изменение Y при
изменении X1,X2,...,Xp,
используется средняя величина дисперсии
Y при разных наборах значений X1,X2,...,Xp
(фактически речь идет о мере рассеяния
зависимой переменной вокруг линии регрессии).
Метод
наименьших квадратов (расчёт
коэффициентов)
На практике линия регрессии чаще всего ищется в виде линейной функции Y = b0 + b1X1 + b2X2 + ... + bNXN (линейная регрессия), наилучшим образом приближающей искомую кривую. Делается это с помощью метода наименьших квадратов, когда минимизируется сумма квадратов отклонений реально наблюдаемых Y от их оценок (имеются в виду оценки с помощью прямой линии, претендующей на то, чтобы представлять искомую регрессионную зависимость):
(M — объём выборки). Этот подход основан на том известном факте, что фигурирующая в приведённом выражении сумма принимает минимальное значение именно для того случая, когда Y = y(x1,x2,...xN).
Для решения задачи регрессионного анализа методом наименьших квадратов вводится понятие функции невязки:
Условие минимума функции невязки:
Полученная система является системой N + 1 линейных уравнений с N + 1 неизвестными b0...bN
Если представить свободные члены левой части уравнений матрицей
а коэффициенты при неизвестных в правой части матрицей
то получаем матричное уравнение: , которое легко решается методом Гаусса. Полученная матрица будет матрицей, содержащей коэффициенты уравнения линии регрессии:
Для
получение наилучших оценок необходимо
выполнение предпосылок МНК (условий Гаусса−Маркова).
В англоязычной литературе такие оценки
называются BLUE (Best Linear Unbiased Estimators) − наилучшие
линейные несмещенные оценки
Интерпретация
параметров регрессии
Параметры bi являются частными коэффициентами корреляции; (bi)2 интерпретируется как доля дисперсии Y, объяснённая Xi, при закреплении влияния остальных предикторов, т.е. измеряет индивидуальный вклад Xi в объяснение Y. В случае коррелирующих предикторов возникает проблема неопределенности в оценках, которые становятся зависимыми от порядка включения предикторов в модель. В таких случаях необходимо применение методов анализа корреляционного и пошагового регрессионного анализа.
Говоря о нелинейных моделях регрессионного
анализа, важно обращать внимание на то,
идет ли речь о нелинейности по независимым
переменным (с формальной точки зрения
легко сводящейся к линейной регрессии), или о нелинейности
по оцениваемым параметрам (вызывающей
серьезные вычислительные трудности).
При нелинейности первого вида с содержательной
точки зрения важно выделять появление
в модели членов вида X1X2,
X1X2X3, свидетельствующее
о наличии взаимодействий между признаками
X1, X2 и т.д.
2.
Программа для расчёта
полиномиальной корреляции
program lab_rab;
uses crt;
var
n,i:integer;
ty:array[1..3,1..100] of real;
st1,st2,st3,st4 :real;
sy,syt1,syt2 :real;
d,d1,d2,d3 :real;
r,a1,a0,a2
:real;
function opr(a11,a12,a13,a21,a22,a23,
begin
opr:=a11*a22*a31+a21*a32*a13-
end;
begin
clrscr;
writeln;
readln(n);
if(n>0)and(n<101)then
begin
writeln ;
for i:=1 to n do readln(ty[1,i],ty[2,i]);
st1:=0;st2:=0;st3:=0;st4:=0;
sy:=0;syt1:=0;syt2:=0;
for i:=1 to n do
begin
st1:=st1+ty[1,i]/n;