Автор работы: Пользователь скрыл имя, 09 Октября 2011 в 15:18, шпаргалка
Общая теория статистики
56. Виды статистических связей
В процессе
статистического исследования зависимостей
вскрываются причинно-
Причинно-следственные отношения – это связь явлений и процессов, когда изменение одного из них – причины – ведет к изменению другого – следствия.
Причина – совокупность условий, обстоятельств, действия которых приводит к появлению следствия. Причинные связи носят всеобщий многообразный характер. Для обнаружения причинно-следственных связей необходимо отбирать отдельные явления и изучать их изолированно.
Особенностью причинно-следственных связей является их транзитивность, т.е. причина x и следствие y связаны следующим образом
Статистическое изучение связей состоит из этапов:
1) качественный анализ изучаемого явления
2) построение
модели связи (методы
3) интерпретация полученных результатов.
В статистике по степени тесноты различают функциональную связь и стохастическую зависимость. Функциональной называют связь, при которой определенному значению факторного признака соответствует одно и только одно значение результативного признака.
Если причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений, то такая зависимость называется стохастической. Частным случаем стохастической связи является корреляционная связь, при которой изменении среднего значения результативного признака обусловлено изменением факторных признаков.
По направлению выделяют связь прямую и обратную. При прямой связи с увеличением или уменьшением значений факторного признака происходит увеличение или уменьшение значений результативного. В случае обратной связи значения результативного признака изменяются под воздействие факторного в противоположном направлении по сравнению с изменением факторного признака.
По аналитическому выражению выделяют связи прямолинейные и нелинейные.
Если
статистическая связь между явлениями
может быть приближенно выражена
уравнением прямой линии, то ее называют
линейной связью; если же она выражается
уравнением какой-либо кривой линии
– то нелинейной или криволинейной.
57. Методы выявления статистических связей
Для выявления наличия связи, ее характера и направления используются методы приведения параллельных данных, аналитических группировок, графический, корреляции и регрессии.
Метод проведения параллельных данных основан на сопоставлении двух или нескольких рядов статистических величин. Данное сопоставление позоляет установить наличие связи и получить представление о ее характере.
Графический метод
Графическая взаимосвязь двух признаков изображается с помощью поля корреляции.
Корреляция – это статистическая зависимость между случайными величинами, не имеющими строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.
Виды зависимостей:
Корреляционный анализ имеет своей задачей количественное определение тесноты связи между двумя признаками.
Теснота
связи количественно выражается
величиной коэффициентов
Теснота связи при линейной зависимости измеряется с помощью линейного коэффициента корреляции:
Линейный коэффициент корреляции изменяется в пределах от -1 до+1.
По степени
тесноты связи различают
Величина коэффициента корреляции | Характер связи |
До ±0,3 | Практически отсутствует |
±0,3 – ±0,5 | Слабая |
±0,5 – ±0,7 | Умеренная |
±0,7 – ±1,0 | Сильная |
Теснота
связи при криволинейной
Эмпирическое корреляционное отношение:
Регрессионный анализ заключается в определении аналитического выражения связи, в котором изменение одной величины обусловлено влиянием одной или нескольких независимых величин (факторов).
По форме зависимости различают:
- линейную регрессию, которая выражается уравнением прямой (линейной функции) вида:
- нелинейную регрессию, которая выражается уравнениями вида:
парабола -
гипербола - и т.д.
По направлению связи различают:
А) прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением независимой величины значения зависимой также соответственно увеличиваются или уменьшаются;
Б) обратную
(отрицательную) регрессию, появляющуюся
при условии, что с увеличением
или уменьшением независимой
величины зависимая соответственно
уменьшается или увеличивается.
58. Парная регрессия
Парная регрессия характеризует связь между двумя признаками: результативным и факторным.
Оценка параметров уравнения регрессии а0, а1 осуществляется методом наименьших квадратов, в основе которого лежит предположение о независимости наблюдений исследуемой совокупности и нахождении параметров модели, при котором минимизируется сумма квадратов отклонений фактических значений результативного признака от теоретических, полученных по уравнению регрессии:
Система нормальных уравнений для нахождения параметров линейной парной регрессии методом наименьших квадратов имеет следующий вид:
где n – объем исследуемой совокупности (число единиц наблюдения).
В уравнениях
регрессии параметр а0 показывает
усредненное влияние на результативный
признак неучтенных факторов; параметр
а1 – коэффициент регрессии показывает,
на сколько изменяется в среднем значение
результативного признака при изменении
факторного на единицу его собственного
измерения.
59. Метод наименьших квадратов
Сущность метода заключается в нахождении параметров модели, при которых минимизируется сумма квадратов отклонений эмпирических значений результативного признака от теоретических полученных по выбранному уравнению ргрессии.
для линейной зависимости
для параболической зависимости
для гиперболической
60. Множественная регрессия
Изучение связи между тремя и более связанными между собой признаками носит название множественной (многофакторной) регрессии. При исследовании зависимостей методами множественной регрессии требуется определить аналитическое выражение связи между результативным признаков (Y) и множеством факторных признаков (x1, x2, x3,…xn).
Построение
моделей множественной
выбор формы связи (уравнения регрессии);
отбор факторных признаков;
обеспечение достаточного объема совокупности для получения реальных оценок.
Практика построения многофакторных моделей показывает, что все реально существующие зависимости между социально-экономическими явлениями можно описать, используя пять типов моделей:
линейная;
степенная;
показательная;
параболическая;
гиперболическая.
Качество уравнения регрессии зависит от степени достоверности и надежности исходных данных и объема совокупности.
Немаловажное значение имеет процедура отбора факторов в уравнение. Наиболее приемлемым способом отбора факторных признаков является шаговая регрессия. Сущность метода шаговой регрессии заключается в последовательном включении факторов в уравнение регрессии и последующей проверке их значимости.
Если при включении нового фактора в модель, коэффициенты регрессии меняют не только свои значения, но и знаки, а множественный коэффициент корреляции не возрастает, то данный факторный признак признается нецелесообразным для включения в модель связи.
Сложность и взаимно переплетение отдельных факторов, обуславливающих исследуемое экономическое явление, могу проявляться в так называемой мультиколлинеарности. Под мультиколлинеарностью понимается тесная зависимость между факторными признаками, включенными в модель. Одним из индикаторов определения мультиколлинеарности между признаками является превышение парным коэффициентом корреляции величины 0,8.
При наличии линейной связи между результативным и несколькими факторными признака, а также между парой факторных признаков определяется множественный коэффициент корреляции:
Множественный коэффициент корреляции изменяется в пределах от 0 до 1. Чем ближе R к единице свидетельствует о сильной зависимости между признаками.