Социально-экономичесское исследование

Автор работы: Пользователь скрыл имя, 27 Октября 2013 в 16:43, курсовая работа

Описание

Цель курсовой работы заключается в проведении статистического исследования основной тенденции динамики социально-экономических явлений.
На основании поставленной цели необходимо рассмотреть следующие задачи:
– понятие и сущность социально-экономических явлений;
– понятие, формы и виды статистических показателей социально-экономических явлений;
– предмет, методы и типология социально-экономического прогнозирования;
– рассмотреть понятие корреляционно-регрессионной зависимости;
– изучить множественную регрессию и корреляцию;

Содержание

Введение 3
Глава 1. Теоретические аспекты статистического исследования социально-экономических явлений 5
1.1. Понятие и сущность социально-экономических явлений в статистике 5
1.2. Понятие, формы и виды статистических показателей 9
1.3. Социально-экономическое прогнозирование: предмет, методы и типология прогнозов 12
ГЛАВА 2. СТАТИСТИЧЕСКОЕ ИЗУЧЕНИЕ КОРРЕЛЯЦИОННО-РЕГРИССИОННОГО АНАЛИЗА 16
2.1. Понятие корреляционно-регрессионной зависимости 16
2.2. Множественная регрессия 20
2.3. Множественная корреляция 28
Глава 3. Практическое использование корреляционно-регрессионного анализа социально-экономических явлений в России 33
Заключение 50
Список использованной литературы 52
Приложения 54

Работа состоит из  1 файл

Социально-экономич исследование.docx

— 183.23 Кб (Скачать документ)

Такие связи можно обнаружить только при  массовом наблюдении как статистические закономерности (на основе изучения особенностей распределения, поведения средних и других показателей). Выявленная таким образом связь именуется стохастической или статистической[10].

Корреляционная  связь — понятие более узкое, чем статистическая связь, это, как уже говорилось, частный случай статистической (стохастической) связи[2].

Предметом изучения статистики являются в основном стохастические, корреляционные связи.

Слово «корреляция» (от английского correlation) означает соотношение, соответствие. Оно удачно отражает особенность зависимости, при которой определенному значению одного факторного признака может соответствовать несколько значений результативного показателя. На основе этих значений можно определить среднюю величину последнего, соответствующую каждому конкретному значению одного факторного признака или ряда признаков.

Связь, проявляющаяся при большом числе  наблюдений в виде определенной зависимости  между средним значением результативного признака и признаками-факторами, называется корреляционной. Другими словами, корреляционную связь условно можно рассматривать как своего рода функциональную связь средней величины одного признака (результативного) со значением другого (или других). При этом, если рассматривается связь средней величины результативного показателя у с одним признаком-фактором х, корреляция называется парной, а если факторных признаков два и более (хр xv…хт) — множественной.

При изучении множественной корреляции вводится еще понятие частной корреляции, под которой понимается зависимость между результативным показателем у и одним из факторных признаков х. в условиях, когда влияние на них остальных факторов, учитываемых на фиксированном уровне, устранено[10].

По  характеру изменений х и у в парной корреляции различают прямую и обратную связь.

При прямой зависимости значения обоих признаков изменяются в одном направлении, т.е. с увеличением значений х увеличиваются и значения у, с уменьшением значений факторного признака уменьшаются и значения результативного признака. Например, с ростом годового дохода в семье увеличивается (при прочих равных условиях) сумма сбережений за год или при уменьшении расхода электроэнергии на единицу продукции снижается себестоимость продукции.

При обратной зависимости значения факторного и результативного признаков изменяются в разных направлениях: например, при росте производительности труда себестоимость единицы продукции снижается или при снижении себестоимости продукции прибыль на предприятиях увеличивается и т.п.

Изучение  корреляционных связей сводится в основном к решению следующих задач[5]:

  • выявление наличия (или отсутствия) корреляционной связи между изучаемыми признаками. Эта задача может быть решена на основе параллельного сопоставления (сравнения) значений х и .у в каждой из п единиц совокупности, а также с помощью группировок и путем построения и анализа специальных корреляционных таблиц;
  • измерение тесноты связи между двумя (и более) признаками с помощью специальных коэффициентов. Эта часть исследования именуется корреляционным анализом;
  • определение уравнения регрессии — математической модели, в которой среднее значение результативного признака у рассматривается как функция одной или нескольких переменных — факторных признаков. Эта часть исследования именуется регрессионным анализом.

Последовательность  рассмотрения перечисленных задач, естественно, может меняться в каждом конкретном исследовании.

Таким образом, корреляционная зависимость между двумя признаками как частный случай стохастической связи выражается в вариации результативного признака у, вызванной изменением определенного факторного признака х в условиях взаимодействия его с множеством других факторов, не учитываемых при исследовании, но имеющихся в реальности.

Для выявления  наличия и характера такой  связи в статистике используется ряд методов: рассмотрение параллельных данных (значений х и у в каждой из п единиц); графический метод; метод аналитических группировок и корреляционных таблиц; расчет коэффициентов корреляции.

2.2. Множественная регрессия

 

Регрессионный анализ, по-видимому, наиболее широко используемый метод многомерного статистического анализа. Различные  аспекты регрессионного анализа  подробно рассмотрены в специальной  литературе. Термин «множественная регрессия» объясняется тем, что анализу подвергается зависимость одного признака (результирующего) от набора независимых (факторных) признаков. Разделение признаков на результирующий и факторные осуществляется исследователем на основе содержательных представлений об изучаемом явлении (процессе). Все признаки должны быть количественными (хотя допускается и использование дихотомических признаков, принимающих лишь два значения, например 0 и 1)[10].

Для корректного использования  регрессионного анализа требуется  выполнение определенных условий. Факторные  признаки должны быть некоррелированы (отсутствие мультиколлинеарности), они  предполагаются замеренными точно  и в их измерениях нет автокорреляции, т.е. значения признаков у одного объекта не должны зависеть от значений признаков у других объектов. Результирующий признак должен иметь постоянную дисперсию (Напомним определения основных показателей рассеяния (разброса) количественных признаков: дисперсии (D), среднеквадратического  отклонения (σ) и коэффициента вариации (V).

                 

                  (1)

здесь n - число объектов; xj- значение признака xn для j -го объекта;  - среднее значение признака X. .

Чем сильнее степень разброса значений признака X, тем больше значения D, σ  и V , Коэффициент вариации V - сопоставимая величина для признаков разной природы, его значения выражаются в процентах.

При изучении связей таких признаков можно корректно вычислить выборочные оценки, построить доверительные интервалы.), не зависящую от факторных признаков (наличие гомоскепастичности). Число объектов должно превосходить число признаков в несколько раз, чтобы параметры уравнения множественной регрессии были статистически надежными. Исследуемая совокупность должна быть в достаточной мере качественно однородной. Существенные нарушения этих условий приводят к некорректному использованию моделей множественной регрессии.

При построении регрессионных моделей  прежде всего возникает вопрос о  виде функциональной зависимости, характеризующей  взаимосвязи между результирующим признаком и несколькими признаками-факторами. Выбор формы связи должен основываться на качественном, теоретическом и  логическом анализе сущности изучаемых  явлений.

Чаще всего ограничиваются линейной регрессией, т.е. зависимостью вида[9]:

                 

                    (2)

где Y - результирующий признак; x1, …, xm - факторные признаки; b1,…,bm - коэффициенты регрессии; а - свободный член уравнения; - ''ошибка" модели.

Уравнение (2) является линейным по коэффициентам bj и в общем случае нелинейным по признакам Xj, где j=1,2,…,m (в уравнении (2) вместо Xj могут стоять Xj2 log Xj и т.д.). Вопрос о том, нужны ли преобразования исходных факторов Xj, а если нужны, то какие, подробно рассматривается в литературе. Наиболее распространенным на практике является логарифмическое преобразование (log X). Его используют, если наибольшее значение Х вдвое (или больше) превышает наименьшее при высокой корреляции между Х и Y (rXY>0,9). Если максимальное значение X в 20 или более раз превосходит минимальное, то это преобразование необходимо почти всегда.

В большинстве приложений регрессионной  модели (2) признаки берут в исходном виде, т.е. уравнение (2) получается линейным и по признакам X1,...,Xm. При использовании нелинейных преобразований исходных признаков регрессионную модель (2) нередко называют нелинейной регрессией.

Коэффициенты регрессии bj определяются таким образом, чтобы рассогласования ε, характеризующие степень приближения реальных значений результирующего признака Y с помощью линейной модели были минимальными, Это достигается на основе метода наименьших квадратов[9].

Если уравнение множественной  регрессии (2) уже построено, то в вариации результирующего признака Y можно выделить часть, обусловленную изменениями факторных признаков, т.е. объясненную с помощью регрессионной модели, и остаточную, необъясненную часть. Очевидно, чем большую часть вариации признака V объясняет уравнение регрессии, тем точнее по значениям факторных признаков можно восстановить значение результирующего, и, следовательно, тем теснее связь между ними. Естественной мерой тесноты этой связи служит отношение дисперсии признака  Y, объясненной регрессионной моделью, к общей дисперсии признака Y :

Величина R называется коэффициентом  множественной корреляции и определяет степень тесноты связи результирующего  признака Y со всем набором факторных  признаков X1,...,Xm. В случае парной регрессии (т.е. при наличии всего одного фактора X1)  совпадает с обычным коэффициентом парной корреляции rx,y. (Коэффициент корреляции rx,y - статистическая мера тесноты линейной связи пары признаков X и Y. Значения rx,y находятся в пределах [-1;+1]; чем ближе rx,y к , тем теснее связь данной пары признаков, тем ближе она к функциональной. Значения rx,y, близкие к нулю, указывают на отсутствие линейной связи признаков. Чем ближе R2 к единице, тем точнее описывает уравнение регрессии (2) эмпирические данные.

Укажем содержательный смысл коэффициентов bj, в уравнении множественной линейной регрессии (I): величина bj - показывает, насколько в среднем изменяется результирующий признак Y при увеличении соответствующего фактора Xj на единицу шкалы его измерения при фиксированных (постоянных) значениях других факторов, входящих в уравнение регрессии (т.е. оценивается «чистое» воздействие каждого фактора на результат).

Из этого определения следует, что коэффициенты регрессии bj непосредственно не сопоставимы между собой, так как зависят от единиц измерения факторов Xj. Чтобы сделать эти коэффициенты сопоставимыми, все признаки выражают в стандартизированном масштабе[10]:

             

          (3)

где  и , - средние значения признаков Y и Xj, σY и σXi средние квадратичные отклонения признаков Y и Xi.

Уравнение множественной регрессии, построенное с использованием стандартизованных  признаков, называется стандартизованным  уравнением регрессии, а соответствующие коэффициенты регрессии - стандартизованными, или β (бэта) – коэффициентами. Между коэффициентами Вj и βi- существует простая связь[9]:

                                 

                                       (4)

Стандартизованный коэффициент регрессии  βi показывает, на сколько средних квадратичных отклонений σY изменяется Y при увеличении Xj – на одно среднеквадратическое отклонение , если остальные факторы, входящие в уравнение регрессии считать неизменными.

Сопоставление факторов можно проводить  и не на основе β  –коэффициентов, а по их «вкладу» в объясненную дисперсию.

В том случае, когда модель множественной  регрессии строится для выборочной совокупности, необходимо проверять  значимость коэффициентов регрессии  Вj (с этой целью используется t -критерий Стыодента), а также коэффициента множественной корреляции R (этой цели служит F-критерий Фишера). С помощью F-критерия осуществляется проверка достоверности и соблюдения условий, которым должна удовлетворять исходная информация в уравнении множественной регрессии.

Указанные критерии математической статистики используют и при изучении взаимосвязей признаков в генеральной совокупности. В этом случае проверяют, не вызвана  ли выявленная статистическая закономерность стечением случайных обстоятельств, насколько она характерна для  того комплекса условий, в которых  находится обследуемая совокупность. Эта совокупность - не выборка из реальной генеральной совокупности, существование которой лишь предполагается. Имеющиеся данные рассматривают  как выборку из некоторой гипотетической совокупности единиц, находящихся в  тех же условиях. Гипотетическая совокупность является научной абстракцией. При  интерпретации вероятностной оценки результатов сплошного наблюдения (оценки значимости и т.д.) надо учитывать, что в действительности никакой  генеральной совокупности нет. Устанавливается не истинность полученного результата для какой-то более обширной генеральной совокупности, а степень его закономерности, свободы от случайных воздействий.

Данный подход к оценке результатов  сплошного наблюдения последовательно  излагается в литературе по математической статистике. Его широко используют на практике, в частности для отсева незначимых по t-статистике факторов. Здесь необходимо отметить, что этот метод проверки существенности факторов заслуживает доверия лишь в тех случаях, когда признаки-факторы не коррелированы (или весьма слабо коррелированны), что зачастую невыполнимо на практике. В моделях множественной регрессии с взаимокоррелированными признаками возможны ситуации, когда t -критерий будет давать ложные результаты, указывая на статистическую незначимость признаков, в действительности существенно влияющих на результирующий признак[5].

Информация о работе Социально-экономичесское исследование