Автор работы: Пользователь скрыл имя, 24 Декабря 2012 в 17:13, курсовая работа
Наличие множества исходных признаков, характеризующих процесс функционирования объектов, заставляет отбирать из них наиболее существенные и изучать меньший набор показателей. Чаще исходные признаки подвергаются некоторому преобразованию, кото-рое обеспечивает минимальную потерю информации. Такое решение может быть обеспечено методами снижения размерности, куда относят факторный и компонентный анализ. Эти методы позволяют учитывать эффект существенной многомерности данных, дают возможность лако-ничного или более простого объяснения многомерных структур. Они вскрывают объективно существующие, непосредственно не наблюдае-мые закономерности при помощи полученных факторов или главных компонент. Они дают возможность достаточно просто и точно описать наблюдаемые исходные данные, структуру и характер взаимосвязей между ними. Сжатие информации получается за счет того, что число факторов или главных компонент – новых единиц измерения – исполь-зуется значительно меньше, чем было исходных признаков.
Задание……………………………………………………………………………3
Введение……………………………………………………………………….….4
1 Исследование на мультиколлинеарность……………………………..……5
2 Метод главных компонент………………………………………………..….7
2.1 Вычисление главных компонент……………………………………….…7
2.2 Экономическая интерпретация полученных главных компонент…..…12
2.3 Матрица наблюденных значений главных компонент……………...….12
2.4 Классификация объектов…………………………………………………13
2.5 Уравнение регрессии на главные компоненты………………………….13
3 Факторный анализ………………………………...…………………………15
3.1 Преобразование матрицы парных коэффициентов корреляции в редуцированную матрицу, получение матрицы факторных нагрузок и экономическая интерпретация ………………………………………………..…...16
3.2 Графическая классификация объектов по двум общим факторам…….19
3.3 Переход к обобщенным факторам с помощью варимаксного
вращения ……………………………………………………………………...19
3.4 Построение функции регрессии на выделенные общие факторы…......21
Список использованной литературы………………………………………...22
Приложения………………………………………………………..………...…23
I1= =0,458
I2= =0,667
I3=
На заданном уровне информативности выделено три главных компоненты.
Запишем матрицу =
Для получения нормализованного вектора перехода от исходных признаков к главным компонентам необходимо решить систему уравнений: , где - соответствующее собственное число. После получения решения системы необходимо затем нормировать полученный вектор.
Для решения данной задачи
воспользуемся функцией eigenve
В нашем случае первых
четырех главных компонент
Строим матрицу U, столбцами которой являются собственные вектора:
U= .
Матрица весовых коэффициентов:
А= .
Коэффициенты матрицы А являются коэффициентами корреляции между центрировано – нормированными исходными признаками и ненормированными главными компонентами, и показывают наличие, силу и направление линейной связи между соответствующими исходными признаками и соответствующими главными компонентами.
2.2 Экономическая интерпретация полученных главных компонент
Коэффициент матрицы А представляют собой коэффициенты корреляции между i-ой главной компонентой и j-ым исходным признаком.
Так как первая главная компонента зависит главным образом от первого (X5 – удельный вес рабочих в составе ППП) и третьего (X7 – коэффициент сменности оборудования) исходного признака, следовательно ее можно обозначить как «Эффективность основного производства». Вторая главная компонента тесно взаимосвязана со вторым (X6 – удельный вес покупных изделий) и четвертым (X9 – удельный вес потерь от брака) исходными признаками, ее можно обозначить как «Удельный вес затрат не приносящих прибыль». Третья главная компонента взаимосвязана с четвертым исходным признаком, поэтому ее обозначим «Удельный вес потерь от брака».
2.3 Матрица наблюденных значений главных компонент.
Мы получили ненормированные главные компоненты. Проведя нормирование полученных центрированных , получим . При нормировании дисперсия должна равняться 1, . Для этого нужно разделить на среднеквадратическое отклонение .
Обозначим - это матрица весовых коэффициентов, с помощью которой устанавливается связь между нормированными исходными признаками и нормированными главными компонентами.
Модель метода главных компонент:
где
- значение I-той стандартизированной переменной по j-ому объекту наблюдения;
- m-тая главная компонента по j-ому объекту наблюдения;
- весовой коэффициент m-той главной компоненты и I-той переменной.
Эту матрицу будем строить, исходя из соотношения ,
где - диагональная матрица, на главной диагонали которой стоят дисперсии соответствующих главных компонент в минус первой степени;
- транспонированная матрица факторных нагрузок;
Х- матрица наблюденных значений исходных признаков.
Данная формула хороша тем, что она верна и в том случае, если матрица
А не квадратная (т.е. выделено m<n главных компонент).
«Наблюденные» значения главных компонент приведены в Приложениях.
2.4 Классификация объектов.
Проведем классификацию объектов по первым двум главным компонентам.
Рис.1: Объекты в пространстве главных компонент.
На рис.1 видно, что первая группа характеризуется положительными значениями первой главной компоненты, а вторая группа характеризуется отрицательными значениями первой главной компоненты. При этом значения второй главной компоненты схожи у обеих групп.
2.5 Уравнение регрессии на
Построим уравнение регрессии
на выделенные главные
Процесс будет остановлен, когда величина достигнет своего максимума.
В итоге уравнение регрессии примет вид:
Подробный анализ, выполненный с помощью программы “Stadia”, приведен в Приложениях.
3.Метод главных факторов
Мы ставим перед собой задачу снижения размерности признакового пространства. С самого начала будем исходить из того, что мы n признаков попытаемся объяснить с помощью меньшего количества m-латентных признаков - общих факторов, где m<<n, а различия между исходными признаками и введёнными общими факторами, точнее их линейными комбинациями учтём с помощью так называемых характерных факторов.
Конечная
цель статистического
Итак, в
нашем распоряжении последовате
Предполагаем, что каждый признак является результатом воздействия m гипотетических общих и одного характерного факторов:
(1)
- весовые коэффициенты;
- общие факторы, которые
- характерный фактор для i-ого исходного признака;
- весовой коэффициент при i-ом характерном факторе.
Представим выражение (1) в матричной форме.
Введём обозначения:
Сумма матриц даёт:
Представим матрицы индивидуальных значений общих и характерных факторов. Иногда для удобства их представляют в одной матрице:
Модель (1) можно записать в матричной форме:
3.1 Преобразование матрицы парных коэффициентов корреляции в редуцированную матрицу.
Запишем корреляционную матрицу:
Следующим шагом будет –
Суть метода заключается в том, что в строке матрицы , соответствующей данному признаку, выбирается элемент с наибольшим абсолютным значением. Это наибольшее значение коэффициента корреляции записывается на главной диагонали.
h = 0,940 h =0,219 h =0,415 h =0,172 h =0,940
h = 0,3977 h =0,1175 h =0,2627 h =0,10025 h =0,4117
В j – ом столбце или строке отыскивают два наибольших значения коэффициентов корреляции и , тогда
h = 0,2314 h =0.0821 h =0,1717 h =0,0306 h =0,1956
h = 0,6562 h =0,8181 h =0,9407 h =0,2054 h =0,4315
Запишем матрицу , используя метод среднего коэффициента корреляции:
h = 0,3977 h =0,1175 h =0,2627 h =0,10025 h =0,4117
Построим матрицу Rh – редуцированную корреляционная матрица.
Для получения первого вектора коэффициентов первого главного фактора необходимо найти наибольшее собственное число матрицы и по нему построить соответствующий собственный вектор, затем нормировать его и умножить все компоненты этого вектора на ( для того, чтобы длина этого вектора была ), тогда получим искомый вектор .Затем необходимо найти матрицу рассеивания , обусловленную влиянием первого общего фактора, и матрицу остатков , которая содержит в себе связи, обусловленные влиянием всех общих факторов, начиная со второго. Далее переходим по той же схеме к поиску собственных чисел матрицы . Но, оказывается, что собственные числа и собственные вектора матриц и совпадают, начиная со второго, а это означает, что достаточно найти собственные числа матрицы , ранжировать их и найти собственные вектора.
Получим следующие собственные числа:
1=1.658 2=0.21 3=0.069 4=-0.105 =-0.542
Процесс выделения главных факторов прекращают как только сумма собственных чисел соответствующих выделенным главным факторам превысят след матрицы Rh. В нашем случае при выделении первых трех главных факторов , а То есть в нашем случае выделения трех главных факторов достаточно для объяснения корреляционных связей между признаками.
Положительное, максимальное
собственному числу: = , - ненормированный вектор полученный из =0
Найдем: , 1= .
Рассмотрим
второе положительное
3= , для =0,069
Матрица факторного отображения:
Произведем экономическую интерпретацию полученных общих факторов на основании матрицы факторных нагрузок А.
Первый главный фактор имеет тесную взаимосвязь с первым (X5 – удельный вес рабочих в составе ППП) и третьего (X7 – коэффициент сменности оборудования) исходного признака, следовательно его можно обозначить как «Эффективность основного производства». Второй общий фактор наиболее тесную взаимосвязь имеет со вторым исходным признаком, обозначим его как «Удельный вес покупных изделий». Третий главный фактор имеет очень низкую взаимосвязь со всеми исходными признаками
3.2 Графическая классификация
Чтобы графически
произвести классификацию
- транспонированная матрица факторных нагрузок;
- диагональная матрица, на главной диагонали которой стоят харак терности соответствующих общих факторов;
- матрица центрированно-
Матрица наблюденных значений общих факторов приведена в Приложениях.
Отобразим объекты наблюдения в пространстве первых двух общих факторов.
3.3 Переход к обобщенным факторам
с помощью варимаксного
В факторном
анализе при решении
Поскольку из множества положений системы координат надо выбрать одну, нужен критерий, который давал бы возможность судить о том, что мы близко подошли к своей цели. Таких критериев предложено много. Остановимся на наиболее часто используемом методе варимаксного вращения. Метод Варимакс рассчитывает Vj критерий качества структуры каждого фактора:
При помощи
метода «варимакс» достигают
максимального упрощения в
Рис.3: Классификация признаков.
Наша цель не
только снизить размерность