Шпоры по эконометрике - файл n1.doc

приобрести
Шпоры по эконометрике
скачать (196.5 kb.)
Доступные файлы (1):
n1.doc197kb.24.08.2012 08:47скачать

n1.doc

1. Парная регрессия и корреляция. Формулы для вычисления параметров модели. Экономическая интеграция параметров модели.

Парная регрессия представляет собой регрессию между двумя переменными – y и x , т. е. модель вида: , где y – зависимая переменная (результативный признак); x – независимая, или объясняющая, переменная (признак-фактор). Знак «^» означает, что между переменными x и y нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина y складывается из двух слагаемых:, где y – фактическое значение результативного признака; – теоретическое значение результативного признака, найденное исходя из уравнения регрессии; e – случайная величина, характеризующая отклонения реального значения результативного признака от теоретического, найденного по уравнению регрессии. Случайная величина e называется также возмущением. Она включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения.

В парной регрессии выбор вида математической функции может быть осуществлен тремя методами: 1) графическим; 2) аналитическим, т.е. исходя из теории изучаемой взаимосвязи; 3) экспериментальным. Линейная регрессия имеет вид: y = a+b*x+E это уравнение позволяет по заданным значениям фактора x находить теоретические значения результативного признака, подставляя в него фактические значения фактора x . Построение линейной регрессии сводится к оценке ее параметров – a и b. Формально a – значение y при x =0. Если признак-фактор x не может иметь нулевого значения, то вышеуказанная трактовка свободного члена a не имеет смысла, т.е. параметр a может не иметь экономического содержания. Параметр b называется коэффициентом регрессии. Его величина показывает среднее изменение результата с изменением фактора на одну единицу. Готовые формулы для нахождения параметров модели:

2. Ковариация, коэффициенты корреляции и детерминации: формулы для их расчета; статистическая и геометрическая интерпретация.

Ковариация – числовая характеристика совместного распределения двух случайных величин, равная математическому ожиданию произведения отклонений этих случайных величин от их математических ожиданий. Дисперсия – характеристика случайной величины, определяемая как математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

Уравнение регрессии всегда дополняется показателем тесноты связи. При использовании линейной регрессии в качестве такого показателя выступает линейный коэффициент корреляции r xy, который можно рассчитать по следующей формуле:

Линейный коэффициент корреляции находится в пределах: 1r xy 1.Чем ближе абсолютное значение r xy к единице, тем сильнее линейная связь между факторами (при rxy1 имеем строгую функциональную зависимость). Коэффициент детерминации характеризует долю дисперсии результативного признака y , объясняемую регрессией, в общей дисперсии результативного признака: .

3. Оценка значимости уравнения регрессии и его параметров.

После того как найдено уравнение линейной регрессии, проводится оценка значимости как уравнения в целом, так и отдельных его параметров. Проверить значимость уравнения регрессии – значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным и достаточно ли включенных в уравнение объясняющих переменных (одной или нескольких) для описания зависимой переменной. Чтобы иметь общее суждение о качестве модели из относительных отклонений по каждому наблюдению, определяют среднюю ошибку аппроксимации: Средняя ошибка аппроксимации не должна превышать 8–10%.

Оценка значимости уравнения регрессии в целом производится на основе F -критерия Фишера, которому предшествует дисперсионный анализ. Согласно основной идее дисперсионного анализа, общая сумма квадратов отклонений переменной y от среднего значения y раскладывается на две части – «объясненную» и «необъясненную»: где – общая сумма квадратов отклонений; – сумма квадратов отклонений, объясненная регрессией (или факторная сумма квадратов отклонений); – остаточная сумма квадратов отклонений, характеризующая влияние неучтенных в модели факторов. Определение дисперсии на одну степень свободы приводит дисперсии к сравнимому виду. Сопоставляя факторную и остаточную дисперсии в расчете на одну степень свободы, получим величину F -критерия Фишера: Фактическое значение F -критерия Фишера сравнивается с

табличным значением  F табл; k 1; k2 при уровне значимости  и степенях свободы k1 m и k 2n m1.При этом, если фактическое значение F - критерия больше табличного, то признается статистическая значимость уравнения в целом.

Для парной линейной регрессии m =1, поэтому

Величина F -критерия связана с коэффициентом детерминации R2 ее можно рассчитать по следующей формуле:
В парной линейной регрессии оценивается значимость не только уравнения в целом, но и отдельных его параметров. С этой целью по каждому из параметров определяется его стандартная ошибка: m b и m a. Стандартная ошибка коэффициента регрессии определяется по формуле:, где

Величина стандартной ошибки совместно с t –распределением Стьюдента при n-2 степенях свободы применяется для проверки существенности коэффициента регрессии и для расчета его доверительного интервала. Для оценки существенности коэффициента регрессии его величина сравнивается с его стандартной ошибкой, т.е. определяется фактическое значение t -критерия Стьюдента: которое затем сравнивается с табличным значением при определенном уровне значимости  и числе степеней свободы (n-2). Доверительный интервал для коэффициента регрессии определяется как btтаблmb. Поскольку знак коэффициента регрессии указывает на рост результативного признака y при увеличении признака-фактора x (b>0), уменьшение результативного признака при увеличении признака-фактора (b<0) или его независимость от независимой переменной (b =0), то границы доверительного интервала для коэффициента регрессии не должны содержать противоречивых результатов, например,1,5 b 0,8. Такого рода запись указывает, что истинное значение коэффициента регрессии одновременно содержит положительные и отрицательные величины и даже ноль, чего не может быть.

Стандартная ошибка параметра a определяется по формуле: Процедура оценивания существенности данного параметра не отличается от рассмотренной выше для коэффициента регрессии. Вычисляется t -критерий: , его величина сравнивается с табличным значением при n - 2 степенях свободы.

4. Парная нелинейная регрессия. Критерий для определения параметров модели. Линеаризация моделей. Индексы корреляции и детерминации, их свойства.

Если между экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих нелинейных функций. Различают два класса нелинейных регрессий: 1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, например y = a + b/ x ; 2. Регрессии, нелинейные по оцениваемым параметрам, например – y = a Ч xb – степенная; – показательная – y = a Чbx.

Регрессии нелинейные по включенным переменным приводятся к линейному виду простой заменой переменных. y =a +b /x может быть использована для характеристики связи удельных расходов сырья, материалов, топлива от объема выпускаемой продукции, времени обращения товаров от величины товарооборота, процента прироста заработной платы от уровня безработицы и в других случаях. Гипербола приводится к линейному уравнению простой заменой: z =1/ x . Несколько иначе обстоит дело с регрессиями нелинейными по оцениваемым параметрам, которые делятся на два типа: нелинейные модели внутренне линейные (приводятся к линейному виду с помощью соответствующих преобразований, например, логарифмированием) и нелинейные модели внутренне нелинейные (к линейному виду не приводятся). К внутренне линейным моделям относятся, например, степенная функция – y = a Ч xb, показательная –y = a Чbx . Среди нелинейных моделей наиболее часто используется степенная функция y a xb , которой предшествует процедура линеаризации - приводится к линейному виду логарифмированием: ln y lna xb ; ln y ln a b ln x ln; Y A b X , где Y ln y, X ln x, A ln a, ln. Параметр b – является коэффициентом эластичности. (Коэффициент эластичности показывает, на сколько процентов измениться в среднем результат, если фактор изменится на 1%.) Так как для функций коэффициент эластичности зависит от соответствующего значения фактора x , то обычно рассчитывается средний коэффициент эластичности:

Построению показательной модели y= a bx предшествует процедура линеаризации переменных путем логарифмирования ln y ln; ln y ln a  x ln bln; Y A  x B, где Y ln y, Bln b, A ln a, ln.

Уравнение нелинейной регрессии, так же, как и в случае линейной зависимости, дополняется показателем тесноты связи. В данном случае это индекс корреляции:

, где – общая дисперсия результативного признака y, – остаточная дисперсия. Величина данного показателя находится в пределах: 0  xy1. Чем ближе значение индекса корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии. Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака y , объясняемую регрессией, в общей дисперсии результативного признака: т.е. имеет тот же смысл, что и в линейной регрессии; Индекс детерминации 2xy можно сравнивать с коэффициентом детерминации r2xy для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина r2xy меньше 2xy. А близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию. Индекс детерминации используется для проверки существенности в целом уравнения регрессии по F -критерию Фишера: где 2xy– индекс детерминации, n – число наблюдений, m – число

параметров при переменной x . Фактическое значение F -критерия сравнивается с табличным при уровне значимости и числе степеней свободы k 2n m 1 (для остаточной суммы квадратов) и k 1m (для факторной суммы квадратов). О качестве нелинейного уравнения регрессии можно также судить и по средней ошибке аппроксимации, которая, так же как и в линейном случае, вычисляется по обычной формуле.

5. Множественная регрессия: суть; спецификация модели; линейные и нелинейные модели; критерии для определения параметров модели.

Парная регрессия может дать хороший результат при моделировании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Если же этим влиянием пренебречь нельзя, то в этом случае следует попытаться выявить влияние других факторов, введя их в модель, т.е. построить уравнение множественной регрессии

y  x1, x2 , ..., xm , где y – зависимая переменная (результативный признак), x i – независимые, или объясняющие, переменные (признаки-факторы). Множественная регрессия широко используется в решении проблем спроса, доходности акций, при изучении функции издержек производства, в макроэкономических расчетах и целом ряде других вопросов эконометрики. В настоящее время множественная регрессия – один из наиболее распространенных методов в эконометрике. Основная цель множественной регрессии – построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель. Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели. Он включает в себя два круга вопросов: отбор факторов и выбор вида уравнения регрессии.

Возможны разные виды уравнений множественной регрессии: линейные и нелинейные. Ввиду четкой интерпретации параметров наиболее широко используется линейная функция. В линейной множественной регрессии yab1x1b2x2...bmxm+Е параметры при x называются коэффициентами «чистой» регрессии. Они характеризуют среднее изменение результата с изменением соответствующего фактора на единицу при неизмененном значении других факторов, закрепленных на среднем уровне.

6. Что представляют собой фиктивные переменные?






7. Отбор факторов при построении множественной регрессии. Выделение факторов, ответственных за мультиколлинеарность. Определение параметров модели.

Отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй – на основе матрицы показателей корреляции определяют статистики для параметров регрессии.

Коэффициенты интеркорреляции (т.е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если rxixj0,7. Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга.

Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой и нельзя оценить воздействие каждого фактора в отдельности.

Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий: 1. Затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл. 2. Оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.

Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами. Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей, поскольку все недиагональные элементы rxixji j  были бы равны нулю. Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты корреляции равны единице, то определитель такой матрицы равен нулю.

Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.

Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь устранения мультиколлинеарности состоит в исключении из модели одного или нескольких факторов. Другой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними. При отборе факторов также рекомендуется пользоваться следующим правилом: число включаемых факторов обычно в 6–7 раз меньше объема совокупности, по которой строится регрессия. Если это соотношение нарушено, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что параметры уравнения регрессии оказываются статистически незначимыми, а F -критерий меньше табличного значения.

8. Уравнение множественной регрессии в стандартизированном масштабе. Интерпретация стандартизированных коэффициентов регрессии.

Уравнение множественной регрессии в стандартизированном масштабе:

, где ty, tx1,…,txm – стандартизированные переменные: , , для которых среднее значение равно нулю: , а среднее квадратическое отклонение равно единице: ; стандартизированные коэффициенты регрессии.

Стандартизованные коэффициенты регрессии показывают, на сколько единиц изменится в среднем результат, если соответствующий фактор xi изменится на одну единицу при неизменном среднем уровне других факторов. В силу того, что все переменные заданы как центрированные и нормированные, стандартизованные коэффициенты регрессии bi можно сравнивать между собой. Сравнивая их друг с другом, можно ранжировать факторы по силе их воздействия на результат. В этом основное достоинство стандартизованных коэффициентов регрессии в отличие от коэффициентов «чистой» регрессии, которые несравнимы между собой.

Коэффициенты «чистой» регрессии bi связаны со стандартизованными коэффициентами регрессии bi следующим образом:. Параметр a определяется как Рассмотренный смысл стандартизованных коэффициентов регрессии позволяет их использовать при отсеве факторов – из модели исключаются факторы с наименьшим значением .Частные коэффициенты эластичности: где bi – коэффициент регрессии для фактора x i в уравнении множественной

регрессии, частное уравнение регрессии.

Наряду с частными коэффициентами эластичности могут быть найдены средние по совокупности показатели эластичности: которые показывают на сколько процентов в среднем изменится результат, при изменении соответствующего фактора на 1%. Средние показатели эластичности можно сравнивать друг с другом и соответственно ранжировать факторы по силе их воздействия на результат.

9. Множественная корреляция. Индекс множественной корреляции, коэффициент детерминации, их свойства и интерпретация.

Практическая значимость уравнения множественной регрессии оценивается с помощью показателя множественной корреляции и его квадрата – показателя детерминации. Показатель множественной корреляции характеризует тесноту связи рассматриваемого набора факторов с исследуемым признаком или, иначе, оценивает тесноту совместного влияния факторов на результат. Независимо от формы связи показатель множественной корреляции может быть найден как индекс множественной корреляции: , где 2y– общая дисперсия результативного признака; 2ост – остаточная дисперсия. Границы изменения индекса множественной корреляции от 0 до 1. Чем ближе его значение к 1, тем теснее связь результативного признака со всем набором исследуемых факторов. Величина индекса множественной корреляции должна быть больше или равна максимальному парному индексу корреляции.

Расчет индекса множественной корреляции предполагает определение уравнения множественной регрессии и на его основе остаточной дисперсии: . Можно пользоваться следующей формулой индекса множественной детерминации:



При линейной зависимости признаков формула индекса множественной корреляции может быть представлена следующим выражением:



где  i – стандартизованные коэффициенты регрессии; r yxi – парные коэффициенты корреляции результата с каждым фактором. Формула индекса множественной корреляции для линейной регрессии получила название линейного коэффициента множественной корреляции, или, что то же самое, совокупного коэффициента корреляции.

Значимость уравнения множественной регрессии в целом, так же как и в парной регрессии, оценивается с помощью F -критерия Фишера.

1. Парная регрессия и корреляция. Формулы для вычисления параметров модели. Экономическая интеграция параметров модели
Учебный материал
© nashaucheba.ru
При копировании укажите ссылку.
обратиться к администрации