Шпоры - эконометрика - файл n1.doc

приобрести
Шпоры - эконометрика
скачать (627.5 kb.)
Доступные файлы (1):
n1.doc628kb.13.09.2012 10:30скачать

n1.doc


1. Предмет и место эконометрики как науки.

Предмет эконометрики. Эк-ка сформ-сь как самост дисциплина в нач ХХ в. на стыке 3-х дисциплин: эк-ки, стат-ки и мат-ки. Изуч. коллич. хар-ки эк. явл-й Задача эк-ки- построение моделей эк явлений и исп-е этих моделей д/опис-я, анализа и прогнозир-я. В действит-ти модели н. д/упр-я и д/принятия управленч. реш-й. Своеобразие Э.-примен-е методов точных наук к опис-ю деят-ти чела, т.е. к гум. наукам. Гл. метод в эк-ке – это регрессионный анализ, т.е. построение Ур-я связи по фактич. данным, по больш. наборам чисел. В эк-ке выделяют 3 раздела: регрессия (ур-е регресии), врем. ряды (регрессия, аргументом явл. вр.), с-мы ур-й. предназн-е. Эконометрика — наука, изучающая конкретные количественные и качественные взаимосвязи экономических объектов и процессов с помощью математических и статистических методов и моделей. Определение предмета эконометрики было дано в уставе Эконометрического общества, которое главными целями назвало использование статистики и математики для развития экономической теории.[1] Теоретическая эконометрика рассматривает статистические свойства оценок и испытаний, в то время как прикладная эконометрика занимается применением эконометрических методов для оценки экономических теорий. Эконометрика дает инструментарий для экономических измерений, а также методологию оценки параметров моделей микро- и макроэкономики. Кроме того, эконометрика активно используется для прогнозирования экономических процессов как в масштабах экономики в целом, так и на уровне отдельных предприятий.[2] При этом эконометрика является частью экономической теории, наряду с макро и микроэкономикой

Термин «эконометрика» состоит из двух частей: «эконо» — от «экономика» и «метрика» — от «измерение». Эконометрика (или эконометрия) входит в обширное семейство дисциплин, посвященных измерениям и применению статистических методов в различных областях науки и практики. Эконометрика — это не тоже самое, что экономическая статистика. Она на идентична и экономической теории, хотя значительная часть этой теории носит количественный характер.

Задачи решаемые с помощью экономтрики: 1. теория обоснования и наличия зависимости м/у эконом.переменными 2. наличие базовых данных, которые моделируют поведение эконом. агентов. 3. матем. Статические знания.

Задачи решаемые с помощью эконометрики:

  1. по прикладным целям

  2. по уравнению иерархии анализируемой экономики

  3. по профилю эконом. системы.

По прикладным целям две задачи:

  1. Прогнозирование экономич и соц.эконом. показателей

  2. Имитация различных возможных сценариев соц.эконом. развития анализируемой системы

В эконометрике 3-и основных класса моделей

1. Модель временных рядов

2. регрессионные модели

3. системы одновременных регрессионных уравнений




2. Экономико-математические и эконометрические модели.

. Сам термин “Э.” происходит от двух слов — экономия и метрика (т. е. измерение. Есть много определений Э. По нашему мнению, Э. — одно из ответвлений комплекса научных дисциплин, объединяемых понятием “экономико-математические методы”. Ее главным инструментом является эконометрическая модель (как определенный тип экономико-математических моделей), задачей — проверка экономических теорий на фактическом (эмпирическом) материале при помощи методов математической статистики.

Эконометрическая модель инструмент исследования и измерения количеств. связей между эконом. величинами. Полезны для более полного понимания сущности происходящих процессов, их анализа. Комплексные эконометрические модели – система регрессионных уравнений и тождеств, отражающих основные связи между макроэконом. величинами во всех элементах процесса воспроизводства.

Эконометрические модели: краткосрочные и долгосрочные, статические (на данный момент) и динамические (рассматриваются в развитии), делятся по уровню агрегирования (объединения) переменных, по способу выражения переменных, по целям: аналитичекие учебные, экпериметальные, операционные.

ТРИ ОСНОВНЫХ КЛАССА ЭКОНОМЕТРИЧЕСКИХ МОДЕЛЕЙ, которые применяются для анализа и прогноза:

1. Модели временных рядов (изучение и прогнозирования объема продаж)

а) трендаY(t)=T(t)+?t, T(t)-временной тренда, ?t-случайная компонента

б) сезонности Y(t)=S(t)+?t, S(t)-периодическая (сезонная) компонента.

В) тренда и сезонности Y(t)=S(t)+ T(t)+?t, Y(t)=S(t)* T(t)*?t

Существует 3 компонента врем.рядов:

 Тренд – тенденция или направление развития

 Колебания – значения показателя, повторяющееся с периодичностью.

 Случ.составляющая – неучтенное воздействие (наз. возмущения)

Различают 2 вида колебаний:

 сезонные– имеют период 12 месяцев

циклические, или конъюнктурные– период от 3х до 10ти лет и >. Связаны с цикличностью развития политических и экономических событий

2. Регрессионные уравнения с одним уравнением (линейные и нелинейные). Спрос на мороженное в зависимости от темпер. Окр. воздуха

f(x, B)=f(x1….xk, B1….Bp).

x1….xk – независимые переменные, B1….Bp – параметры.

3. Системы одновременных уравнений(описываются системой уравнений) пример спрос и предложение



QD- спрос на товар,

QS - предложение на товар, Р-цена, I- доход,

3. Понятие «вероятности». Три подхода к определению вероятности.

Вероятность – это мера того, что какое либо случайное событие произойдет. Принимает значения от 0 до1. 0- вероятность невозможна, 1- достоверным. Испытания – это любое действие которое приводит к определенному набору результатов. Событие – это конкретные результаты испытания или их сочетание. Три подхода к определению вероятности. КЛАССИЧЕСКИЙ, ЭМПИРИЧЕСКИЙ, СУБЪЕКТИВНЫЙ (ИНТУИТИВИСТСКИЙ)

1. Классический подход. Применяется когда возможны неопределенные результаты известны и равновероятны. В дальнейшем при помощи простой логики можно определить вероятность каждого исхода. В качестве примера подбрасывание монеты.



2. Эмпирический подход. Когда требуется повторение какого либо испытания множество раз с целью определения вероятности наступления возможных событий. В таких случаях вероятность результатов какого либо события P(z) определяется как предел:



Такой подход анализирует историческую информацию с целью определения вероятности наступления события в будущем.

3. Субъективный подход применяется в случае, когда нельзя применить первые 2 подхода. Согласно ему, вероятность определяется как степень уверенности в наступлении события. Первые два подхода нельзя применять, когда нет информации, или нет времени для обработки информации.

Свойства вероятностей:

1. вероятность достоверного события равна 1.

2. Вероятность невозможного события 0.

3. вероятность случайного события колеблется от 0 до 1.

Два события называются несовместимыми если появление одного из них исключает появление другого в одном и том же испытании.

Т вероятность суммы 2-х независимых событий равна сумме вероятностей этих событий. Р(А+В)=Р(А)+Р(В). Независимые события появление каждого из них не зависит от того, появилось ли другое событие или нет.

Т: Вероятность произведений 2-х независимых событий А и В равна произведению вероятности этих событий. Р(А.В)= Р(А).Р(В)

Т: Вероятность суммы 2-х событий (совместных) равна сумме вероятностей событий без вероятности их произведения. Р(А+В)=Р(А)+Р(В).- Р(А.В)


4. Понятие «вероятности». Классическое определение, примеры.

Вероятность – это мера того, что какое либо случайное событие произойдет. Принимает значения от 0 до1. 0- вероятность невозможна, 1- достоверным. Испытания – это любое действие которое приводит к определенному набору результатов. Событие – это конкретные результаты испытания или их сочетание. Три подхода к определению вероятности. КЛАССИЧЕСКИЙ, ЭМПИРИЧЕСКИЙ, СУБЪЕКТИВНЫЙ (ИНТУИТИВИСТСКИЙ)

1. Классический подход. Применяется когда возможны неопределенные результаты известны и равновероятны. В дальнейшем при помощи простой логики можно определить вероятность каждого исхода.



В качестве примера подбрасывание монеты. Вероятность выпадениях 2-х орлов при 3-х подбрасываниях монеты.

О – выпадение орла.

Р – выпадение решки.

1-й 000 2-й Р00 3-й 0Р0 4-й 00Р 5-й РРР 6-й РР0 7-й 0РР 8-й Р0Р

Р(А)=3/8

5. Понятие «вероятности». Эмпирический подход, примеры.

Вероятность – это мера того, что какое либо случайное событие произойдет. Принимает значения от 0 до1. 0- вероятность невозможна, 1- достоверным. Испытания – это любое действие которое приводит к определенному набору результатов. Событие – это конкретные результаты испытания или их сочетание. Три подхода к определению вероятности. КЛАССИЧЕСКИЙ, ЭМПИРИЧЕСКИЙ, СУБЪЕКТИВНЫЙ (ИНТУИТИВИСТСКИЙ)

Эмпирический подход. Когда требуется повторение какого либо испытания множество раз с целью определения вероятности наступления возможных событий. В таких случаях вероятность результатов какого либо события P(z) определяется как предел:



Такой подход анализирует историческую информацию с целью определения вероятности наступления события в будущем.

Пример. Вероятность того, что посудомойщица уронит тарелку при ее мытье равна

Р(уронит) =(кол.тарелок кот-е она уже уронила в прошлом) / (кол.тарелок которое ога когда либо мыла)

Р( не уронит)= (кол.тарелок кот. она вымыла и не уронила) / (кол. Тарелок которое она мыла)

6. Понятие «вероятности». Субъективистский подход, примеры.

Вероятность – это мера того, что какое либо случайное событие произойдет. Принимает значения от 0 до1. 0- вероятность невозможна, 1- достоверным. Испытания – это любое действие которое приводит к определенному набору результатов. Событие – это конкретные результаты испытания или их сочетание. Три подхода к определению вероятности. КЛАССИЧЕСКИЙ, ЭМПИРИЧЕСКИЙ, СУБЪЕКТИВНЫЙ (ИНТУИТИВИСТСКИЙ).

Субъективный подход применяется в случае, когда нельзя применить первые 2 подхода. Согласно ему, вероятность определяется как степень уверенности в наступлении события. Первые два подхода нельзя применять, когда нет информации, или нет времени для обработки информации.


7. Основные понятия и предмет математической статистики.

Математическая статистика – наука о прошлом., по известным наблюдениям позволяет определить ее вероятностные характеристики: мат.ожидание, дисперсию, функ.распределения вероятностей. Матем.статистика – это раздел матаматики, посвященный матем. методам систематизирующим, обработки и использования стат.данных для научных и практических выводов. Основными понятиями МС являются генеральная совокупность и выборка. Ген.совместимостью - называется совместимость всех мыслемых значений случайных переменных (СП) при данном реальном комплексе условий. Если из ген.совокупности выбрать несколько элементов или произвести несколько испытаний, то получим выборку. В МС все используемые данные рассматриваются как выборка. Статический анализ: описательный анализ, анализ имеющий целью сделать какие то выводы.

Под описательным стат анализом понимается полученные группы сводных показателей, каждый из которых одним числом определяет какое качество ген. совокупности. Оценивание применяется если мы заранее не знаем величину параметров генеральной совокупностью, в этом случае мы задаем доверительные интервалы для оценивающих действительных параметров ГС.



8. Оценивание, «хорошие» свойства оценок.

Любая случайная переменная (СП) обладает характеристиками. Имея какую то выборку из генеральной совокупности нам необходимо рассчитать эти характеристики, но прежде чем производить расчеты этих характеристик, необходимы формулы для расчета, этот процесс и называется оцениванием. Задача оценивания характеристик СП заключается в построении некоторой формулы, основанной на выборочной информации которая связывает оценочные значения характеристики со значениями выборки X1, Х2 ….Хn. Такая формула называется оценкой

Числовые значения характеристик, полученные на основе таких формул, также называются оценками. Оценки должны обладать тремя основными свойствами:

1. Оценка д.б. несмещенной т.е. мат.ожидание оценки д.б. равна истинному значению др. параметра для генерал.совокупности (ГС)

Ф-оцениваемый параметр, -случайная переменная, генерируемая оценочной формулой, равенство

2. Оценка должна быть эффективной, должна обладать наименьшей по сравнению с другими оценками дисперсией

3.Оценка должна быть состоятельной, то есть при бесконечном увеличении размера выборки распределение вероятностей оценки должно стремится к некоторому числу.

Оценки обладающие перечисленными свойствами будем считать «хорошими».

9. Интервальное оценивание

Вычисление выборочных стат.показателей в качестве оценки параметров генеральн.совокупности называется – точечной оценкой. Точечная оценка всегда делается с ошибкой называемой оценочной ошибкой. Следовательно необходим такой механизм который бы позволил определить степень доверия к точности оценки. Такой механизм называется интервальным оцениванием и предполагает построение доверительного интервала. При построении доверительного интервала истинные значения вероятностной характеристики считаются неизвестным.

Доверительный интервал для матем.ожидания.

, - среднеарифмитеческая оценка, М0 – истинное значение мат.ожидания, n – количество наблюдений.

Доверительный интервал для правдободобных значений статистики находим по табличным данным статистики

-табличные данные, где р – заданная вероятность

n-1 – степень свободы.




10. Проверка гипотез. Статическая гипотеза.

Проверка гипотез одна из главных задач матем.статистики. Два подхода проверки классический и подход определяется уравнениями вероятности.

Классический подход. Располагая величинами генеральной совокупности (догадками), мы можем проверить гипотезу, что наша догадка была верна.

Статическая гипотеза – это рассматриваемые предположения о величине параметра генер.совокупности. Процесс проверки базируется на формулировке 2-х гипотез: нулевой и альтернативной, то есть две гипотезы и проверяется какая из них верна. Нулевая гипотеза H0 – это допущение которое считается верным до тех пор пока не будет доказано обратное исходя из результатов стат.проверки. Альтернативная гипотеза Н1 – гипотеза которая принимается если в результате стат.проверки была отвергнута нулевая гипотеза.

Пример. Добросовестность продавщиц, пакет в котором 1кг. сахара

№ пакета

1

2

3

4

5

6

7

8

9

10

Вес пакета

1,05

0,98

0,96

1,15

1,05

0,89

0,95

1,10

1

1,02

гипотеза H0 : М=1. Н1 : М не равно 1. Проведем стат.проверку, вычислим стат.критери на базе выборки и на его основе гипотеза либо принимается либо отвергается.Для определения этого критерия необходимо рассчитать мат.ожидание и дисперсию по данной выборке.

Мат.ожидание М(х)=(1,05+0,98+…+1,02)/10 = 1,015, Д(х) = 0,0058. Вычисляем стат.величину

Величина сигма называется стандартизированным стат.критерием оценки. Если H0 верна то сигма критерий проверки имеет стандартизированное нормальное распределение или t-распределение с n-1 степенями свободы. t-распределение сведено к таблице для различных степеней свободы и вероятностей. Пределяем интервал, рассчитаем t-статистику для нашего примера tрасч=1,97 по таблице находим таким образом tрасч > tтабл (1,97 > 1,83), следовательно гипотезу о том что мат.ожидание весов пакетов равна 1кг опровергаем с вероятностью 98%, на основе выборки в 98 случаях из 100 средний вес пакета не равен 1кг., т.е. гипотеза H0 отвергается принимаем Н1

Классическая процедура м.б. выражена след.схемой:

1. на 1-м этапе вычисляются оценки вероятностей характеристик по выборке.

2. выдвигается гипотеза о равенстве оценки

3. вычисляется некоторая статистика по выборочной информации

4. задается большая вероятность и по таблице распределения находится интервал.

5. если расчетное значение попало в интервал то гипотеза принимается,

, если не попало то опровергается.

Проверка гипотезы методом определения уравнения вероятности

С использованием ПК в связи с большим объемом вычислений. Вычисляется некая величина Р, которая в случаи верности нулевой гипотезы H0 представляет собой вероятность получения величины стандартизированного критерия проверки большего по абсолют-у значению чем табличный критерий проверки

H0, Р>а, где а- табличный уровень

H1 во всех остальных случаях




11. Критерий проверки гипотезы. Процедура проверки гипотез.

Проверка гипотез одна из главных задач матем.статистики. Два подхода проверки классический и подход определяется уравнениями вероятности.

Классический подход. Располагая величинами генеральной совокупности (догадками), мы можем проверить гипотезу, что наша догадка была верна.

Статическая гипотеза – это рассматриваемые предположения о величине параметра генер.совокупности. Процесс проверки базируется на формулировке 2-х гипотез: нулевой и альтернативной, то есть две гипотезы и проверяется какая из них верна. Нулевая гипотеза H0 – это допущение которое считается верным до тех пор пока не будет доказано обратное исходя из результатов стат.проверки. Альтернативная гипотеза Н1 – гипотеза которая принимается если в результате стат.проверки была отвергнута нулевая гипотеза.

Пример. Добросовестность продавщиц, пакет в котором 1кг. сахара

№ пакета

1

2

3

4

5

6

7

8

9

10

Вес пакета

1,05

0,98

0,96

1,15

1,05

0,89

0,95

1,10

1

1,02

гипотеза H0 : М=1. Н1 : М не равно 1. Проведем стат.проверку, вычислим стат.критери на базе выборки и на его основе гипотеза либо принимается либо отвергается.Для определения этого критерия необходимо рассчитать мат.ожидание и дисперсию по данной выборке.

Мат.ожидание М(х)=(1,05+0,98+…+1,02)/10 = 1,015, Д(х) = 0,0058. Вычисляем стат.величину

Величина сигма называется стандартизированным стат.критерием оценки. Если H0 верна то сигма критерий проверки имеет стандартизированное нормальное распределение или t-распределение с n-1 степенями свободы. t-распределение сведено к таблице для различных степеней свободы и вероятностей. Пределяем интервал, рассчитаем t-статистику для нашего примера tрасч=1,97 по таблице находим таким образом tрасч > tтабл (1,97 > 1,83), следовательно гипотезу о том что мат.ожидание весов пакетов равна 1кг опровергаем с вероятностью 98%, на основе выборки в 98 случаях из 100 средний вес пакета не равен 1кг., т.е. гипотеза H0 отвергается принимаем Н1

Классическая процедура м.б. выражена след.схемой (процедура):

1. на 1-м этапе вычисляются оценки вероятностей характеристик по выборке.

2. выдвигается гипотеза о равенстве оценки

3. вычисляется некоторая статистика по выборочной информации

4. задается большая вероятность и по таблице распределения находится интервал.

5. если расчетное значение попало в интервал то гипотеза принимается,

, если не попало то опровергается.

Проверка гипотезы методом определения уравнения вероятности

С использованием ПК в связи с большим объемом вычислений. Вычисляется некая величина Р, которая в случаи верности нулевой гипотезы H0 представляет собой вероятность получения величины стандартизированного критерия проверки большего по абсолют-у значению чем табличный критерий проверки

H0, Р>а, где а- табличный уровень

H1 во всех остальных случаях


12. Случайная переменная: понятие характеристика.

Если связать каждое число событий из множества событий с каким либо числом то мы получим совокупность чисел, появление каждого из которорых случайно в результате построения эксперимента таким образом мы получим случайную переменную. Если орел – 0, решка – 1, то случайная переменная может принимать только 2 значения. Случайная переменная (х) – это функция принимающая действительное значения на множестве событий, с помощью которой мы ставим в однозначное соответствие каждому событию некоторое число хi т.е. некоторую точку на действительной оси. Следовательно СП есть некоторое преобразование котрое каждому событию ставит в соответствие единственное числовое значение. СП – это такая переменная, поведение которой не определено, исходя из чего мы можем только приписывать ей вероятности возможных значений. Таким образом СП определяется распределением вероятностей возможных результатов. СП подразделяются на дискретные и непрерывные.

Дискретные случайные переменные (ДСП) – это те переменные которые имеют конечное число возможных результатов.

Пример подбрасывание игральной кости получим ДСП с 6-ю возможными значениями, составим формулу частот игральной кости

Значение xi

1

2

3

4

5

6

Вероятность Рi

1/6

1/6

1/6

1/6

1/6

1/6

Сумма Р(хi)=1. Примером дискретного распределения являются биноминальное и триноминальное распределения. Подбрасывание монеты – биноминальное распределение.

Цены на акции могут расти, снижаться, не менятся что приводит к триноминальному распределению.

Непрерывные случайные переменные (НСП) – это СП которые могут принимать бесконечное кличество значений (скорость, температура, рентабельность и т.д.)

Рассмотрим доходность ЦБ., она определяется следующим состоянием:

Доходность = измеие стоимости ЦБ / начальная стоимость ЦБ.

Найти ожидаемую величину НСП путем сложения, как в случае с дискретными переменными, представляется проблематичным, поскольку пришлось бы искать сумму бесконечного множества вероятностей. Для преодоления этой проблемы мы должны определить НСП не путем суммирования функций частот вероятностей, а путем интегрирования функций плотности вероятности.

S-сумма



СП –переменная поведение котрой не определено. Основными вероятностями характерными СП являются:

1. распределение вероятностей.

2. математическое ожидание.

3. дисперсия.

13. Дискретные случайные переменные.

Если связать каждое число событий из множества событий с каким либо числом то мы получим совокупность чисел, появление каждого из которорых случайно в результате построения эксперимента таким образом мы получим случайную переменную. Если орел – 0, решка – 1, то случайная переменная может принимать только 2 значения. Случайная переменная (х) – это функция принимающая действительное значения на множестве событий, с помощью которой мы ставим в однозначное соответствие каждому событию некоторое число хi т.е. некоторую точку на действительной оси. Следовательно СП есть некоторое преобразование котрое каждому событию ставит в соответствие единственное числовое значение. СП – это такая переменная, поведение которой не определено, исходя из чего мы можем только приписывать ей вероятности возможных значений. Таким образом СП определяется распределением вероятностей возможных результатов. СП подразделяются на дискретные и непрерывные.

Дискретные случайные переменные (ДСП) – это те переменные которые имеют конечное число возможных результатов.

Пример подбрасывание игральной кости получим ДСП с 6-ю возможными значениями, составим формулу частот игральной кости

Значение xi

1

2

3

4

5

6

Вероятность Рi

1/6

1/6

1/6

1/6

1/6

1/6

Сумма Р(хi)=1. Примером дискретного распределения являются биноминальное и триноминальное распределения. Подбрасывание монеты – биноминальное распределение.

Цены на акции могут расти, снижаться, не менятся что приводит к триноминальному распределению.

14. Непрерывные случайные переменные.

Если связать каждое число событий из множества событий с каким либо числом то мы получим совокупность чисел, появление каждого из которорых случайно в результате построения эксперимента таким образом мы получим случайную переменную. Если орел – 0, решка – 1, то случайная переменная может принимать только 2 значения. Случайная переменная (х) – это функция принимающая действительное значения на множестве событий, с помощью которой мы ставим в однозначное соответствие каждому событию некоторое число хi т.е. некоторую точку на действительной оси. Следовательно СП есть некоторое преобразование котрое каждому событию ставит в соответствие единственное числовое значение. СП – это такая переменная, поведение которой не определено, исходя из чего мы можем только приписывать ей вероятности возможных значений. Таким образом СП определяется распределением вероятностей возможных результатов. СП подразделяются на дискретные и непрерывные.

Непрерывные случайные переменные (НСП) – это СП которые могут принимать бесконечное кличество значений (скорость, температура, рентабельность и т.д.)

Рассмотрим доходность ЦБ., она определяется следующим состоянием:

Доходность = измеие стоимости ЦБ / начальная стоимость ЦБ.

Найти ожидаемую величину НСП путем сложения, как в случае с дискретными переменными, представляется проблематичным, поскольку пришлось бы искать сумму бесконечного множества вероятностей. Для преодоления этой проблемы мы должны определить НСП не путем суммирования функций частот вероятностей, а путем интегрирования функций плотности вероятности.

S-сумма


СП –переменная поведение котрой не определено. Основными вероятностями характерными СП являются:

1. распределение вероятностей.

2. математическое ожидание.

3. дисперсия.


15. Вероятностные характеристики случайной переменной

Распределение вероятностей. Существует два типа распределения вероятностей: непрерывное и дискретное распределение.

В общем случае распределение вероятностей для дискретной случайной переменной задается в следующем виде

Значение СП

Х1

Х2

……

Хn

Вероятность

Р1

Р2

……

Рn

Непрерывные СП имеет более сложные вероятностные описания, функция плотности вероятностей f(x) – это функция которая для любого интервала оси позволяет определить вероятность того, что СП находятся в этом интервале. В общем случае f(x) – это некая кривая



Рисунок 1 рисунок 2

Зная функцию плотности вероятности f(х) можно поставить вопрос, чему равна вероятность того, что СП Х примет занчение не больше Х0

(смотрите рисунок 2)

Такую вероятность можно определить для любой точки оси х, определяется тем самым функцию F(х), которая называется функцией распределения

Случайные переменные имеющие различную физическую природу, могут иметь одну и ту же вероятностную структуру. В конечном итоге видов распределения вероятности (законов распределения вероятностей) не так уж много.

Примеры законов распределения:

1.. Нормальный закон распределения-распределение Гаусса Содержат случайную оштбку в измерениях, малые отклонения от истинного результата встречаются в малом числе, а истинные результаты – в большом числе. Непрерывная случайная величина Х имеет нормальный закон распределения с параметрами и , если ее плотность вероятности имеет вид:



2.. Распределение Стьюдента (t – распределение с n степенями свободы)

Пусть х и х2 – это независимые СП, при этом Х имеет норм.распределение, а х2 – распределение с n степенями свободы.

3.. Распределение Фишера (F-распределение) Пусть имеем две СВ распределенные по закону «хи квадрат» и со степенями свободы и соответственно. Тогда следующая случайная переменная:

называется СВ с F- распределением (т.е. распределением Фишера) с и степенями свободы (обозначают также через) .

4.. Равномерное распределение.




18. Распределение вероятностей дискретной и непрерывной случайных переменных.

Дискретной называют такую СВ, которая принимает конкретные (отдельные, изолированные, точечные) счетное число значения с определенными вероятностями. Непрерывной называют такую СВ, которая может принимать любое значение из некоторого конечного или бесконечного числового промежутка (интервала). Например, дальность полета снаряда, время (момент) звонка на диспетчерскую скорой помощи, температура воздуха в определенный момент временны и т.д.. Большинство СВ, рассматриваемых в экономике, имеют настолько большое число возможных значений (например, число пассажиров в аэропорту, покупателей в магазине, зрителей на стадионе и т.п.), что их удобнее представлять в виде непрерывных СВ.вероятностей: непрерывное и дискретное распределение.

В общем случае распределение вероятностей для дискретной случайной переменной задается в следующем виде

Значение СП

Х1

Х2

……

Хn

Вероятность

Р1

Р2

……

Рn

Непрерывные СП имеет более сложные вероятностные описания, функция плотности вероятностей f(x) – это функция которая для любого интервала оси позволяет определить вероятность того, что СП находятся в этом интервале. В общем случае f(x) – это некая кривая



Рисунок 1 рисунок 2

Зная функцию плотности вероятности f(х) можно поставить вопрос, чему равна вероятность того, что СП Х примет занчение не больше Х0

(смотрите рисунок 2)

Такую вероятность можно определить для любой точки оси х, определяется тем самым функцию F(х), которая называется функцией распределения

Случайные переменные имеющие различную физическую природу, могут иметь одну и ту же вероятностную структуру. В конечном итоге видов распределения вероятности (законов распределения вероятностей) не так уж много.


19. Законы распределения вероятностей.

Примеры законов распределения:

1.. Нормальный закон распределения-распределение Гаусса Содержат случайную оштбку в измерениях, малые отклонения от истинного результата встречаются в малом числе, а истинные результаты – в большом числе. Непрерывная случайная величина Х имеет нормальный закон распределения с параметрами и , если ее плотность вероятности имеет вид:



2.. Распределение Стьюдента (t – распределение с n степенями свободы)

Пусть х и х2 – это независимые СП, при этом Х имеет норм.распределение, а х2 – распределение с n степенями свободы.

3.. Распределение Фишера (F-распределение) Пусть имеем две СВ распределенные по закону «хи квадрат» и со степенями свободы и соответственно. Тогда следующая случайная переменная:

называется СВ с F- распределением (т.е. распределением Фишера) с и степенями свободы (обозначают также через) .

4.. Равномерное распределение.


5. Распределение (хи-квадрат) с n степенями свободы – распределение Пирсона

Распределение с n степенями свободы называется распределение суммы квадратов n независимых СВ, распределенных по стандартному нормальному закону:

, где .

Число степеней свободы функций (т.е. число ).

Интервал показаний совокупных переменных, для симметричного интервала .

Закон распределения вероятностей позволяет определить две другие важные характеристики совокуп.переменных, а именно матем.ожидание и дисперсию.


16. Математические ожидания случайной переменной.

Математическим ожиданием дискретной СВ называют сумму произведений всех ее возможных значений на их вероятности:

Математическое ожидание для дискретной совокуп.переменной

например матем.ожидание совокупных переменных, соответствующее количеству выпадений орла при 3-х бросаниях монеты выглядит так

х

0

1

2

3

р

1/8

3/8

3/8

1/8

Тогда М(х)=0*1/8+1*3/8+2*3/8+3*1/8=1,5

Т
F(х)
аким образом М – это некоторая средневзвешенная арифмитическая величина, следовательно мат.ожидание характеризует меру положения для совокупных величин.

Для непрерывной совокупных величин с плотностью распределия f(x)



Свойства мат.ожидании:

1. мат. ожидание постоянной величины,

2. постоянный множитель выносится за знак мат. ожидания,

3. , (верно и для нескольких СВ)

4. мат. ожидание произведения двух независимых СВ равно

17. Дисперсия случайной переменной.

Дисперсия (рассеяние, разброс) дискретной СВ. Случайные величины могут иметь одинаковые мат. ожидания, но различные множества возможных принимаемых значений. Поэтому, для того чтобы оценить, как рассеяны возможные значения СВ вокруг ее мат. ожидания, вводят вторую важную числовую характеристику – дисперсию. Которая отражает разброс СВ относительно ее средней величины.

с абсолютными величинами затруднительно, поэтому вычисляют среднее значение квадрата отклонения, которое и называют дисперсией:



Пользуясь свойствами мат. ожидания, можно получить формулу:



Свойства дисперсии:

1. , дисперсия постоянной величины равна нулю.

2. ,

3. , дисперсия суммы двух независимых СВ равна сумме дисперсий этих случайных величин (верно и для нескольких взаимно независимых СВ).

4. .

Если и независимые СВ, то

5. .


Продолжение вопроса №15

5. Распределение (хи-квадрат) с n степенями свободы – распределение Пирсона

Распределение с n степенями свободы называется распределение суммы квадратов n независимых СВ, распределенных по стандартному нормальному закону:

, где .

Число степеней свободы функций (т.е. число ).

Интервал показаний совокупных переменных, для симметричного интервала .

Закон распределения вероятностей позволяет определить две другие важные характеристики совокуп.переменных, а именно матем.ожидание и дисперсию.





20. Многомерное распределение вероятностей.

Возникает при параллельном рассмотрении нескольких совокупных переменных. Для простоты рассмотрим двумерный случай плотности вероятности, Двумерная СП характеризуются функцией 2-х переменных f(x1.x2). Распределение вероятностей при этом определяется следующим образом



Условное распределение совокупных переменных. Распределение, кторое характеризуется плотностью вероятности и принимает фиксированное значение, называется условным распределением. Функция условной плотности определяется как отношение 2-х плотностей:





Математическое ожидание совокупных величин Х1 при заданном значении обозначается и определяется:



21. Метод наименьших квадратов.

Регрессионное уравнение, разрешённое относительно исследуемой переменной у при наличии одной факторной переменной x, в общем виде записывается как:,

Если f(x) является линейной функцией, то мы имеем общий вид модели парной линейной регрессии:,

где a – постоянная величина (или свободный член уравнения), b – коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны наблюдения. Фактическое значение исследуемой переменной y тогда может быть представлено в виде:,

где ? – разность между фактическим значением (результатом наблюдения) и значением, рассчитанным по уравнению модели. Если модель адекватно описывает исследуемый процесс, то ? – независимая нормально распределённая случайная величина с нулевым математическим ожиданием (М? = 0) и постоянной дисперсией (D? = ?2). Наличие случайной компоненты ? отражает тот факт, что присутствуют другие факторы, влияющие на исследуемую переменную и не учтённые в модели.

Для оценки параметров a и b линейной парной регрессии с использованием имеющегося набора результатов наблюдений наиболее часто используют метод наименьших квадратов (МНК), который минимизирует сумму квадратов ?i - отклонения результатов наблюдений yi от рассчитанных по линейной модели (2.3) значений yрi:

Такое решение может существовать только при выполнении условия , то есть когда не все наблюдения проводились при одном и том же значении факторной переменной (сумма квадратов равна нулю, если каждое слагаемое равно нулю).

Метод оценки д.б. такими чтобы получить «хорошие» оценки. Метод используемый чаще других для нахождения параметров регрессионного уравнения и известный как метод наименьших квадратов (МНК), при расчете параметров линии с помощью этого метода минимизируются суммы квадратов значений ошибок .

Метод наименьших квадратов — один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки.

Метод наименьших квадратов применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.

Когда искомая величина может быть измерена непосредственно, как, например, длина отрезка или угол, то, для увеличения точности, измерение производится много раз, и за окончательный результат берут арифметическое среднее из всех отдельных измерений. Это правило арифметической середины основывается на соображениях теории вероятностей; легко показать, что сумма квадратов уклонений отдельных измерений от арифметической середины будет меньше, чем сумма квадратов уклонений отдельных измерений от какой бы то ни было другой величины. Само правило арифметической середины представляет, следовательно, простейший случай метода наименьших квадратов.

Пусть дано решить систему уравнений

a1x + b1y + c1z + … + n1 = 0

a2x + b2y + c2z + … + n2 = 0 (1)

a3x + b3y + c3z + … + n3 = 0


22. Регрессионные модели. Однофакторное регрессионное уравнение.

Регрессионное уравнение, разрешённое относительно исследуемой переменной у при наличии одной факторной переменной x, в общем виде записывается как:,

Если f(x) является линейной функцией, то мы имеем общий вид модели парной линейной регрессии:,

где a – постоянная величина (или свободный член уравнения), b – коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны наблюдения. Фактическое значение исследуемой переменной y тогда может быть представлено в виде:,

Регрессионный анализ своей целью имеет вывод, определение (идентификацию) уравнения регрессии , включая статистическую оценку его параметров. Уравнение регрессии позволяет найти значение зависимой переменной, если величина независимой или независимых переменных известна.
Практически, речь идет о том, чтобы, анализируя множество точек на графике (т.е. множество статистических данных), найти линию, по возможности точно отражающую заключенную в этом множестве закономерность (тренд, тенденцию), линию регрессии.
По числу факторов различают одно-, двух- и многофакторные уравнения регрессии .
По характеру связи однофакторные уравнения регрессии подразделяются:
а) на линейные: где x экзогенная (независимая) переменная, y эндогенная (зависимая, результативная) переменная, a , b параметры;

б) степенные: ; в) показательные: г) прочие.

Смысл регрессионного анализа – построение функциональных зависимостей между двумя группами переменных величин Х1, Х2, … Хр и Y. При этом речь идет о влиянии переменных Х (это будут аргументы функций) на значения переменной Y (значение функции). Переменные Х мы будем называть факторами, а Y – откликом.

Сегодня мы разберем наиболее простой случай – установление зависимости одного отклика y от одного фактора х. Такой случай называется парной (простой) регрессией/

В общем виде однофакторное регрессионное уравнение можно записать в виде:

М(у/х)=f(х), где левая часть – это условие математического ожидания переменной у при заданном значении переменной х. Частный случай однофакторного РУ является линейная модель зависимость которой записывается следующим образом ,

У – зависимая переменная. Х – независимая переменная, а –свободный член регрессии (постоянное число), в –коэффициент регрессии, показывает наклон линии, - ошибка или случайная компонента.

23. Процедура проверки адекватности регрессивных уравнений.

Экономический рост (ЭР) - увеличение Адекватность – это соответствие модели реальному моделируемому процессу, а также достоверность его параметров. Проверка адекватности регрессионных уравнений производится в несколько этапов:

  1. Анализируются показатели качества подгонки регрессивного уравнения.

  2. Проверяются различные гипотезы относительно параметров регрессивного уравнения.

  3. Проверяется выполнение условий для получения «хороших» оценок МНК.

  4. Производится содержательный анализ РУ.


24. Показатели качества подгонки однофакторного регрессивного уравнения.

Отражают соотношение расчетных значений зависимости переменной с фактическими значениями зависимой переменной уi. Эти показатели, как правило, основываются на сумме квадратов разности расчетных и фактических значений у.

Остаточная дисперсия

, чем меньше , тем лучше РУ, принимает значения от 0 до +бесконечности.

Коэффициент детерминации

, где

Коэффициент детерминации R2 может принимать значения от 0 до 1. Чем ближе коэффициент детерминации R2 к единице, тем лучше качество модели.

Коэффициент корреляции.

статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции.

Корреляция может быть положительной и отрицательной (возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин). Отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой переменной, при этом коэффициент корреляции отрицателен. Положительная корреляция — корреляция, при которой увеличение одной переменной связано с увеличением другой переменной, при этом коэффициент корреляции





25. Проверка гипотез о наличие линейной связи между переменными и существенности влияния фактора на результат в однофакторном РУ.

Приведенные ранее показатели качества подгонки не позволяют принять окончательного статического решения по пригодности РУ. Такие решения принимаются на основе стат.критериев. Одним из таких критериев является F-критерий (F статистика). После оценки свободного члена регрессии (а) и коэффициента регрессии (в) выдвигается гипотеза о том, что линейная связь между х и у не подтверждается.

Близкое к 0 значение этой суммы свидетельствует об отсутствии какой либо тенденции для у в связи с изменениями х. Если Fрасч>Fтабл, то гипотезу об отсутствии лин.связи отвергаем с вероятностью р.

Fтабл берется из таблицы распределения Фишера, для степеней свободы n1 и n2. n1=k, n2=n-2

k-количество факторов в модели

n- количество наблюдений.

Отдельно исследуется коэффициент регрессии, выдвигается гипотеза что Х влияет на У не существенно. Выдвинутая гипотеза равноценна тому что b=0 на всей генеральной совокупности.



Если наша гипотеза верна то t-статистика или t-критерий подчиняется t-распределению со степенью свободы n-2

. Где - стандартная ошибка коэффициента b.

Аналогично находим tтабл если tрасч >tтабл. То гипотезу что b=0 отвергаем, значит b не равен 0, если наоборот то принимаем гипотезу, t- статистика используется также при построении доверительного интервала для коэффициента т.е. b. Областью правдоподобных значений является (-t;t)



26. Регрессионные модели. Многофакторное регрессионное уравнение.

Область применения однофакторных РУ ограничена, т.к. измерение эконом. показателей, как правило объясняются несколькими факторами. В таком случаи более приемлемым являются математический аппарат многофакторных уравнений. В общем виде многофакторное регрессионное уравнение можно записать виде:

Можно записать частный вид МНУ – линейную модель



b0 – свободный член регрессии

b1,b2, b3, bn – коэффициенты регрессии

Коэффициенты регрессии многофакторной модели имеют такой же смысл что и однофакторной модели, т.е. коэффициент регрессии в МРУ показывает прирост результата (зависимой переменной у) на единицу прироста n-го фактора при фиксированных значениях остальных факторов. Множественные коэффициенты регрессии как правило оцениваются также методом наименьших квадратов. В этом случае для определения параметров множественной регрессии с к факторами, решается система с к+1 неизвестными методом наименьших квадратов дает «хорошие» оценки при соблюдении некоторых условий относительно случайных компонентов . Для мнофакторной модели это следующие условия:

1.

2.

3.

4. Условие независимости факторов между собой. Нарушение этого условия называется мультиколлинеарностью.

27. Показатели качества подгонки многофакторного регрессионного уравнения.

Качество подгонки множеств регрессии оценивается на основе таких же показателей адекватности и тех же критериев, что и в однофакторной модели. Первый из этих показателей остаточная дисперсия:

к - количество факторов.

Второй показатель коэффициент детерминации



Однако в МРУ добавление дополнительных объясняющих переменных всегда увеличивает коэффициент детерминации дожжен быть скорректирован с учетом числа независимых переменных.

Корректировка производится по следующей формуле:



- скорректированный коэффициент детерминации

n- количество наблюдений.

F-статистика в МРУ рассчитывается по следующей формуле:

Для проверки гипотезы необходимо определить значение Fтабл со степенями свободы n1=k, n2=n-k-1

Если Fтасч >Fтабл то гипотезу о том, что уравнение несущественно отвергаем с вероятностью р


28. Отбор существенных факторов в многофакторном РУ.

F-статистика в МРУ рассчитывается по следующей формуле:

Для проверки гипотезы необходимо определить значение Fтабл со степенями свободы n1=k, n2=n-k-1

Если Fтасч >Fтабл то гипотезу о том, что уравнение несущественно отвергаем с вероятностью р

Особое важное значение для МРУ имеет -критерий; на основе t-критерия отбираются существенные факторы в РУ. На основе стандартной ошибки коэффициенты регрессии оценивается t-статистика для каждого фактора:

, ,



Сущность влияния n-го фактора на результат проверяется на основе выдвижения гипотезы, что bn=0. Если гипотеза верна то t-статистика подчиняется t-распределению, для t-распределения имеются табличные значения.

Tтабл определяется для верности р и степени свободы n-k-1. (по табл сьютенда)

Если tтасч >tтабл. То гипотеза о том, что bn=0 отвергается. И в этом случае влияние n-го фактора признается существенным. В противном случае, n-й фактор исключается из уравнения и уравнения регрессии строится заново со всеми вытекающими процедурами проверки адекватности.

При отборе существенных факторов также необходимо иметь ввиду, что наличия мультиколлинеарности приводит к искусственному увеличению значений стандартных ошибок что в свою очередь приводит к уменьшению t-статистики, даже для логически существенных связей. В таких случаях можно применять методы оценивания с учетом мультиколлинеарности.




30. Условия для получения «хороших» оценок Методом Наименьших Квадратов в однофакторном и многофакторном РУ.

Метод наименьших квадратов дает «хорошие» оценки коэффициентов регрессии при выполнении некоторых условий. Эти условия касаются случайные компоненты .

Для однофакторной модели это след.условия:

1) 2) 3)

В многофакторной модели добавляются следующие условия:

4) это независимость факторов между собой т.е.



29. Экономический смысл коэффициентов регрессии в однофакторном и многофакторном РУ.



31. Проверка выполнение 1-го и 2-го условия для получения «хороших» оценок Методом Наименьших Квадратов.

Метод наименьших квадратов дает «хорошие» оценки коэффициентов регрессии при выполнении некоторых условий. Эти условия касаются случайные компоненты .

Для однофакторной модели это след.условия:

1) 2) 3)

В многофакторной модели добавляются следующие условия:

4) это независимость факторов между собой т.е.



Условие:

1) при нарушении условия оценка параметров регрессионной модели является неэффективной. Графически нарушение этого условия можно изобразить:



Метод наименьших квадратов при отсутствии ошибок в расчетах всегда дает выражение данного условия.

2) - разброс точек на плоскости.

Нарушение условия 2) когда дисперсия случайной компоненты не является постоянной, можно на графике изобразить следующим образом:

Если остатки имеют постоянную дисперсию, то они называются гомаскедастичными, являются называются гомоскедастичностью. Если остатки непостоянны, то они называются гетероскедостичными, а явление называется гетероскедастичностью.

Гетероскедастичность приводит к тому, что коэффициенты регрессии не представляют собой лучшие оценки или не являются оценками с наименьшей дисперсией. Следовательно они не являются «хорошими» коэффициентами. Непостоянство дисперсий часто встречается в моделях нестационарной экономики(Рссия), когда в качестве исходных данных используется временные ряды стоимостных показателей. В пространстве выборках гетероскедастичность встречается когда анализируемые объекты не однородны по своему масштабу. Гетероскедичность ведет к тому что стандартные ошибки будут смещенными, решение о наличии гетероскедичности принимается на основе общей процедуры проверки гипотез. Один из критериев F-критерий



Данный F-критерий имеет F – распределение со степенями свободы

n1=n/2-k, n2=n/2-k

При этих степенях свободы находим Fтабл, сравнивая Fрасч с Fтабл

1) если Fрасч попадает в интервал то дисперсия пост-а

2) если Fр >Fт, то дисперсия уменьшается

3) если Fр <1/Fт то дисперсия увеличивается

32. Проверка выполнение 3-го условия для получения «хороших» оценок Методом Наименьших Квадратов.

3)

Нарушение условия проявляются в том, что м/у ошибками разных наблюдений есть какая то зависимость. Графически нарушение этого условия можно представить:



Нарушение условия независимости остатков м/у собой называется автокорреляцией остатков, имеет место когда текущее значение уi . Нарушение 3-го условия независимости остатков делает модель неадекватной. Вызвано это тем что при наличии автокорелляции стандарт ошибки модели будут недооценены. И как следствие проверка значимости коэффициентов регрессии будет ненадежной. Проверку на наличие автокорелляции проводят на основе теста Дарвина-Уотсона (статистика критерий Д-У)

Данный критерий может принимать значение от 0 до 4. При проверке наличии автокорреляции на практике можно руководствоваться след. Простым правилом: расчетное значение D-W близкое к 2 свидетельствует об отсутствии автокорелляции, к 4 – об отсутствии, к 0- о положит. Автокорреляции.

Строгие решения принимаются из правил:

1) если то гипотеза об отсутствии автокорелляции отвергается.

2) если то гипотеза об отсут автокорел-и принимается

3) принимается гипотеза о том, что отрицательная автокорелляция

4) если то гипотеза о наличии автокорреляции не принимается и не отвергается .


33. Проверка выполнение 4-го условия для получения «хороших» оценок Методом Наименьших Квадратов в многофакторном РУ. Коэффициент корелляции.

Условие независимости факторов м/у собой.



Нарушение данного условия, когда факторы зависят друг от друга, называется мультиколлинеарностью. Нарушение условия 4 является нарушением одного из требований классической регрессии. Мультиколлинеарность проверяется на основе коэффициента корреляции

Для того чтобы мультиколлинеарности не было д.б.

Мультиколлениарность возникает из-за неисправного выбора списка объясняющих переменных или из за эконом.природы выбранных переменных.

Внешние признаками мультиколлениарности явл.следующие признаки:

    1. наличие значений коэффициентов парной корреляции м/у объясняющими переменными, превышающих по модулю 0,75.

    2. Наличие оценок коэффициентов регрессии, имеющих непрерывные знаки.

    3. Существенные изменения значений коэффициентов регрессии при небольшом изменении исходных данных.

    4. Наличие больших стандартных ошибок и малой статической значимости коэффициентов регрессии при общей значимости модели.

Для устранения мультиколлениарности существует несколько способов:

  1. исключение из модели связанных м/у собой независимых переменных путем отбора наиболее существенных объясняющих переменных.

  2. использование методов оценки коэффициентов, учитывающих мультиколлениарность


Учебный материал
© nashaucheba.ru
При копировании укажите ссылку.
обратиться к администрации