n1.doc | 628kb. | 13.09.2012 10:30 | скачать |
11. Критерий проверки гипотезы. Процедура проверки гипотез. Проверка гипотез одна из главных задач матем.статистики. Два подхода проверки классический и подход определяется уравнениями вероятности. Классический подход. Располагая величинами генеральной совокупности (догадками), мы можем проверить гипотезу, что наша догадка была верна. Статическая гипотеза – это рассматриваемые предположения о величине параметра генер.совокупности. Процесс проверки базируется на формулировке 2-х гипотез: нулевой и альтернативной, то есть две гипотезы и проверяется какая из них верна. Нулевая гипотеза H0 – это допущение которое считается верным до тех пор пока не будет доказано обратное исходя из результатов стат.проверки. Альтернативная гипотеза Н1 – гипотеза которая принимается если в результате стат.проверки была отвергнута нулевая гипотеза. Пример. Добросовестность продавщиц, пакет в котором 1кг. сахара
гипотеза H0 : М=1. Н1 : М не равно 1. Проведем стат.проверку, вычислим стат.критери на базе выборки и на его основе гипотеза либо принимается либо отвергается.Для определения этого критерия необходимо рассчитать мат.ожидание и дисперсию по данной выборке. ![]() ![]() ![]() Величина сигма называется стандартизированным стат.критерием оценки. Если H0 верна то сигма критерий проверки имеет стандартизированное нормальное распределение или t-распределение с n-1 степенями свободы. t-распределение сведено к таблице для различных степеней свободы и вероятностей. Пределяем интервал, рассчитаем t-статистику для нашего примера ![]() ![]() Классическая процедура м.б. выражена след.схемой (процедура): 1. на 1-м этапе вычисляются оценки вероятностей характеристик по выборке. 2. выдвигается гипотеза о равенстве оценки 3. вычисляется некоторая статистика по выборочной информации 4. задается большая вероятность и по таблице распределения находится интервал. 5. если расчетное значение попало в интервал то гипотеза принимается, , если не попало то опровергается. Проверка гипотезы методом определения уравнения вероятности С использованием ПК в связи с большим объемом вычислений. Вычисляется некая величина Р, которая в случаи верности нулевой гипотезы H0 представляет собой вероятность получения величины стандартизированного критерия проверки большего по абсолют-у значению чем табличный критерий проверки H0, Р>а, где а- табличный уровень H1 во всех остальных случаях | 12. Случайная переменная: понятие характеристика. Если связать каждое число событий из множества событий с каким либо числом то мы получим совокупность чисел, появление каждого из которорых случайно в результате построения эксперимента таким образом мы получим случайную переменную. Если орел – 0, решка – 1, то случайная переменная может принимать только 2 значения. Случайная переменная (х) – это функция принимающая действительное значения на множестве событий, с помощью которой мы ставим в однозначное соответствие каждому событию некоторое число хi т.е. некоторую точку на действительной оси. Следовательно СП есть некоторое преобразование котрое каждому событию ставит в соответствие единственное числовое значение. СП – это такая переменная, поведение которой не определено, исходя из чего мы можем только приписывать ей вероятности возможных значений. Таким образом СП определяется распределением вероятностей возможных результатов. СП подразделяются на дискретные и непрерывные. Дискретные случайные переменные (ДСП) – это те переменные которые имеют конечное число возможных результатов. Пример подбрасывание игральной кости получим ДСП с 6-ю возможными значениями, составим формулу частот игральной кости
Сумма Р(хi)=1. Примером дискретного распределения являются биноминальное и триноминальное распределения. Подбрасывание монеты – биноминальное распределение. Цены на акции могут расти, снижаться, не менятся что приводит к триноминальному распределению. Непрерывные случайные переменные (НСП) – это СП которые могут принимать бесконечное кличество значений (скорость, температура, рентабельность и т.д.) Рассмотрим доходность ЦБ., она определяется следующим состоянием: Доходность = измеие стоимости ЦБ / начальная стоимость ЦБ. Найти ожидаемую величину НСП путем сложения, как в случае с дискретными переменными, представляется проблематичным, поскольку пришлось бы искать сумму бесконечного множества вероятностей. Для преодоления этой проблемы мы должны определить НСП не путем суммирования функций частот вероятностей, а путем интегрирования функций плотности вероятности. ![]() ![]() ![]() СП –переменная поведение котрой не определено. Основными вероятностями характерными СП являются: 1. распределение вероятностей. 2. математическое ожидание. 3. дисперсия. | 13. Дискретные случайные переменные. Если связать каждое число событий из множества событий с каким либо числом то мы получим совокупность чисел, появление каждого из которорых случайно в результате построения эксперимента таким образом мы получим случайную переменную. Если орел – 0, решка – 1, то случайная переменная может принимать только 2 значения. Случайная переменная (х) – это функция принимающая действительное значения на множестве событий, с помощью которой мы ставим в однозначное соответствие каждому событию некоторое число хi т.е. некоторую точку на действительной оси. Следовательно СП есть некоторое преобразование котрое каждому событию ставит в соответствие единственное числовое значение. СП – это такая переменная, поведение которой не определено, исходя из чего мы можем только приписывать ей вероятности возможных значений. Таким образом СП определяется распределением вероятностей возможных результатов. СП подразделяются на дискретные и непрерывные. Дискретные случайные переменные (ДСП) – это те переменные которые имеют конечное число возможных результатов. Пример подбрасывание игральной кости получим ДСП с 6-ю возможными значениями, составим формулу частот игральной кости
Сумма Р(хi)=1. Примером дискретного распределения являются биноминальное и триноминальное распределения. Подбрасывание монеты – биноминальное распределение. Цены на акции могут расти, снижаться, не менятся что приводит к триноминальному распределению. 14. Непрерывные случайные переменные. Если связать каждое число событий из множества событий с каким либо числом то мы получим совокупность чисел, появление каждого из которорых случайно в результате построения эксперимента таким образом мы получим случайную переменную. Если орел – 0, решка – 1, то случайная переменная может принимать только 2 значения. Случайная переменная (х) – это функция принимающая действительное значения на множестве событий, с помощью которой мы ставим в однозначное соответствие каждому событию некоторое число хi т.е. некоторую точку на действительной оси. Следовательно СП есть некоторое преобразование котрое каждому событию ставит в соответствие единственное числовое значение. СП – это такая переменная, поведение которой не определено, исходя из чего мы можем только приписывать ей вероятности возможных значений. Таким образом СП определяется распределением вероятностей возможных результатов. СП подразделяются на дискретные и непрерывные. Непрерывные случайные переменные (НСП) – это СП которые могут принимать бесконечное кличество значений (скорость, температура, рентабельность и т.д.) Рассмотрим доходность ЦБ., она определяется следующим состоянием: Доходность = измеие стоимости ЦБ / начальная стоимость ЦБ. Найти ожидаемую величину НСП путем сложения, как в случае с дискретными переменными, представляется проблематичным, поскольку пришлось бы искать сумму бесконечного множества вероятностей. Для преодоления этой проблемы мы должны определить НСП не путем суммирования функций частот вероятностей, а путем интегрирования функций плотности вероятности. ![]() ![]() ![]() СП –переменная поведение котрой не определено. Основными вероятностями характерными СП являются: 1. распределение вероятностей. 2. математическое ожидание. 3. дисперсия. | 15. Вероятностные характеристики случайной переменной Распределение вероятностей. Существует два типа распределения вероятностей: непрерывное и дискретное распределение. В общем случае распределение вероятностей для дискретной случайной переменной задается в следующем виде
Непрерывные СП имеет более сложные вероятностные описания, функция плотности вероятностей f(x) – это функция которая для любого интервала оси позволяет определить вероятность того, что СП находятся в этом интервале. В общем случае f(x) – это некая кривая ![]() ![]() ![]() Рисунок 1 рисунок 2 Зная функцию плотности вероятности f(х) можно поставить вопрос, чему равна вероятность того, что СП Х примет занчение не больше Х0 ![]() Такую вероятность можно определить для любой точки оси х, определяется тем самым функцию F(х), которая называется функцией распределения ![]() Примеры законов распределения: 1 ![]() ![]() ![]() ![]() 2.. Распределение Стьюдента (t – распределение с n степенями свободы) Пусть х и х2 – это независимые СП, при этом Х имеет норм.распределение, а х2 – распределение с n степенями свободы. ![]() 3.. Распределение Фишера (F-распределение) Пусть имеем две СВ распределенные по закону «хи квадрат» ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() 4.. Равномерное распределение. ![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
18. Распределение вероятностей дискретной и непрерывной случайных переменных. Дискретной называют такую СВ, которая принимает конкретные (отдельные, изолированные, точечные) счетное число значения с определенными вероятностями. Непрерывной называют такую СВ, которая может принимать любое значение из некоторого конечного или бесконечного числового промежутка (интервала). Например, дальность полета снаряда, время (момент) звонка на диспетчерскую скорой помощи, температура воздуха в определенный момент временны и т.д.. Большинство СВ, рассматриваемых в экономике, имеют настолько большое число возможных значений (например, число пассажиров в аэропорту, покупателей в магазине, зрителей на стадионе и т.п.), что их удобнее представлять в виде непрерывных СВ.вероятностей: непрерывное и дискретное распределение. В общем случае распределение вероятностей для дискретной случайной переменной задается в следующем виде
Непрерывные СП имеет более сложные вероятностные описания, функция плотности вероятностей f(x) – это функция которая для любого интервала оси позволяет определить вероятность того, что СП находятся в этом интервале. В общем случае f(x) – это некая кривая ![]() ![]() ![]() Рисунок 1 рисунок 2 Зная функцию плотности вероятности f(х) можно поставить вопрос, чему равна вероятность того, что СП Х примет занчение не больше Х0 ![]() Такую вероятность можно определить для любой точки оси х, определяется тем самым функцию F(х), которая называется функцией распределения ![]() | 19. Законы распределения вероятностей. Примеры законов распределения: 1 ![]() ![]() ![]() ![]() 2.. Распределение Стьюдента (t – распределение с n степенями свободы) Пусть х и х2 – это независимые СП, при этом Х имеет норм.распределение, а х2 – распределение с n степенями свободы. ![]() 3.. Распределение Фишера (F-распределение) Пусть имеем две СВ распределенные по закону «хи квадрат» ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() 4.. Равномерное распределение. ![]() 5. Распределение ![]() Распределение ![]() ![]() ![]() Число степеней свободы функций ![]() ![]() И ![]() ![]() Закон распределения вероятностей позволяет определить две другие важные характеристики совокуп.переменных, а именно матем.ожидание и дисперсию. | 16. Математические ожидания случайной переменной. Математическим ожиданием дискретной СВ называют сумму произведений всех ее возможных значений на их вероятности: Математическое ожидание для дискретной совокуп.переменной ![]()
Тогда М(х)=0*1/8+1*3/8+2*3/8+3*1/8=1,5 Т F(х) аким образом М – это некоторая средневзвешенная арифмитическая величина, следовательно мат.ожидание характеризует меру положения для совокупных величин. Д ![]() ![]() Свойства мат.ожидании: 1. ![]() 2. ![]() 3. ![]() 4. ![]() 17. Дисперсия случайной переменной. Дисперсия (рассеяние, разброс) дискретной СВ. Случайные величины могут иметь одинаковые мат. ожидания, но различные множества возможных принимаемых значений. Поэтому, для того чтобы оценить, как рассеяны возможные значения СВ вокруг ее мат. ожидания, вводят вторую важную числовую характеристику – дисперсию. Которая отражает разброс СВ относительно ее средней величины. с абсолютными величинами затруднительно, поэтому вычисляют среднее значение квадрата отклонения, которое и называют дисперсией: ![]() Пользуясь свойствами мат. ожидания, можно получить формулу: ![]() Свойства дисперсии: 1. ![]() 2. ![]() 3. ![]() 4. ![]() Если ![]() ![]() 5. ![]() | Продолжение вопроса №15 5. Распределение ![]() Распределение ![]() ![]() ![]() Число степеней свободы функций ![]() ![]() И ![]() ![]() Закон распределения вероятностей позволяет определить две другие важные характеристики совокуп.переменных, а именно матем.ожидание и дисперсию. |
20. Многомерное распределение вероятностей. Возникает при параллельном рассмотрении нескольких совокупных переменных. Для простоты рассмотрим двумерный случай плотности вероятности, Двумерная СП характеризуются функцией 2-х переменных f(x1.x2). Распределение вероятностей при этом определяется следующим образом ![]() Условное распределение совокупных переменных. Распределение, кторое характеризуется плотностью вероятности и принимает фиксированное значение, называется условным распределением. Функция условной плотности определяется как отношение 2-х плотностей: ![]() ![]() Математическое ожидание совокупных величин Х1 при заданном значении обозначается и определяется: ![]() | 21. Метод наименьших квадратов. Регрессионное уравнение, разрешённое относительно исследуемой переменной у при наличии одной факторной переменной x, в общем виде записывается как: ![]() Если f(x) является линейной функцией, то мы имеем общий вид модели парной линейной регрессии: ![]() где a – постоянная величина (или свободный член уравнения), b – коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны наблюдения. Фактическое значение исследуемой переменной y тогда может быть представлено в виде: ![]() где ? – разность между фактическим значением (результатом наблюдения) и значением, рассчитанным по уравнению модели. Если модель адекватно описывает исследуемый процесс, то ? – независимая нормально распределённая случайная величина с нулевым математическим ожиданием (М? = 0) и постоянной дисперсией (D? = ?2). Наличие случайной компоненты ? отражает тот факт, что присутствуют другие факторы, влияющие на исследуемую переменную и не учтённые в модели. Для оценки параметров a и b линейной парной регрессии с использованием имеющегося набора результатов наблюдений наиболее часто используют метод наименьших квадратов (МНК), который минимизирует сумму квадратов ?i - отклонения результатов наблюдений yi от рассчитанных по линейной модели (2.3) значений yрi: ![]() ![]() Метод оценки д.б. такими чтобы получить «хорошие» оценки. Метод используемый чаще других для нахождения параметров регрессионного уравнения и известный как метод наименьших квадратов (МНК), при расчете параметров линии с помощью этого метода минимизируются суммы квадратов значений ошибок ![]() Метод наименьших квадратов — один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Метод наименьших квадратов применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений. Когда искомая величина может быть измерена непосредственно, как, например, длина отрезка или угол, то, для увеличения точности, измерение производится много раз, и за окончательный результат берут арифметическое среднее из всех отдельных измерений. Это правило арифметической середины основывается на соображениях теории вероятностей; легко показать, что сумма квадратов уклонений отдельных измерений от арифметической середины будет меньше, чем сумма квадратов уклонений отдельных измерений от какой бы то ни было другой величины. Само правило арифметической середины представляет, следовательно, простейший случай метода наименьших квадратов. Пусть дано решить систему уравнений a1x + b1y + c1z + … + n1 = 0 a2x + b2y + c2z + … + n2 = 0 (1) a3x + b3y + c3z + … + n3 = 0 | 22. Регрессионные модели. Однофакторное регрессионное уравнение. Регрессионное уравнение, разрешённое относительно исследуемой переменной у при наличии одной факторной переменной x, в общем виде записывается как: ![]() Если f(x) является линейной функцией, то мы имеем общий вид модели парной линейной регрессии: ![]() где a – постоянная величина (или свободный член уравнения), b – коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны наблюдения. Фактическое значение исследуемой переменной y тогда может быть представлено в виде: ![]() Регрессионный анализ своей целью имеет вывод, определение (идентификацию) уравнения регрессии , включая статистическую оценку его параметров. Уравнение регрессии позволяет найти значение зависимой переменной, если величина независимой или независимых переменных известна. Практически, речь идет о том, чтобы, анализируя множество точек на графике (т.е. множество статистических данных), найти линию, по возможности точно отражающую заключенную в этом множестве закономерность (тренд, тенденцию), линию регрессии. По числу факторов различают одно-, двух- и многофакторные уравнения регрессии . По характеру связи однофакторные уравнения регрессии подразделяются: а) на линейные: ![]() б) степенные: ![]() ![]() Смысл регрессионного анализа – построение функциональных зависимостей между двумя группами переменных величин Х1, Х2, … Хр и Y. При этом речь идет о влиянии переменных Х (это будут аргументы функций) на значения переменной Y (значение функции). Переменные Х мы будем называть факторами, а Y – откликом. Сегодня мы разберем наиболее простой случай – установление зависимости одного отклика y от одного фактора х. Такой случай называется парной (простой) регрессией/ В общем виде однофакторное регрессионное уравнение можно записать в виде: М(у/х)=f(х), где левая часть – это условие математического ожидания переменной у при заданном значении переменной х. Частный случай однофакторного РУ является линейная модель зависимость которой записывается следующим образом ![]() У – зависимая переменная. Х – независимая переменная, а –свободный член регрессии (постоянное число), в –коэффициент регрессии, показывает наклон линии, ![]() | 23. Процедура проверки адекватности регрессивных уравнений. Экономический рост (ЭР) - увеличение Адекватность – это соответствие модели реальному моделируемому процессу, а также достоверность его параметров. Проверка адекватности регрессионных уравнений производится в несколько этапов:
24. Показатели качества подгонки однофакторного регрессивного уравнения. Отражают соотношение расчетных значений зависимости переменной ![]() ![]() Остаточная дисперсия ![]() ![]() Коэффициент детерминации ![]() ![]() Коэффициент детерминации R2 может принимать значения от 0 до 1. Чем ближе коэффициент детерминации R2 к единице, тем лучше качество модели. Коэффициент корреляции. статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции. Корреляция может быть положительной и отрицательной (возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин). Отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой переменной, при этом коэффициент корреляции отрицателен. Положительная корреляция — корреляция, при которой увеличение одной переменной связано с увеличением другой переменной, при этом коэффициент корреляции ![]() |
25. Проверка гипотез о наличие линейной связи между переменными и существенности влияния фактора на результат в однофакторном РУ. Приведенные ранее показатели качества подгонки не позволяют принять окончательного статического решения по пригодности РУ. Такие решения принимаются на основе стат.критериев. Одним из таких критериев является F-критерий (F статистика). После оценки свободного члена регрессии (а) и коэффициента регрессии (в) выдвигается гипотеза о том, что линейная связь между х и у не подтверждается. ![]() Близкое к 0 значение этой суммы свидетельствует об отсутствии какой либо тенденции для у в связи с изменениями х. Если Fрасч>Fтабл, то гипотезу об отсутствии лин.связи отвергаем с вероятностью р. ![]() k-количество факторов в модели n- количество наблюдений. Отдельно исследуется коэффициент регрессии, выдвигается гипотеза что Х влияет на У не существенно. Выдвинутая гипотеза равноценна тому что b=0 на всей генеральной совокупности. ![]() Если наша гипотеза верна то t-статистика или t-критерий подчиняется t-распределению со степенью свободы n-2 ![]() ![]() ![]() ![]() | 26. Регрессионные модели. Многофакторное регрессионное уравнение. Область применения однофакторных РУ ограничена, т.к. измерение эконом. показателей, как правило объясняются несколькими факторами. В таком случаи более приемлемым являются математический аппарат многофакторных уравнений. В общем виде многофакторное регрессионное уравнение можно записать виде: ![]() Можно записать частный вид МНУ – линейную модель ![]() b0 – свободный член регрессии b1,b2, b3, bn – коэффициенты регрессии Коэффициенты регрессии многофакторной модели имеют такой же смысл что и однофакторной модели, т.е. коэффициент регрессии в МРУ показывает прирост результата (зависимой переменной у) на единицу прироста n-го фактора при фиксированных значениях остальных факторов. Множественные коэффициенты регрессии как правило оцениваются также методом наименьших квадратов. В этом случае для определения параметров множественной регрессии с к факторами, решается система с к+1 неизвестными методом наименьших квадратов дает «хорошие» оценки при соблюдении некоторых условий относительно случайных компонентов ![]() 1. ![]() 2. ![]() 3. ![]() 4. Условие независимости факторов между собой. Нарушение этого условия называется мультиколлинеарностью. | 27. Показатели качества подгонки многофакторного регрессионного уравнения. Качество подгонки множеств регрессии оценивается на основе таких же показателей адекватности и тех же критериев, что и в однофакторной модели. Первый из этих показателей остаточная дисперсия: ![]() Второй показатель коэффициент детерминации ![]() Однако в МРУ добавление дополнительных объясняющих переменных всегда увеличивает коэффициент детерминации дожжен быть скорректирован с учетом числа независимых переменных. Корректировка производится по следующей формуле: ![]() ![]() n- количество наблюдений. F-статистика в МРУ рассчитывается по следующей формуле: ![]() Если Fтасч >Fтабл то гипотезу о том, что уравнение несущественно отвергаем с вероятностью р | 28. Отбор существенных факторов в многофакторном РУ. F-статистика в МРУ рассчитывается по следующей формуле: ![]() Если Fтасч >Fтабл то гипотезу о том, что уравнение несущественно отвергаем с вероятностью р Особое важное значение для МРУ имеет ![]() ![]() ![]() ![]() ![]() Сущность влияния n-го фактора на результат проверяется на основе выдвижения гипотезы, что bn=0. Если гипотеза верна то t-статистика подчиняется t-распределению, для t-распределения имеются табличные значения. Tтабл определяется для верности р и степени свободы n-k-1. (по табл сьютенда) Если tтасч >tтабл. То гипотеза о том, что bn=0 отвергается. И в этом случае влияние n-го фактора признается существенным. В противном случае, n-й фактор исключается из уравнения и уравнения регрессии строится заново со всеми вытекающими процедурами проверки адекватности. При отборе существенных факторов также необходимо иметь ввиду, что наличия мультиколлинеарности приводит к искусственному увеличению значений стандартных ошибок что в свою очередь приводит к уменьшению t-статистики, даже для логически существенных связей. В таких случаях можно применять методы оценивания с учетом мультиколлинеарности. |
30. Условия для получения «хороших» оценок Методом Наименьших Квадратов в однофакторном и многофакторном РУ. Метод наименьших квадратов дает «хорошие» оценки коэффициентов регрессии при выполнении некоторых условий. Эти условия касаются случайные компоненты ![]() Для однофакторной модели это след.условия: 1) ![]() ![]() ![]() В многофакторной модели добавляются следующие условия: 4) это независимость факторов между собой т.е. ![]() 29. Экономический смысл коэффициентов регрессии в однофакторном и многофакторном РУ. | 31. Проверка выполнение 1-го и 2-го условия для получения «хороших» оценок Методом Наименьших Квадратов. Метод наименьших квадратов дает «хорошие» оценки коэффициентов регрессии при выполнении некоторых условий. Эти условия касаются случайные компоненты ![]() Для однофакторной модели это след.условия: 1) ![]() ![]() ![]() В многофакторной модели добавляются следующие условия: 4) это независимость факторов между собой т.е. ![]() Условие: 1 ![]() ![]() ![]() Метод наименьших квадратов при отсутствии ошибок в расчетах всегда дает выражение данного условия. 2) ![]() Н ![]() Если остатки имеют постоянную дисперсию, то они называются гомаскедастичными, являются называются гомоскедастичностью. Если остатки непостоянны, то они называются гетероскедостичными, а явление называется гетероскедастичностью. Гетероскедастичность приводит к тому, что коэффициенты регрессии не представляют собой лучшие оценки или не являются оценками с наименьшей дисперсией. Следовательно они не являются «хорошими» коэффициентами. Непостоянство дисперсий часто встречается в моделях нестационарной экономики(Рссия), когда в качестве исходных данных используется временные ряды стоимостных показателей. В пространстве выборках гетероскедастичность встречается когда анализируемые объекты не однородны по своему масштабу. Гетероскедичность ведет к тому что стандартные ошибки будут смещенными, решение о наличии гетероскедичности принимается на основе общей процедуры проверки гипотез. Один из критериев F-критерий ![]() ![]() Данный F-критерий имеет F – распределение со степенями свободы n1=n/2-k, n2=n/2-k При этих степенях свободы находим Fтабл, сравнивая Fрасч с Fтабл 1) если Fрасч попадает в интервал ![]() ![]() 2) если Fр >Fт, то дисперсия уменьшается 3) если Fр <1/Fт то дисперсия увеличивается | 32. Проверка выполнение 3-го условия для получения «хороших» оценок Методом Наименьших Квадратов. 3) ![]() Нарушение условия проявляются в том, что м/у ошибками разных наблюдений есть какая то зависимость. Графически нарушение этого условия можно представить: ![]() Нарушение условия независимости остатков м/у собой называется автокорреляцией остатков, имеет место когда текущее значение уi . Нарушение 3-го условия независимости остатков делает модель неадекватной. Вызвано это тем что при наличии автокорелляции стандарт ошибки модели будут недооценены. И как следствие проверка значимости коэффициентов регрессии будет ненадежной. Проверку на наличие автокорелляции проводят на основе теста Дарвина-Уотсона (статистика критерий Д-У) ![]() Строгие решения принимаются из правил: 1) если ![]() 2) если ![]() 3) ![]() 4) если ![]() | 33. Проверка выполнение 4-го условия для получения «хороших» оценок Методом Наименьших Квадратов в многофакторном РУ. Коэффициент корелляции. Условие независимости факторов м/у собой. ![]() Нарушение данного условия, когда факторы зависят друг от друга, называется мультиколлинеарностью. Нарушение условия 4 является нарушением одного из требований классической регрессии. Мультиколлинеарность проверяется на основе коэффициента корреляции ![]() Для того чтобы мультиколлинеарности не было д.б. ![]() Мультиколлениарность возникает из-за неисправного выбора списка объясняющих переменных или из за эконом.природы выбранных переменных. Внешние признаками мультиколлениарности явл.следующие признаки:
Для устранения мультиколлениарности существует несколько способов:
|