Лаговский А.Ф. Теория вероятностей - файл n1.doc

приобрести
Лаговский А.Ф. Теория вероятностей
скачать (736.2 kb.)
Доступные файлы (18):
n1.doc3787kb.17.09.2011 08:00скачать
n2.doc217kb.17.09.2011 07:59скачать
n3.doc387kb.17.09.2011 07:59скачать
n4.doc336kb.17.09.2011 07:59скачать
n5.doc743kb.17.09.2011 07:59скачать
n6.doc363kb.17.09.2011 07:58скачать
n7.doc434kb.17.09.2011 07:58скачать
n8.doc289kb.17.09.2011 07:58скачать
n9.doc103kb.17.09.2011 07:58скачать
n10.doc155kb.17.09.2011 07:57скачать
n11.doc159kb.17.09.2011 07:57скачать
n12.doc152kb.17.09.2011 07:57скачать
n13.doc115kb.17.09.2011 07:57скачать
n14.doc480kb.17.09.2011 07:56скачать
LAG_TIT.DOC40kb.17.09.2011 07:59скачать
n16.doc44kb.17.09.2011 07:56скачать
n17.doc33kb.17.09.2011 07:56скачать
n18.doc31kb.17.09.2011 07:56скачать

n1.doc

  1   2   3   4   5


ВВЕДЕНИЕ
Все события, происходящие как в природе, так и в обществе, взаимосвязаны между собой самым теснейшим образом: одни из них являются следствием других и, в свою очередь, служат причиной третьих. Эти события можно разделить на два класса - события детерминированные и события случайные.

Детерминированные события характеризуются тем, что при определенном комплексе условий они или всегда наступают, или никогда не наступают. Например, комплексом условий, при которых вода превращается в пар, являются атмосферное давление в 760 мм и температура выше 100 по Цельсию. С другой стороны, при этом же комплексе условий вода не может превратиться в лед.

Другой класс событий характеризуется тем, что при определенном комплексе условий, они могут как наступить, так и не наступить, предсказать заранее, наступит событие или нет, невозможно. Например, при однократном бросании монеты появление герба на верхней стороне - событие случайное, количество солнечных дней в предстоящем году - тоже заранее предсказать невозможно, проработает ли орбитальная станция без поломок в течение гарантийного срока, заранее неизвестно. Это все случайные события, изучением которых и занимается теория вероятностей.

Следует отметить, что увеличение наших знаний об окружающем мире предъявляет все новые запросы к теории вероятностей, хотя это кажется парадоксальным, поскольку основным объектом теории вероятностей является случайность или неопределенность, как правило, связанная с незнанием. Именно так обстоит дело в примере с однократным подбрасыванием монеты, где технические возможности настоящего не позволяют учесть все факторы, определяющие положение монеты после падения.

В действительности парадоксальность здесь только кажущаяся, так как точных, детерминированных количественных законов в окружающем мире почти не существует. Например, закон о зависимости давления газа от его температуры есть в действительности результат вероятностного характера о числе соударений частиц о стенки сосуда и их скоростях. Но при обычных условиях случайные отклонения, которые тут имеют место, с большой вероятностью очень малы и зарегистрировать их приборами, имеющимися в нашем распоряжении, просто невозможно.

Однако в теории вероятностей интерес представляют не сами по себе случайные события, а закономерности, возникающие при многократном повторении опытов со случайными исходами. Иначе говоря, интерес представляют только такие события, условия для появления которых могут возникать бесконечное число раз, и вместе с тем эти массовые случайные события должны обладать свойством так называемой статистической устойчивости, суть которой будет излагаться в пособии, а пока отметим, что теория вероятностей изучает закономерности в массовых случайных событиях. Сочетание противоположных понятий “случайность - закономер­ность” - стержневая особенность построения пособия.

Возникновение теории вероятностей принято относить к середине XVII века и связывать с комбинаторными задачами азартных игр, которые не укладывались в рамки существующих тогда математических моделей, поскольку отличаются тем, что исходы нельзя предсказать заранее. Здесь мы имеем дело с многократно повторяющейся ситуацией, где исход каждой случаен. Известные математики того времени Гюйгенс, Паскаль, Ферма и Яков Бернулли обратили внимание на это, предполагая, что в массовых случайных событиях должны проявляться определенные закономерности и сделали попытки их обнаружить.

В дальнейшем теория вероятностей нашла свое приложение в задачах, возникающих в страховании и демографии, и долгое время не находила других приложений.

Последующее развитие теории вероятностей связано с требованиями со стороны бурно развивающегося естествознания, особенно физики и астрономии. Более точные измерения потребовали исследования ошибок, возникающих при этом. Ошибки, как правило, случайны и не поддаются индивидуальному учету, но проявляют некоторую устойчивость. Так появилась теория ошибок наблюдения, большой вклад в развитие которой внесли Лаплас, Пуассон и Гаусс.

С половины XIX века и до двадцатых годов XX века развитие теории вероятностей связано с именами русских ученых П.Л.Чебышева, А.А.Маркова, А.М.Ляпунова, которые впервые ввели и широко использовали случайные величины, а также создали эффективные методы доказательства предельных теорем для сумм независимых случайных величин.

Современный период развития теории вероятностей характеризуется установлением аксиоматики. В 1933 г. вышла книга русского математика А.Н.Колмогорова “Основные понятия теории вероятностей”, в которой была предложена аксиоматика, получившая всеобщее признание и позволившая охватить все классические разделы теории вероятностей в современном естествознании.

Как уже отмечалось, теория вероятностей имеет дело со случайными событиями. Здесь следует отвлечься от житейского представления, когда под случайным событием понимается что-то крайне редкое, идущее вразрез установившемуся порядку вещей. Случайные события в теории вероятностей обладают рядом характерных особенностей: в частности, все они происходят в массовых явлениях. Под массовыми явлениями здесь понимаются такие, которые имеют место в совокупностях большого числа равноправных или почти равноправных объектов и определяются именно этим массовым характером явлений и лишь в незначительной степени зависят от природы составляющих объектов.

Теория вероятностей, подобно другим разделам математики, развилась из потребностей практики, и абстрактно она отражает закономерности в массовых случайных событиях. Эти закономерности играют очень важную роль в различных областях естествознания, медицине, технике, экономике, военном деле и т.д. Многие разделы теории вероятностей были развиты благодаря запросам практики.


Глава 1. СЛУЧАЙНЫЕ СОБЫТИЯ
§1. Алгебра событий
Теория вероятностей изучает только такие случайные события, в отношении которых имеет смысл не только утверждения об их случайности, но и возможна объективная оценка доли случаев их появления. Эта оценка может быть выражена предложением вида:

Вероятность того, что при осуществлении определенного комплекса условий произойдет некоторое событие, равна p.

Формулировка детерминистических закономерностей, более привычных для всех, звучит так:

При каждом осуществлении определенного комплекса условий обязательно происходит некоторое событие.

Событием будем называть любой факт, который может произойти или не произойти при определенном комплексе условий. События будем обозначать большими латинскими буквами A,B,C,...

Среди всех событий выделим два крайних:

1. Событие  называется достоверным, если оно наступает при каждой реализации комплекса условий. Например, при бросании двух игральных костей сумма выпавших очков не может быть меньше двух

2. Событие  называется невозможным , если оно не наступает ни при одной реализации комплекса условий. Например, при бросании двух игральных костей сумма выпавших очков не может быть больше двенадцати.

Над событиями можно ввести определенные операции.

1. Следование событий.

Говорят, что событие A влечет событие B ( обозначается AB), если при наступлении события A обязательно наступает и событие B.



Если событие A состоит в том, что наудачу брошенная точка попала в область A, а событие B - в область B, то соотношение AB выполняется тогда, когда область A целиком содержится в области B. Если AB и одновременно BA, то события A и B называются эквивалентными или равными A=B. Очевидно, что для любого события A имеет место включение вида A.

2. Произведение событий.

Произведением событий A и B называется такое событие C, которое происходит тогда, когда происходят событие A и событие B, и обозначается C=A.



A=C A=

Два события A и B называются несовместными, если их совместное появление невозможно, то есть, если A =.

3. Объединение (сумма) событий.

Событие C называется суммой, или объединением, событий A и B, если оно происходит тогда, когда наступает хотя бы одно из событий A или B, С=A.

Если события A и B несовместны, то для их суммы можно пользоваться обозначением С=A+B. Тогда для сумм конечного или счетного числа событий Ai можно записать , для произвольных событий Ai и , для событий попарно несовместных.

События Ai (i=1,2,...) называются попарно несовместными, если для любой пары i и j Ai=, i  j.

Можно легко показать, что введенные операции над событиями удовлетворяют следующим соотношениям:

(A)=A); (A)=A;

A=B; A=B;

(A)=(A)); (A)=(A)).
4. Вычитание событий.

Событие С называется разностью событий A и B, если оно наступает лишь тогда, когда происходит событие A и не происходит событие B, C=A\B. Событие \A называется противоположным событию A и обозначается =\A.



Через операции и связь между событиями A и можно выразить так:

A= и A=.

Относительно противоположных событий имеют место так называемые формулы двойственности:
1. \ = или =; (1.1.1)

2. \= или =. (1.1.2)
5. Полная группа событий.

События A1,A2,...,An образуют полную группу событий, если хотя бы одно из них непременно должно произойти (при каждом осуществлении комплекса условий), то есть, если =.

События A1,A2,...,An образуют полную группу попарно несовместных событий, если =, то есть для  ij: Ai= и =.

Например, при однократном бросании игральной кости система событий A1,A2,A3,A4,A5,A6, состоящих в выпадении 1,2,3,4,5 и 6 очков, соответственно является полной группой попарно несовместных событий.

6. Алгебра и -алгебра событий.

Пусть  - множество взаимоисключающих исходов некоторого опыта и на этом множестве задана система подмножеств F, удовлетворяющая условиям:

1) F, F;

2) из того, что AF, следует, что также F;

3) из того, что AF и BF, следует, что AF, AF и A\BF.

Тогда множество F называется алгеброй событий.

Если дополнительно к перечисленным выполняется еще следующее условие:

4) из того, что AiF для i=1,2,..., следует, что F и F, то множество F называется -алгеброй.

Элементы -алгебры F, заданной на множестве , называются случайными событиями.

Под операциями над случайными событиями понимаются операции над соответствующими множествами. В результате можно составить таблицу соответствий между алгеброй множеств и алгеброй событий.

Таблица


Обозначения

Функциональный анализ

Теория вероятностей



Элемент множества, точка

Исход, элементарное событие



Множество точек, пространство

Пространство исходов, элементарных событий; достоверное событие

F

-алгебра подмножеств

-алгебра событий

AF

Множество точек

Событие (если A, то говорят, что наступило событие A)

=\A

Дополнение множества A, т.е. множество точек , не входящих в A

Событие, состоящее в ненаступлении события A.

A

Объединение множеств A и B, т.е. множество точек , входящих в A или в В

Событие, состоящее в том, что произошло событие A, либо событие B

A

(или AB)

Пересечение множеств A и B, т.е. множество точек , входящих в A и в B

Событие, состоящее в том, что одновременно произошло и событие A, и событие B

Окончание табл.


Обозначения

Функциональный анализ

Теория вероятностей



Пустое множество

Невозможное событие

A=

Множества A и B не пересекаются

События A и B несовместны (не могут наступать одновременно)

A+B

Сумма множеств, т.е. объединение непересекающихся множеств

Событие, состоящее в том, что произошло одно из двух несовместных событий

A\B

Разность множеств A и B, т.е. множество точек, входящих в A, но не входящих в B

Событие, состоящее в том, что произошло событие A, но не произошло событие B



Объединение множеств

A1, A2 ,...

Событие, состоящее в наступлении по крайней мере одного из событий

A1,A2 ,...



Сумма,т.е. объединение попарно непересекающихся множеств A1,A2,...

Событие, состоящее в наступлении одного из несовместных событий A1,A2,,,.



Пересечение множеств A1,A2,...

Событие, состоящее в том, что одновременно произошли события A1,A2,,,

AB

A есть подмножество B

Событие A влечет событие B

A=B

Множества A и B равны

События A и B эквиваленты

AnA или A=An

Возрастающая последовательность множеств An, сходящаяся к A, т.е. A1A2... и A=

Возрастающая последовательность событий, сходящихся к событию A

An A или A=An

Убывающая последовательность множеств An, сходящихся к A, т.е. A1A2... и A=

Убывающая последовательность событий, сходящихся к событию A

или lim sup An

Множество

Множество исходов , которое бесконечное число раз встречаются в последовательности A1,A2,...

An или lim inf An

Множество

Событие, состоящее в том, что произойдут все события A1,A2,... за исключением, может быть, только конечного числа их




Алгебра или -алгебра множеств

Алгебра или -алгебра событий

Таким образом, можно сделать некоторое обобщение.

Имеется некоторое пространство элементарных событий , элементы которого  - исходы некоторого опыта. На этом пространстве задана некоторая -алгебра множеств F, причем элементы множества F есть случайные события. Пару (,F) будем называть измеримым пространством.

Все теоремы функционального анализа, касающиеся множеств, полуколец, колец, алгебр и -алгебр, превращаются в соответствующие теоремы теории вероятностей с точностью до терминологии.
§2. Вероятность случайных событий
Основной характеристикой случайного события является его вероятность. Существует несколько определений вероятности, из которых рассмотрим лишь некоторые.
1. Классическое определение вероятности.

Пусть пространство элементарных событий является конечным и содержит n элементов, то есть ={1,2 ,...n}.

Будем считать, что события 1,2,...,n являются равновозможными. Понятие равновозможности является первичным и не может быть сведено к другим понятиям, а лишь может быть пояснено. Понятие равновозможности следует считать связанным с симметрией проводимого опыта, когда ни один из возможных исходов не имеет каких-либо преимуществ в появлении перед другими. Например, при бросании монеты, если она симметрична и однородна, появление цифры или герба равновозможно.

Пусть некоторое событие A содержит mn элементов, то есть A={i1,i2,...,im}.

Вероятностью события A называется величина

P(A)=. (1.2.1)

Это определение называется классическим определением вероятности. Иными словами можно сказать, что вероятностью события называется отношение числа исходов опыта, при которых наступает событие A, к общему числу возможных исходов опыта. При этом обязательным условием является равновозможость исходов опыта.

Классическое определение вероятности удобнее всего иллюстрировать на так называемой урновой модели. Рассмотрим примеры.

Пример 1. В урне находится 10 лотерейных билетов, из которых 4 выигрышные. Из урны, не глядя, наудачу вынимаются два билета. Найти вероятность того, что: а) оба билета выигрышные; б) оба билета без выигрыша; в) один билет выигрышный, а другой - нет.

Решение. Пусть A - событие, состоящее в том, что оба билета выигрышные; B - оба билета без выигрыша; С - один билет выигрышный, а другой - нет.

а) Выбор двух билетов из десяти можно осуществить n==45 способами, а двух выигрышных билетов из четырех - m==6 способами. Тогда по формуле (1.2.1) P(A)=6/45=2/15.

б) Имеется m=C=15 возможностей выбора билетов без выигрыша. В этом случае вероятность P(B)=15/45=1/3.

в) Существует 4 возможности вытащить выигрышный билет и 6 возможностей - билет без выигрыша. Согласно основному принципу перечисления, имеется m=64=24 возможностей вытащить один билет с выигрышем, а другой - без выигрыша. Тогда P(C)=24/45=8/15.

Пример 2. В партии из n изделий k изделий являются бракованными. Для контроля выбирается m изделий. Найти вероятность того, что из m изделий l окажутся бракованными.

Решение. Выбор m изделий из n можно осуществить C способами, а выбор l бракованных из k бракованных изделий C способами. После выбора l бракованных изделий останется выбрать ml годных среди nk изделий. Но из nk годных изделий выбрать ml годных можно C способами. По основному принципу перечисления число исходов, благоприятствующих выбору l бракованных изделий из k бракованных и ml годных изделий из nk годных, равно CC. Тогда искомая вероятность P=.
2. Геометрическое определение вероятности.

В своей идейной основе геометрическое определение вероятности не отличается от классического. Единственное отличие состоит в структуре пространства элементарных событий .

Множество элементарных исходов не является дискретным. Представим себе, что из  наудачу выбирается точка, причем выбор любой точки равновозможен. Пусть событие A- выбор точки из области A. Тогда вероятность наступления события A определяется как

P(A) = , (1.2.2)

где mes означает меру области A, которая может быть длиной, если  - одномерное множество; площадью, если  - двумерное множество и объемом, если  - трехмерное множество. Проиллюстрируем геометрическое определение вероятности (1.2.2) примером.

Пример 3. Пусть дан отрезок длины l, на котором случайным образом выбираются две точки C и B. Считая, что выбор любой точки отрезка равновозможен, найти вероятность того, что длина отрезка будет меньше a (al).



Решение. Обозначим через х координату точки C, y - координату точки B. Тогда множество пар чисел (х,y) заполняют на плоскости хOy квадрат, сторона которого равна l , - это множество . Интересующее нас событие A наступает тогда, когда xy a. Множество таких значений - это часть квадрата, границами которой являются прямые xy=a и yx=a. Поэтому P(A)=.

3. Статистическое определение вероятности.

Основная трудность классического и геометрического определения вероятности - это выделение равновозможных событий, образующих пространство . В реальных ситуациях такое выделение, основанное на свойствах симметрии изучаемого явления, не всегда возможно.

В основе статистического определения вероятностей лежит опытный факт - так называемая устойчивость частот.

Пусть проделано n опытов, в каждом из которых может наступить или не наступить событие A. И пусть событие A наступило в m опытах (mn). Тогда величина

h=

называется частотой наступления события A. Построим график зависимости частоты h от n. Как показывает опыт, для подавляющего большинства событий график этой зависимости имеет достаточно характерный вид.



Если при малых n на графике имеются нерегулярные колебания достаточно большой амплитуды, то с ростом n размах этих колебаний все более уменьшается и график зависимости h от n приближается к прямой, что говорит о существовании предела

P(A)=h=, (1.2.3)

к которому приближается частота при n. Этот предел и называют статистическим определением вероятности.

Замечание 1. В некоторых случаях не наблюдается устойчивость частот. Но это обычно не означает, что к этим событиям теория вероятностей неприменима, а означает, что в основе изучаемого явления лежит какая-то более сложная модель, чем изучаемая.

Замечание 2. При таком определении не видно связи между P(A) определенной статистически и вероятностью события по классическому или геометрическому определению. Но они совпадают, и это мы увидим в дальнейшем.
§3. Аксиомы теории вероятностей
С развитием естествознания к теории вероятностей стали предъявляться повышенные требования. Возникла необходимость в систематизации основных понятий теории вероятностей и выяснении условий, при которых возможно использование ее результатов. Поэтому важное значение приобрело формально-логическое обоснование теории вероятностей, ее аксиоматическое построение. При этом в основу теории вероятностей как математической науки должны быть положены некоторые предпосылки, являющиеся обобщением человеческого опыта.

Отправным пунктом аксиоматики Колмогорова является рассмотренная выше алгебра и -алгебра событий.

Аксиома 1. Каждому случайному событию A поставлено в соответствие неотрицательное число P(A), называемое его вероятностью.

Аксиома 2. P()=1.

Аксиома 3 (аксиома сложения). Если последовательность событий Аi такова, что Ai= при i  j, то

P()=. (1.3.1)

Поскольку в теории вероятностей приходится рассматривать последовательность случайных событий, то возникает необходимость в дополнительном предположении, названном расширенной аксиомой сложения.

Расширенная аксиома сложения. Если событие A равносильно наступлению хотя бы одного из попарно несовместных событий A1,A2,...,An,..., то

P(A)=P(A1)+P(A2)+...+P(An )+... .

Расширенная аксиома сложения может быть заменена равносильной ей аксиомой непрерывности.

Аксиома непрерывности. Если последовательность событий B1,B2,...,Bn,... такова, что каждое последующее влечет за собой предыдущее и произведение всех событий Bn есть невозможное событий, то P(Bn)0 при n.

Докажем, что расширенная аксиома сложения эквивалентна обычной аксиоме сложения и аксиоме непрерывности.

1. Из расширенной аксиомы сложения следует аксиома непрерывности. Действительно, пусть события B1,B2,...,Bn,... таковы, что B1B2...Bn... и при любом n1.

= . (1.3.2)

Очевидно, что

Bn =+.

Так как события, стоящие в этой сумме, попарно несовместны, то согласно расширенной аксиоме сложения

P(Bn )=)+P().

Но согласно условию (1.3.2) P()=0 и, следовательно,

P(Bn)=),

т.е. P(Bn ) есть остаток сходящегося ряда

=P(B1 ).

Поэтому P(Bn )0 при n.

2. Из аксиомы непрерывности следует расширенная аксиома сложения. Пусть события A1,A2,...,An,... попарно несовместны и A=A1+A2+...+An+...

Положим Bn= и отметим, что Bn+1Bn . Докажем, что=. Предположим от противного, что произошло. А это означает, что наступило и какое-либо из событий Ai (in) и, значит, в силу попарной несовместности событий Ak события Ai+1, Ai+2 ,... уже не наступили. Таким образом события Bi+1, Bi+2 ,... не наступили, но это противоречит предположению о том, что произошло. По аксиоме непрерывности P(Bn)0 при n. Поскольку A=A1+A2+...+An+Bn+1, то по обычной аксиоме сложения

P(A)=P(A1)+P(A2)+...+P(An)+P(Bn+1)= =.
§4. Основные свойства вероятности. Вероятностная мера
Рассмотрим свойства вероятности, используя для этого геометрическое определение вероятности

1. P()==1; (1.4.1)

P()==0. (1.4.2)

Таким образом, вероятность достоверного события равна единице, вероятность невозможного - нулю. Доказанное здесь соотношение (1.4.1) соответствует аксиоме 2, а (1.4.2) получается, кроме того, из очевидного равенства =+ и аксиомы 3.

2. Пусть AB, тогда P(A)P(B). Это следует из того, что mes(A)mes(B), и в этом случае

P(A)==P(B).

В частности, поскольку A, то для любого события

0P(A)1. (1.4.3)

3. Пусть A=, то есть события A и B несовместные, тогда P(A+B)=P(A)+P(B)

P(A+B)==+=P(A)+P(B), (1.4.4)

что соответствует аксиоме 3.

4. Если AB, то P(B\A)=P(B)P(A).

Действительно, если AB, то B=A+(B\A) и P(B)=P(A)+P(B\A). Отсюда и получаем, что P(B\A)=P(B)P(A).

5. P()=1P(A). В самом деле, =\A, поэтому

P()=P()P(A)=1P(A).

Таким образом, можно отметить, что вероятность есть неотрицательная счетно-аддитивная функция множеств, причем P()=1.

В соответствии с понятием меры в функциональном анализе можно сказать, что вероятность P(A) есть конечная мера с нормировкой P()=1. Поэтому часто говорят не о вероятности, а о вероятностной мере, заданной на измеримом пространстве.

Вероятностным пространством называют тройку символов (,F,P), где  - пространство элементарных событий, F - -алгебра подмножеств , называемых случайными событиями, и P - вероятностная мера, определенная на -алгебре F.

Все теоремы функционального анализа, касающиеся свойств меры, становятся теоремами теории вероятностей с заменой слова “мера” на слово “вероятность”. Напомним некоторые из этих теорем.

a) Теорема о полуаддитивности вероятности.

Если A, то )P(A); в частности, P()).

Если A, то P(A).

б) Теорема о последовательностях случайных событий.

P(infAn)  P(Ak);

P(supAn)P(An );

в частности, если An монотонная последовательность, то

P(An)=P(An),

где An означает или .
в) Непрерывность вероятности.
Вероятность называется непрерывной сверху на пустом множестве, если из того, что An невозрастающая последовательность, сходящаяся к пустому множеству, следует P(An)=0.

Для того, чтобы вероятность была счетно-аддитивной, необходимо и достаточно, чтобы она была непрерывной сверху на пустом множестве и выполнялась обычная теорема сложения.

6. Теорема сложения вероятностей. Выше было показано, что вероятность суммы несовместных событий равна сумме вероятностей, то есть, если A=, то

P(A+B)=P(A)+P(B).

Получим теперь формулу для вероятности суммы совместных событий, которая называется теоремой сложения вероятностей.



A

Как видно из рисунка, в случае объединения двух событий A его можно представить в виде объединения трех несовместных событий

A=A\B+B\A+A.

Тогда по формуле (1.3.1) можем записать

P(A)=P(A\B)+P(B\A)+P(A). (1.4.5)

Для определения вероятности P(A\B) воспользуемся следующим представлением события A:

A=A\B+A.

Откуда

P(A)=P(A\B)+P(A),

или

P(A\B)=P(A)P(A). (1.4.6)

Аналогично

B=B\A+A,

P(B)=P(B\A)+P(A)

и

P(B\A)=P(B)P(A). (1.4.7)

Подставляя в формулу (1.4.5) формулы (1.4.6) и (1.4.7), получим

P(A)=P(A)+P(B)P(A). (1.4.8)

Отсюда следует, что

P(A)P(A)+P(B).

Для n совместных событий теорема сложения имеет вид

P()=+...+

+(1)P(). (1.4.9)

Докажем эту формулу по индукции, используя (1.4.8). Для n=2 формула доказана. Пусть формула (1.4.9) верна для некоторого n. Добавим еще одно событие A, тогда по формуле (1.4.8) имеем

=+A,

P()=P()+P(A)P(A()). (1.4.10)

Но A()= согласно соотношению

(A) =(A)(B),

поэтому P(A)=P((AAi))=

+ ... (1)P(). (1.4.11)

Подставляя (1.4.9) и (1.4.11) в (1.4.10), получим

P()=+...+(1)nP(),

что и доказывает теорему сложения вероятностей.

Рассмотрим примеры.

Пример 1. На экзамене 15 билетов разложены в случайном порядке, причем студент знает ответ только на 5 билетов. Преподаватель предложил студенту взять три билета. Найти вероятность того, что хотя бы один билет попадет студенту, на который он знает ответ.

Решение 1. Событие A (хотя бы один билет из трех студент знает) и событие ( ни одного билета студент не знает) - противоположное.

Поэтому P(A)+P()=1 или P(A)=1P()

P()=CC=24/91, P(A)=124/91=.

Решение 2. Требование, хотя бы один билет попадется студенту, на который он может ответить - будет осуществлено, если произойдет любое из следующих трех несовместных событий: B - студент знает один билет, С - 2 билета, D - 3 билета. Интересующее нас событие A можно представить в виде суммы событий A=B+C+D. По теореме сложения вероятностей P(A)=P(B)+P(C)+P(D)

P(B)==; P(C)==; P(D)==

P(A)=++=.
§5. Условная вероятность. Теорема умножения вероятностей
Как уже отмечалось, вероятность события P(A) является его исчерпывающей характеристикой.

Однако так обстоит дело лишь в случае одного случайного события. В действительности часто приходится иметь дело со случаем, когда в каждом отдельном опыте наступает несколько случайных событий, то есть мы имеем дело с совокупностью случайных событий. Рассмотрим пример.

Опыт состоит в том, что симметричная монета подбрасывается три раза. Событие A состоит в том, что герб выпал один раз. Используя классическое определение вероятности, получим, что P(A)=, то есть

ГГГ PPP ГРГ ГГР из всего набора возможных 8 вариантов

РГГ РРГ РГР ГРР очередности выпадания гербов и решек

событию A соответствуют РРГ, РГР и ГРР.

Теперь на базе этого же опыта рассмотрим совокупность двух событий. К событию A добавим еще событие B, состоящее в том, что число выпавших гербов нечетно. И пусть стало известно, что событие B наступило. Событие B состоит из четырех элементарных исходов, а событие A состоит из трех исходов события B. Значит, эти события как-то связаны между собой, и, следовательно, вероятность события A при условии, что событие B наступило, будет иной, чем без этого условия. Эту вероятность называют условной вероятностью и обозначают P(A/B) или PB(A). В нашем случае

P(A/B)==P(A).

Теорему умножения вероятностей выведем, используя классическое определение вероятности. Пусть некоторый опыт имеет n возможных исходов, причем r из них благоприятны для наступления события A, m исходов благоприятны для наступления события B и в k исходах наступают оба события A и B (т.е. A). В соответствии с классическим определением вероятности

P(A) ==. (1.5.1)

Здесь =P(B). Что касается , то в определении вероятности в знаменателе стоит общее число исходов данного опыта. В сомножителе в знаменателе стоит число исходов, благоприятных для наступления события B, которое заняло место всех возможных исходов данного опыта, то есть наступление события A мы рассматриваем относительно только тех исходов, в которых событие B наступает. Таким образом, есть не что иное, как условная вероятность события A при условии, что событие B наступило. Тогда формулу (1.5.1) можно записать в виде

P(A)=P(B)P(A/B).

Аналогично

P(A)=== P(A)P(B/A).

Тогда окончательно получаем

P(A)=P(A) P(B\A)=P(B) P(A/B). (1.5.2)

Эта формула называется теоремой умножения вероятностей. Из нее следует, что

P(A/B)=; P(B)0; P(B/A)=; P(A)0. (1.5.3)

Сформулируем теперь общее определение условной вероятности. Пусть задано вероятностное пространство (F,P) и пусть A и B произвольные события из множества F. Если P(B)0, то условной вероятностью события A при условии, что событие B наступило, называется

P(A/B)=. (1.5.4)

Условная вероятность обладает всеми свойствами вероятности, поскольку она удовлетворяет аксиомам теории вероятностей. Первая аксиома очевидна, поскольку для каждого события А согласно (1.5.4) определена неотрицательная функция P(A/B). Если А=В (и в частности, если А=), то согласно определению (1.5.4)

.

Что касается третьей аксиомы, то, например, если событие А может произойти только в одном из двух несовместных видов А1 или А2 так, что

А=А12 и А1=, то

P(A/B)=P[(A1 +A2 )/B]=P(A1 /B)+P(A2 /B).

То есть условная вероятность суммы несовместных событий равна сумме условных вероятностей этих событий.

События A и B называется независимыми, если вероятность наступления одного из них не зависит от наступления или ненаступления другого. Для независимых событий

P(A/B)=P(A), P(B/A)=P(B),

и тогда

P(A)=P(A)P(B). (1.5.5)

Рассмотрим некоторые свойства независимых событий

1. Если событие A не зависит от события B, то и, наоборот, событие B не зависит от события A. Действительно, пусть событие A не зависит от события B, то есть P(A/B)=P(A). Тогда по теореме умножения вероятностей

P(A/B) P(B)=P(A)P(B)=P(B/A)P(A).

Если P(A)0, то получаем

P(B)= P(B/A),

то есть событие B не зависит от события A. Другими словами, независимость или зависимость случайных событий есть свойство взаимное.

2. Если события A и B независимы, то независимы также события: и B; A и ; и .

Действительно, пусть A и B независимы, тогда

P(/B)=1P(A/B)=1P(A)=P();

P(/A)=1P(B/A)=1P(B)=P();

P(/)=1P(A/)=1P(A)=P().

3. Для произвольного числа событий теорема умножения (1.5.2) имеет вид:

P=P(A1) P(A2/A1) P(A3/A1)...P(An/).

Если случайные события Ai , i= независимы, то теорема умножения вероятностей будет иметь вид:

P=.

Замечание 1. Независимость событий является очень важным свойством, облегчающим проведение многих расчетов. Поэтому при построении исходных моделей желательно в качестве исходных элементов модели брать независимые события.

Пример 1. В урне 2 белых и 3 черных шара. Из урны подряд вынимаются два шара. Найти вероятность того, что оба вынутых шара белые.

Решение: Обозначим через A событие, состоящее в том, что оба вынутых шара белые. Это событие представляет собой произведение двух событий: A1 - появление белого шара при первом вынимании и A2 - появление белого шара при втором вынимании. Поэтому

P(A)=P(A1)P(A2/A1)==0,1.

Пример 2. Те же условия, что и в примере 1, но после первого вынимания шар возвращается в урну, и шары в урне перемешиваются.

Решение. В этом случае события A1 и A2 независимы и поэтому

P(A)=P(A1)P(A2)==0,16.
§6 Формула полной вероятности и формула Байеса
Пусть имеется вероятностное пространство (,F,P) и пусть H1,H2,...,Hn - полная группа попарно несовместных событий, то есть

1) HiF, i;

2) Hi=, ij;

3) =.

Рассмотрим некоторое событие AF, для которого известны условные вероятности P(A/Hi), i= и вероятность событий Hi - P(Hi). Необходимо найти полную вероятность события A, то есть найти P(A).

Имеем

A=A=A=.

Все слагаемые, стоящие под знаком суммы, - попарно несовместные события. Поэтому, используя теорему сложения вероятностей и теорему умножения вероятностей, получим:

P(A)=P== P(A/Hi),

или

P(A)=. (1.6.1)

Полученная формула называется формулой полной вероятности. Ею обычно пользуются, когда относительно интересующего нас события A известно, что об условиях, при которых оно наступает, можно высказать некоторые попарно несовместные гипотезы H1,H2,...,Hn. Известны вероятности этих гипотез P(Hi) и условные вероятности наступления события A, если верна та или иная гипотеза P(A/Hi). Формула полной вероятности дает возможность найти вероятность наступления события A с учетом возможности наступления любой из гипотез.

Другой важнейшей формулой является формула Байеса. Исходные данные в ней те же, что и в формуле полной вероятности, но дополнительно известно, что событие A наступило.

Необходимо найти условную вероятность наступления гипотезы Hj при условии, что событие A наступило.

По определению условной вероятности имеем:

P(Hj/A)==.

Заменяя P(A) по формуле полной вероятности, получим формулу Байеса:

P(Hj/A)=. (1.6.2)

Эту формулу обычно применяют в ситуации, когда имеется событие A и гипотезы об условиях его наступления, P(Hj) - вероятности этих гипотез, известные до проведения опыта, так называемые априорные вероятности. Пусть теперь в результате опыта наступило событие A. Факт его наступления несет информацию о гипотезах Hi, и эта информация выражается в изменении вероятностей наступления гипотез - они теперь становятся равными P(Hi/A)- послеопытными, или так называемыми апостериорными вероятностями. Формула Байеса как раз и позволяет найти эти апостериорные вероятности и тем самым получить информацию об условиях наступления события A.

Таким образом, формула Байеса становится основной для принятия каких-либо решений о гипотезах Hi по результатам опыта.

Пример 1. На орбитальном комплексе установлено 6 мини-ЭВМ отечественного производства и 4 зарубежных мини-ЭВМ. Вероятность того, что во время выполнения вычислительных работ отечественная мини-ЭВМ не выйдет из строя, равна 0,95, для зарубежной мини-ЭВМ эта вероятность равна 0,8. Найти вероятность того, что взятая наугад мини-ЭВМ не выйдет из строя до окончания вычислительных работ.

Решение. Пусть A-событие, состоящее в том, что мини-ЭВМ не выйдет из строя. Это событие может произойти с одной из гипотез: H1 - взята отечественная мини-ЭВМ, H2 - взята зарубежная мини-ЭВМ. Тогда P(H1)=6/10, P(H2)=4/10 и по условию задачи P(A/H1)=0,95, P(A/H2)=0,8. По формуле полной вероятности искомая вероятность

P(A)=P(H1)P(A/H1)+P(H2)P(A/H2)=0,60,95+0,40,8=0,89.

Пример 2. В канцелярии работают 4 секретарши, которые отправляют 40,10,30 и 20% исходящих документов. Вероятности неверной адресации документов секретаршами равны 0,01; 0,04; 0,06; 0,01 соответственно. Найти вероятность того, что документ, неверно адресованный, отправлен третьей секретаршей.

Решение. Введем гипотезы Hi - документ отправила i-я секретарша, i=1,2,3,4. Тогда по условию задачи P(H1)=0,4; P(H2)=0,1; H(Р3)=0,3; P(H4)=0,2. Обозначим через A событие, состоящее в том, что документ адресован неверно. Тогда по условию P(A/H1)=0,01; P(A/H2)=0,04; P(A/H3)=0,06; P(A/H4)=0,01 и искомая вероятность

P(H3/A)==0,391.

Пример 3. Задача о разорении игрока. Некто играет в орлянку. Выбирая “орла” или “решку”, игрок бросает монету. Если выпадает та сторона монеты, которая была названа игроком, то он выигрывает один рубль; в противном случае он столько же проигрывает. Пусть первоначальный капитал игрока составляет х рублей и игрок ставит себе целью довести его до некоторой суммы в a рублей. Игра продолжается до тех пор, пока игрок не наберет заранее определенную сумму a, либо пока он не разорится, проиграв весь имеющийся у него капитал. Какова вероятность того, что в конце концов игрок разорится, так и не набрав сумму в a рублей?

Решение . Эта вероятность зависит от начального капитала х и конечной суммы a. Обозначим через p(x) вероятность того, что, имея х рублей, игрок разорится. Тогда вероятность разорения при условии выигрыша на первом шаге будет p(x+1), а вероятность разорения при условии проигрыша на первом шаге будет p(x1). Обозначим через B1 cобытие, заключающееся в том, что игрок выиграл на первом шаге; B2 - что он проиграл. Пусть событие A означает разорение игрока. Условные вероятности разорения будут иметь вид:

P(A/B1)=p(x+1), P(A/B2)=p(x1).

События B1 и B2 образуют полную группу событий, и P(B1)=P(B2)=.

Формула полной вероятности дает следующее уравнение для вероятностей p(x):

p(x)=, где 0ха,

причем p(0)=1 и p(a)=0, что соответствует условиям разорения игрока. Решением этого уравнения является линейная функция

p(x)=C1+C2x,

коэффициенты которой определяются из граничных условий

p(0)=C1=1, p(a)=C1+C2a=0.

Отсюда получаем окончательное выражение для искомой вероятности разорения p(x) при начальном капитале игрока х:

p(x)=1.
§ 7.Частная теорема о независимых опытах.

Биномиальное распределение
Пусть имеется некоторое случайное событие A. Производится n опытов, в каждом из которых может наступить или не наступить событие A. Сделаем следующие предположения:

a) проводимые опыты независимы, то есть наступление или ненаступление события A в любом опыте не влияет на исход других опытов;

б) вероятность наступления события A в каждом из опытов одинакова P(A)=p.

Определим вероятность того, что в n опытах событие A наступит ровно m раз - Pn(m).

Обозначим через Ai наступление события A в i-ом опыте, а через Bnm- событие, наступающее тогда, когда в n опытах событие A наступает m раз. Тогда получим:

Bnm=+

++...

В качестве примера выписаны лишь две комбинации исходов n опытов, когда событие A наступает m раз.

Учитывая, что эти комбинации представляют собой несовместные события, получим:

Pn(m)=P(Bnm)=P()+

+P()+...

Используя теорему умножения вероятностей для независимых исходов опытов, получаем:

Pn(m)=P(A1)P(A2)...P(Am)P()...P()+P()P(A2)...

...P(Am+1)P()...P()+... (1.7.1)

Учитывая, что P(Ai)=p и P()=1-p, запишем (1.7.1) в виде

Pn(m)=p(1p)+...

Чтобы окончательно подсчитать интересующую вероятность, учтем, что слагаемые в формуле (1.7.1) отличаются только порядком сомножителей и всего таких слагаемых - число сочетаний из n по m . Окончательно имеем

Pn(m)=. (1.7.2)

Эта формула называется частной теоремой о независимых опытах, или формулой Бернулли.

Если рассматривать Pn(m) как функцию m, то она задает распределение вероятностей, которое называется биномиальным. Исследуем эту зависимость Pn(m) от m, 0mn.

Рассмотрим отношение:

==.

Отсюда следует, что Pn(m+1)Pn(m), если (nm)p(m+1)q, т.е. функция Pn(m) возрастает, если mnpq. Аналогично, Pn(m+1)Pn(m), если (nm)p(m+1)q, т.е. Pn(m) убывает, если mnpq.

Таким образом, существует число m0 ,при котором Pn(m) достигает наибольшего значения. Найдем m0 .

По смыслу числа m0 имеем Pn(m0)Pn(m01) и Pn(m0) Pn(m0+1),

отсюда

, (1.7.3)

и

. (1.7.4)

Решая неравенства (1.7.3) и (1.7.4) относительно m0 , получаем:

p/m0  q/(nm0+1)  m0 np+p,

q/(nm0)  p/(m0+1)  m0 npq.

Итак, искомое число m0 удовлетворяет неравенствам

npq m0 np+p. (1.7.5)

Так как p+q=1, то имеется по крайней мере одно целое число m0, удовлетворяющее неравенством (1.7.5). Число m0 называется наиболее вероятным или наивероятнейшим значением появления события A в серии из n испытаний.

Пример 1. Система автоматического управления космического летательного аппарата состоит из шести основных узлов, вероятность выхода из строя каждого из которых при динамических перегрузках равна 0,3. При выходе из строя трех или меньшего числа узлов система автоматического управления из строя не выходит. При выходе из строя четырех узлов вероятность выхода САУ из строя равна 0,3, при выходе из строя пяти узлов - 0,7, при выходе из строя шести узлов - 1. Определить вероятность выхода САУ из строя при динамических перегрузках (событие A).

Решение. Вероятности выхода из строя четырех, пяти и шести узлов по формуле (1.7.2) соответственно равны:

P6(4)=p)=,

P6(5)=(1p)=,

P6(6)=.

По формуле полной вероятности находим вероятность выхода из строя САУ:

P(A)0,05950,3+0,01020,7+0,000710,0257.

Пример 2. Известно, что 1/45 часть продукции, изготовляемой заводом, не удовлетворяет требованиям стандарта. Завод изготовил 4500 единиц продукции. Найти наивероятнейшее число изделий завода, удовлетворяющих требованиям стандарта.

Решение. Поскольку вероятность изготовления бракованного изделия q=1/45, то вероятность изделия, удовлетворяющего стандарту, p=44/45. По формуле (1.7.5)

450044/451/45  mo  450044/45+44/45,

или

44001/45  mo  4400+44/45.

Итак, искомое наиболее вероятное число изделий, удовлетворяющих требованиям стандарта, равна 4400.
§8. Локальная предельная теорема Муавра-Лапласа
Формулой Бернулли для вероятности того, что в n опытах событие наступит ровно m раз

Pn(m)=,

удобно пользоваться для численных расчетов при небольших значениях n и m, поскольку при больших n и m возникают трудности с вычислением n! и m!.

Выведем для Pn(m) удобную приближенную формулу, пригодную для случая, когда n , m и nm велики.

Для этого воспользуемся формулой Стирлинга:

n!=n,

в которой остаточный показатель удовлетворяет неравенству

0 при n .

Введем обозначения q=1p, x= и рассмотрим поведение выражения при n  .

Имеем

=

==

=.

Рассмотрим теперь предельное поведение отдельных сомножителей, считая, что ax в, где a и в - некоторые числа.

1. Так как при n   m=np+x и nm=nq x, то 0, поэтому при n  .

2. = ,

откуда следует, что

1 при n .

3. Для z= имеем

lnz=mln(nm)ln=

=(np+xln(1+x.

Используя разложение ln(1+z) в ряд Тейлора функций

ln(1+x и ln(1-x:

ln(1+z)=z,

получаем



Раскрывая скобки, получим

lnz=x =,

так что при n z (знак  означает асимптотически равно).

Итак, окончательно имеем

, x=. (1.8.1.)

Эта формула носит название локальной предельной теоремы Муавра-Лапласа. Более старая ее запись такова.

Если axв, где x=, то

. (1.8.2)

Эта формула дает достаточно хорошее приближение уже для n25, причем совпадение тем лучше, чем ближе p к 0,5. При p=0,5 биномиальное распределение Pn(m) имеет симметричную форму, но при малых значениях p биномиальное распределение становится асимметричным.

Пример 1. По данным ОТК завода, 0,8 всего объема выпускаемых микросхем не имеет дефектов. Найти вероятность того, что среди взятых наугад 400 микросхем дефекты будут иметь 80 микросхем.

Решение. В соответствии с формулой (1.8.1)

Pn(m) или Pn(m),

где (x) табулирована.

В условиях примера n=400, m=80, p=0,2, q=0,8. Отсюда

x=.

Из таблицы функций (x) находим, что (0)=0,3989.

Тогда искомая вероятность

P400(80).

Заметим, что при вычислении этой вероятности по формуле Бернулли получается достаточно громоздкое выражение

P400(80)=.
§ 9 Теорема Пуассона
Как уже отмечалось в § 8, приближение, даваемое формулой (1.8.2), вполне удовлетворительно для p, близких к 0.5. Однако при малых значениях p и больших значениях n существует другая приближенная формула, которая выводится в следующих предположениях.

Поскольку необходимо, чтобы вероятность p сходилась к нулю, рассматривается не фиксированная последовательность случайных величин 1, 2,..., а последовательность серий случайных величин:
11;

12, 22;

13, 23, 33;

--------------

1n, 2n, 3n,..., nn.

Первый индекс означает номер случайной величины в серии. Второй индекс означает номер серии. Случайные величины in одной n-й серии независимы и одинаково распределены по закону Бернулли

P{in=1}=pn, P{in=0}=1 pn, i=1,2,...,n.

Через m обозначим число событий {in=1}, фактически происшедших в n-й серии.

Теорема. (Пуассона.) Пусть pn0 при n, причем так, что npn, где 0. Тогда для любого m=1,2,...

.

Доказательство. По формуле Бернулли для любых n и m имеем:

Pn(m)= (1-pn)nm=

= (1-pn)nm=(1-pn)n.

Умножим и поделим на nm. Получаем

Pn(m)=.

При фиксированном m имеем



Окончательно

. (1.9.1)

Соотношение (1.9.1) называется формулой или распределением Пуассона. Из-за малости значений p распределение Пуассона называют также законом распределения редких событий.

Рассмотрим поведение Pn(m) как функции от m при больших n. Для этого рассмотрим соотношение

.

Видно, что если m>, то Pn(m)
n
(m1), если же m<, то Pn(m)>Pn(m-1), если m=, то Pn(m)=Pn(m1). Отсюда делаем вывод, что величина Pn(m) возрастает при увеличении m от 0 до m0=[] и при дальнейшем увеличении m убывает. Если  целое число, то Pn(m) имеет два максимальных значения: при m0= и =1. Наивероятнейшее значение числа наступления события приходится на   целое число.

Отметим, что для распределения Пуассона выполняется условие:

.

Формула Пуассона дает хорошее приближение формулы Бернулли при малых p и больших n. Ошибка от использования формулы Пуассона при n=5 и p= составляет менее 0,01%.

Пример 1. Сервисный автоцентр одновременно может обслуживать 100 автомобилей. Вероятность того, что в течение 1 мин автомобилист обратится в автоцентр, равна 0,01. Найти вероятность того, что в течение 1 мин обратятся в автоцентр: а) три автомобилиста; б) менее трех автомобилистов; в) более трех автомобилистов; г) хотя бы один автомобилист.

Решение. Поскольку обращения в автоцентр автомобилистов являются независимыми событиями, число n=100 велико, а вероятность p=0,01 мала, воспользуемся формулой (1.9.1).

а) Находим np=1000,01=1. Вероятность события “в автоцентр обратились три автомобилиста” (m=3)

P100 (3) .

б) По этой же формуле вероятность того, что в автоцентр обратятся менее трех автомобилистов,

P100 (0)+P100(1)+P100(2) .

в) События A - “в автоцентр обратятся более трех автомобилистов” и - “обратятся не более трех автомобилистов” - противоположные, поэтому, согласно пп. “а” и ”б”, вероятность события A:

P(A)=1P()=1( P100 (0)P100(1)P100(2)P100(3)) 

10,91970,0613=0,0019.

г) События A - “в автоцентр обратился хотя бы один автомобилист” и - “в автоцентр никто не обратился” - противоположные, поэтому вероятность события A есть

P(A)= 1P()= 1P100(0)  10,632.


  1   2   3   4   5


Учебный материал
© nashaucheba.ru
При копировании укажите ссылку.
обратиться к администрации