Фосс С.Г. "Стохастические системы и сети обслуживания"
Содержание
Сведения из теории вероятностей
В этом разделе мы приводим основные понятия и утверждения
теории вероятностей,
использующиеся в последующих параграфах. Частично они содержатся
во вводной части работы А.Е.Родкиной "О некоторых понятиях
и проблемах финансовой математики" (см. СОЖ, 1998, N. 6, с. 122-127).
Для математически строгого определения понятий теории
вероятностей требуется хорошо развитый математический аппарат.
Поэтому ниже мы предложим неформальное определение случайного
события и дискретной случайной величины, принимающей конечное
число значений. Затем определим понятия математического ожидания и дисперсии,
обсудим свойства независимости и одинаковой
распределенности случайных величин и сформулируем две основные теоремы теории
вероятностей.
Если событие A при некотором испытании может как произойти, так и
не произойти, то мы назовем это событие случайным. Случайному
событию приписывается некоторое число между 0 и 1, называющееся
его вероятностью и обозначающееся через P(A). Например, если
подбрасывается симметричная монета, то событие A = {выпадает герб}
является случайным, и ему естественно приписать вероятность
P(A) = 1/2.
События A и B называются несовместными, если они не могут
происходить одновременно. Набор событий A1, A2, ј, Ak
образует полную группу, если, во-первых, любые два из них несовместны
и, во-вторых, одно из этих событий обязательно происходит. Из последнего
следует, что
P(A1) + P(A2)+ ј + P(Ak) = 1.
Например, при бросании игрального кубика могут выпасть числа
1,2,3,4,5,6. Введем шесть событий
A1 = {выпадает единица},
A2 = {выпадает цифра 2}, ј,
A6 = {выпадает цифра 6}.
Нетрудно видеть, что эти события образуют полную группу. В силу
симметрии кубика, естественно положить все вероятности P (Ai)
равными 1/6.
Можно предложить и другие полные группы событий.
Например, взять три события B1, B2, B3,
где B1 = {выпадает единица},
B2 = {выпадает 2, 3 или 4}, B3 = {выпадает 5 или 6}.
При этом, естественно,
Пусть даны полная группа событий A1, A2, ј, Ak с вероятностями
pi = P(Ai),
i = 1,2, ј, k
и набор чисел
x1, x2, ј, xk.
Дискретная случайная величина X - это величина, принимающая
значение xi, если происходит событие Ai (то есть с вероятностью pi).
Соответствие между xi и pi
выражается формулой P(X = xi ) = pi, читаемой как:
"вероятность
того, что X принимает значение xi, равна pi".
При этом
p1+p2+p3+ј+pk = 1. Набор пар {(xi , pi)} называется законом
распределения, или просто
распределением величины X.
Для любого числа d можно определить
вероятность того, что X примет значение, не меньшее чем d:
P (X і d) =
е i: xi і d
pi.
Аналогично, для любых чисел c < d
P (c Ј X Ј d) =
е i: c Ј xi Ј d
pi.
Математическим ожиданием,
или среднимM(X) случайной величины X называется число
M(X) =
е
xipi,
а дисперсиейD(X) - число
D(X) = M (X - M(X))2,
которое можно вычислить по формуле
D(X) =
е
xi2pi - (M(X))2.
Среднее квадратическое отклонение (или - неформально -
средний разброс) случайной величины X есть квадратный
корень из дисперсии: s = Ц(D(X)).
Например, если X - значение, выпадающее при случайном бросании
кубика, то возможных значений только шесть, от 1 до 6, и все
шесть вероятностей pi равны 1/6. Значит,
M(X) = 1 ·
1 6
+ 2 ·
1 6
+ ј+ 6 ·
1 6
=
21 6
= 3,5,
D(X) = 1 ·
1 6
+ 4 ·
1 6
+ ј + 36 ·
1 6
- (M(X))2 =
35 12
» 2,92
и s » 1,71.
Случайная величина X называется вырожденной, если она принимает
только одно значение (скажем, x) с вероятностью единица
(то есть P(X = x) = 1). Для вырожденной случайной величины
M(X) = x·1 = x
и
D(X) = x2 - x2 = 0
(значит, и s = 0). Можно доказать, что
справедливо и обратное утверждение: если D(X) = 0, то случайная
величина вырождена (для "невырожденных" случайных величин всегда
D(X) > 0).
Математические ожидания и дисперсии обладают рядом хороших свойств.
Например, если c - некоторое число, то случайная величина
Y = X+c принимает значения xi+c с вероятностями pi и, следовательно,
M(Y) =
е
(xi+c)pi =
е
xipi + c
е
pi = M(X)+c.
Поэтому
D(Y) = M(Y-M(Y))2 = M (X+c - M(X) - c)2 = D(X).
Если случайная величина X может принимать только целые неотрицательные
значения, то M(X) = еLl = 1P (X і l ). Здесь L - максимальное из
возможных значений. Действительно, пусть X принимает значение 0 с
вероятностью p0, значение 1 - с вероятностью p1, и т.д. Тогда
M(X) = p1+2p2+3p3+ј+LpL
= (p1+p2+p3+ј+ pL)+(p2+p3+ј+ pL)+ј+pL,
где сумма, стоящяя в первой скобке, совпадает с P(X і 1), во второй
скобке - с P(X і 2), и т.д.
Несколько случайных величин называются одинаково распределенными,
если их распределения совпадают (т.е. они принимают одинаковые значения
с одинаковыми вероятностями). Как следствие, одинаково распределенные
случайные величины имеют одинаковые средние и дисперсии.
Например, если подбросить
кубик несколько раз и обозначить через Xn
значение, выпадающее при n-ом подбрасывании, то эти случайные величины
будут одинаково распределены.
Несколько (скажем, n) случайных величин X1, X2, ј, Xn
называются независимыми, если вероятность
того, что одновременно первая из них приняла значение c1, вторая - значение c2,
ј, n-ая - значение cn, совпадает с произведением вероятностей
P (X1 = c1) ·
P (X2 = c2) · ј· P (Xn = cn),
каковы бы ни
были числа c1, c2, ј, cn.
Независимость можно понимать как "отсутствие влияния результатов одних
испытаний на другие".
Например, если мы подбросим два одинаковых
кубика по разу,
то всего различных исходов 36 (каждому варианту выпадения первого кубика
может соответствовать 6 вариантов выпадения второго), и все они "равновозможны",
т.е. вероятность того, что на первом выпадет число c1, а на втором -
c2 (где c1, c2 - любые целые числа от 1 до 6), равна 1/36, что совпадает
с произведением 1/6·1/6. Значит, соответствующие случайные величины
независимы.
Можно также ввести понятия (дискретной) случайной величины, принимающей
бесконечное (счетное) число значений x1, x2, x3, ј, а также ее математического
ожидания и дисперсии. При этом нужно лишь
определить, что означают бесконечные суммы
е xipi
и
е xi2pi .
Пример 2.1.
Мы приведем один пример такой случайной величины
(который потребуется в следующем параграфе)
и посчитаем ее математическое ожидание. Рассмотрим последовательность
независимых бросаний монеты, в каждом из которых
герб выпадает с вероятностью p, а решетка - с вероятностью
q = 1-p. Будем считать,
что 0 < p < 1. Пусть Y - случайная величина,
означающая номер испытания, при котором герб выпадает в первый раз.
Найдем вероятность pl = P(Y = l )
при всех l = 1,2, ј.
Ясно, что p1 = p. Далее, событие {Y = 2}
означает, что одновременно при первом бросании выпадает решетка и при
втором - герб. И так как испытания независимы, то
p2 = qp. Совершенно аналогично, при каждом
l > 2 событие {Y = l } означает,
что при каждом из первых (l -1) бросаний выпадает решетка, а при
l-ом бросании - герб.
И из независимости испытаний следует, что pl =
q l -1p. Значит, случайная величина
Y принимает значение x1 = 1 с вероятностью p1 = p, значение x2 = 2 с вероятностью
p2 и так далее. Из школьного курса вы знаете, что сумма
геометрической прогрессии
1 + q + q2 + ј
равна 1 / (1-q) = 1/p . Поэтому
p1 + p2 + p3 + ј = p (1 + q + q2 + ј ) = p ·
1p
= 1.
Так как случайная величина Y принимает лишь неотрицательные целые значения, то
естественно определить ее среднее равенством
M(Y) = е P (Y і l ),
где сумма
берется по всем натуральным l . И так как
P (Y і l ) = pl + pl+1 +
pl+2 + ј = p q l -1 (1 + q + q2 + ј )=
= p q l -1
1 1-q
= q l -1,
то M(Y) = 1 + q + q2 + ј = 1/p. Если, в частности, p = 1/2 (монета симметрична),
то равенство M(Y) = 2 означает, что нам "в среднем" потребуется два бросания
до выпадения герба. Если p = 1/3, то потребуется "в среднем" три бросания, и т.д.
Пусть X1, X2, ј, Xn - набор из независимых, одинаково распределенных случайных
величин. Обозначим через a их общее среднее, через s - средний разброс и через
Sn = X1+X2+ ј +Xn- их сумму.
Ниже формулируются два основных утверждения теории вероятностей.
Теорема 2.1.Закон больших чисел, ЗБЧ. При всех достаточно большихn
Snn
» a.
Более точно, для любого как угодно малого числа e > 0 можно указать достаточно
большое числоNтак, что при каждом целомn
і Nвероятность
неравенства
{ |(Sn / n) - a | > e } не превосходит e. Последнее можно записать
в виде формулы:
P
ж з
и
к к
Snn
- a
к к
> e
ц ч
ш
Ј e.
Например, если будем бросать кубик достаточно много раз и складывать выпадающие
значения, то при делении полученной суммы на количество испытаний
получим число, очень
близкое к 3,5.
Понятие "закон больших чисел" хорошо известно не только
математикам - его можно найти,
скажем, и в философском словаре, где оно трактуется так: "с ростом числа испытаний
(наблюдений)
эмпирическое среднее сближается с математическим средним". Физики говорят
проще и выразительнее: "среднее по времени стремится к среднему по
пространству".
Пусть F(t) - функция вида
F(t) =
1
Ц
2p
у х
t
- Ґ
e-x2/2dx,
где число e » 2,71828 - основание натуральных логарифмов.
Эта функция (называющаяся функцией Лапласа, или функцией распределения нормального
закона) играет одну из центральных ролей в теории вероятностей.
Она табулирована, ее значения заложены в программы многих калькуляторов и,
конечно же, компьютеров. Отметим, что функция
F(t) является монотонно возрастающей,
и ее значения при всех t строго положительны и меньше единицы. Она очень медленно
растет при t < -3 ( в частности, F(-3) » 0,00135), затем достаточно быстро возрастает
при -3 < t < 3 (в частности, F(3) = 1 - F(-3) » 0,99865) и потом снова растет очень
медленно.
Теорема 2.2.Центральная предельная теорема, ЦПТ. Пустьc < d - два произвольных вещественных числа. Предположим, что s > 0.
Тогда при всех достаточно большихn
P
ж з
и
c Ј
Sn - na sЦn
Ј d
ц ч
ш
» F(d) - F(c).
(2.1)
Более точно, для любого как угодно малого числа e > 0 можно указать достаточно большой
номерNтак, что при каждомn і Nабсолютное значение разности левой и
правой частей приближенного равенства (2.1) будет не больше, чем e.
Часто центральную предельную теорему называют также
"принципом инвариантности".
На житейский язык термин "принцип инвариантности" можно перевести как "с чего бы
мы ни начали, всегда придем к одному и тому же". Один из известнейших "принципов
инвариантности" звучит так: "все дороги ведут в Рим".
Действительно, каково бы ни было
"индивидуальное" распределение случайных величин Xi ,
с ростом n исчезает влияние этой
"индивидуальности" на "поведение" случайной величины
Yn = [(Sn - na) / (sЦn)]
- оно достаточно точно задается
функцией Лапласа.
В примере с кубиками, если взять c = -3 и d = 3, то получим, что при достаточно большом
числе n испытаний вероятность того, что отношение
[(Sn - na) / (sЦn)] содержится
в интервале (-3,3), будет не меньше, чем 1- 2 · 0,00135 = 0,9873. Если мы разрешим
двойное неравенство
-3 <
Sn - na sЦn
< 3,
относительно Sn и вспомним найденные ранее значения a и s,
то получим, что Sn лежит
в диапазоне