Главная страница
Навигация по странице:

  • Что такое многомерное равномерное распределение 11.Что такое многомерное нормальное распределение

  • Как записать плотность совместного распределения двух независимых случайных величин, зная плотность распределения каждой

  • Перечислить устойчивые по суммированию распределения. Зачем в свойствах устойчивости требуется независимость слагаемых

  • Теория вероятностей


    Скачать 1.1 Mb.
    НазваниеТеория вероятностей
    Анкорterver.pdf
    Дата05.04.2017
    Размер1.1 Mb.
    Формат файлаpdf
    Имя файлаterver.pdf
    ТипУчебное пособие
    #402
    страница6 из 9

    Подборка по базе: экономическая теория.docx, Валентина. Теория вероятностей.docx, теория вероятностей.docx, Экономическая теория.docx, Экономическая теория, 1 курс. УМК (Налоги).doc, Лабораторная 5 теория новая.docx, КУРСОВАЯ ТЕОРИЯ МОЯ (Автосохраненный).docx, КУРСОВАЯ ТЕОРИЯ МОЯ (Автосохраненный).docx, Физиология - Теория (билеты - экзамен).docx, Логика Теория аргументации.doc.
    1   2   3   4   5   6   7   8   9
    Что такое таблица совместного распределения?
    4.

    Как по таблице совместного распределения двух случайных величин находят их частные распределения?
    5.
    Какими свойствами обладает плотность совместного распределения. Как по плотности совместного распределения двух случайных величин находят их частные плотности?
    7.
    Если плотность распределения случайного вектора, состоящего из n случайных величин, проинтегрировать по одной из переменных в границах от −∞ до +∞, что за плотность получится Будет ли это плотность вектора из n − 1 случайной величины?
    8.
    Можно ли найти совместное распределение по частным распределениям. Привести пример того, что при одних и тех же частных распределениях возможны разные совместные.
    10.

    Что такое многомерное равномерное распределение?
    11.

    Что такое многомерное нормальное распределение?
    12.
    Дать определение независимости двух случайных величин.
    13.
    Пусть для каких-то двух множеств и оказалось верно равенство. Следует ли отсюда независимость величин
    ξ
    и
    η
    ?
    ГЛАВА VI. МНОГОМЕРНЫЕ РАСПРЕДЕЛЕНИЯ
    14.
    Дать определение независимости двух случайных величин с дискретными распределениями. Пусть для случайных величин
    ξ
    и
    η
    с дискретными распределениями оказалось, что P(
    ξ
    = 0,
    η
    = 0) = P(
    ξ
    = 0) · P(
    η
    = 0). Следует ли отсюда независимость величин
    ξ
    и
    η
    ?
    16.
    Дать определение зависимости двух случайных величин.
    17.

    Как записать плотность совместного распределения двух независимых случайных величин, зная плотность распределения каждой?
    18.

    Как вычислить плотность распределения суммы двух независимых случайных величин, зная плотность распределения каждой?
    19.

    Что такое устойчивость распределения по суммированию?
    20.

    Перечислить устойчивые по суммированию распределения. Зачем в свойствах устойчивости требуется независимость слагаемых?
    22.
    Имеет ли сумма независимых и равномерно распределённых слагаемых равномерное распределение. Для случайной величины
    ξ
    ∼ Π
    λ
    сумма
    ξ
    +
    ξ
    = принимает только чётные значения, и поэтому её распределение не является распределением
    Пуассона. Не противоречит ли это свойству. Для случайных величин, и −
    ξ
    ∼ N
    0, распределение случайной величины+ (−
    ξ
    ) = 0 вырождено, и поэтому не является нормальным.
    Не противоречит ли это свойству. Объясните, откуда следует факт для любых независимых случайных величин
    ξ
    и
    η
    с нормальными распределениями любая линейная комбинация a
    ξ
    + b
    η
    + c, где ab = 0, снова имеет нормальное распределение
    ГЛАВА ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    Знание закона распределения случайной величины даёт нам полную информацию о её вероятностном поведении. Существуют, однако, и более грубые числовые характеристики, позволяющие, даже не зная распределения, многое сказать о случайной величине. К таким характеристикам относятся центр тяжести распределения, или его математическое ожидание момент инерции распределения,
    или его дисперсия другие характеристики положения и рассеивания 1. Математическое ожидание случайной величины
    О пределен и е 22. Математическим ожиданием (средним значением, первым моментом ) случайной величины, имеющей дискретное распределение со значениями a
    1
    , a
    2
    , . . . , называется число a
    i p
    i
    =
    i a
    i
    P(
    ξ
    = a если данный ряд абсолютно сходится, те. если i
    |p i
    < ∞ . В противном случае говорят, что математическое ожидание не существует.
    О пределен и е 23. Математическим ожиданием случайной величины, имеющей абсолютно непрерывное распределение с плотностью распределения, называется число (если этот интеграл абсолютно сходится, те. если (x) dx < ∞. Иначе математическое ожидание не существует.
    Математическое ожидание имеет простой физический смысл если на прямой, как на невесомом стержне, распределить единичную массу, поместив в точки a массу p или размазав её с плотностью f (x), то точка будет координатой центра тяжести прямой. Если математическое ожидание существует, то стержень, подвешенный в этой точке, будет находиться в состоянии равновесия
    ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    П р им ер. Пусть случайная величина
    ξ
    равна числу очков, выпадающих при одном подбрасывании кубика. Тогда ·
    1 6
    =
    1 6
    (1 + 2 + 3 + 4 + 5 + 6) = В среднем при одном подбрасывании кубика выпадает 3,5 очка. Это несмотря на то, что ни при одном подбрасывании 3,5 очка выпасть не может.
    П р им ер. Пусть случайная величина координата точки, брошенной наудачу на отрезок [a, b]. Тогда a
    x ·
    1
    b − a dx =
    x
    2 2(b − a)
    b a
    =
    b
    2
    − a
    2 2(b − a)
    =
    a + Центр тяжести равномерного распределения на отрезке — середина отрезка.
    В § 3 вычислены математические ожидания основных распределений. Там же можно увидеть примеры распределений, математические ожидания которых не существуют (примеры
    73
    и
    74
    ).
    Свойства математического ожидания. Во всех свойствах ниже предполагается, что рассматриваемые математические ожидания существуют. Часть свойств мы оставим без доказательства, а остальные докажем только для абсолютно непрерывных распределений. Первое свойство позволяет вычислять математические ожидания функций от случайных величин по исходному распределению этих величин) Для произвольной функции g(x) со значениями в g(
    ξ
    ) =







    k g(a k
    )P(
    ξ
    = a k
    ), если распределение
    ξ
    дискретно;

    −∞
    g(x)f
    ξ
    (x) если распределение
    ξ
    абсолютно непрерывно.
    Такое же свойство верно и для числовых функций нескольких аргументов g(x
    1
    , . . . , x n
    ), если вектор из n случайных величина в сумме ив интеграле участвует их совместное распределение. Например, для g(x, y) = x + y и для случайных величин
    ξ
    и
    η
    с плотностью совместного распределения f (x, y) верно (
    ξ
    +
    η
    ) =

    −∞

    −∞
    (x + y)f (x, y) dx dy.
    (18)
    (E2) Математическое ожидание постоянной равно ей самой E c = c.

    § 1. Математическое ожидание случайной величины) Постоянный множитель можно вынести за знак математического ожидания Это свойство следует из свойства (E1) при g(x) = c x .
    (E4) Математическое ожидание суммы любых случайных величин равно сумме их математических ожиданий E (
    ξ
    +
    η
    ) = E
    ξ
    + Доказательство. Воспользуемся равенством (
    18
    ) и теоремой (
    ξ
    +
    η
    ) =

    −∞

    −∞
    (x + y)f (x, y) dx dy =
    =

    −∞
    x dx

    −∞
    f (x, y) dy +

    −∞
    y dy

    −∞
    f (x, y) dx =
    =

    −∞
    x f
    ξ
    (x) dx +

    −∞
    y f
    η
    (y) dy = E
    ξ
    + E
    η
    (E5) Если, то Доказательство. Неотрицательность
    ξ
    означает, что a i
    0 при всех i в случае дискретного распределения, либо f
    ξ
    (x) = 0 при x < 0 — для абсолютно непрерывного распределения. Ив томи в другом случае имеем i
    p или f (x) Из свойства (E5) вытекает множество полезных утверждений, например:
    С лед ст в и е 7. Если, то Следствие. Если a
    ξ
    b, то Второе особенно очевидно центр тяжести стержня не может находиться вне отрезка, если вся масса сосредоточена на этом отрезке) Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.
    Д ока за тел ь ст во. В равенстве (
    18
    ) заменим сложение умножением и плотность совместного распределения произведением плотностей (
    ξη
    ) =

    −∞

    −∞
    xy f
    ξ
    (x) f
    η
    (y) dx dy =
    =

    −∞
    x f
    ξ
    (x) dx

    −∞
    y f
    η
    (y) dy = E
    ξ
    E
    η
    ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    З а меча ни е 1. Обратное утверждение к свойству (E7) неверно из равенства не следует независимость величин
    ξ
    и
    η
    П р им ер. Пусть
    ξ
    принимает значения 0 и ±1 с одинаковыми вероятностями, и. Это зависимые случайные величины 1,
    η
    = 0) = P(
    ξ
    = 1,
    ξ
    2
    = 0) = 0 =
    1 3
    ·
    1 3
    = P(
    ξ
    = 1) P(
    η
    = Однако E
    ξ
    = 0 и E (
    ξη
    ) = E (
    ξ
    3
    ) = 0, поэтому E (
    ξη
    ) = E
    ξ
    E
    η
    § 2. Дисперсия и моменты старших порядков
    О пределен и е 24. Пусть E |
    ξ
    |
    k
    < ∞. Число E
    ξ
    k называется моментом порядка k или k -м моментом случайной величины, число E |
    ξ
    |
    k
    — абсолютным -м моментом, число E (
    ξ
    − E
    ξ
    )
    k
    — центральным k -м моментом,
    и число E |
    ξ
    − E
    ξ
    |
    k
    — абсолютным центральным k -м моментом случайной величины. Число D
    ξ
    = E (
    ξ
    − центральный момент второго порядка)
    называется дисперсией случайной величины
    ξ
    П р им ер. Пусть, скажем, случайная величина
    ξ
    принимает значение с вероятностью 0,99999 , и значение 100 с вероятностью 0,00001 . Посмотрим, как моменты разных порядков реагируют на большие, но маловероятные значения случайной величины 0 · 0,99999 + 100 · 0,00001 = 0,001,
    E
    ξ
    2
    = 0 2
    · 0,99999 + 100 2
    · 0,00001 = 0,1,
    E
    ξ
    6
    = 0 6
    · 0,99999 + 100 6
    · 0,00001 = 10 000 Пример. Дисперсия D
    ξ
    = E (
    ξ
    − есть среднее значение квадрата отклонения случайной величины
    ξ
    от её среднего . Посмотрим, за что эта величина отвечает.
    Пусть случайная величина
    ξ
    принимает значения ±1 с равными вероятностями, а случайная величина значения ±10 с равными вероятностями.
    Тогда E
    ξ
    = E
    η
    = 0, поэтому D
    ξ
    = E
    ξ
    2
    = 1, D
    η
    = E
    η
    2
    = Говорят, что дисперсия характеризует степень разброса значений случайной величины вокруг её математического ожидания.
    О пределен и е 25. Число
    σ
    =

    D
    ξ
    называют среднеквадратическим отклонением случайной величины
    ξ
    Сравнение моментов. Моменты меньших порядков существуют, если если существуют моменты более высокого порядка.
    Т е орем а 25. Если существует момент порядка t > 0 случайной величины, то существует и её момент порядка s, где 0 < s < t.

    § 2. Дисперсия и моменты старших порядков
    91
    Д ока за тел ь ст во. Заметим, что |
    ξ
    |
    s
    |
    ξ
    |
    t
    + 1. Но следствие
    7
    позво- ляет из неравенства для случайных величин получить такое же неравенство для их математических ожиданий E |
    ξ
    |
    s
    E |
    ξ
    |
    t
    + 1 < Сформулируем без доказательства очень полезное неравенство.
    Т е орем а 26 (неравенство Йенсена). Пусть функция g(x) на своей области определения выпукла, те. область над графиком этой функции есть выпуклое множество. Тогда для любой случайной величины
    ξ
    верно неравенство. Для вогнутых функций знак неравенства меняется на противоположный.
    В частности e
    ξ
    e
    E
    ξ
    ,
    E
    ξ
    2
    (E
    ξ
    )
    2
    ,
    E |
    ξ
    |
    |E
    ξ
    |,
    E Последние три неравенства верны для положительных
    ξ
    Свойства дисперсии. Свойства дисперсии следуют из соответствующих свойств математического ожидания. Во всех свойствах предполагается существование вторых моментов случайных величин. Тогда матожидания существуют по теореме) Дисперсия может быть вычислена по формуле D
    ξ
    = E
    ξ
    2
    − Доказательство. Обозначим для удобства a = E
    ξ
    . Тогда E (
    ξ
    − a)
    2
    = E (
    ξ
    2
    − 2a
    ξ
    + a
    2
    ) = E
    ξ
    2
    − 2aE
    ξ
    + a
    2
    = E
    ξ
    2
    − a
    2
    (D2) Приумножении случайной величины на постоянную c дисперсия увеличивается враз доказать ).
    (D3) Дисперсия всегда неотрицательна Доказательство. Пусть a = E
    ξ
    . Дисперсия есть математическое ожидание неотрицательной случайной величины (
    ξ
    − a)
    2
    , и неотрицатель- ность дисперсии следует из свойства (E5).
    (D4) Дисперсия обращается в нуль лишь для вырожденного распределения:
    если D
    ξ
    = 0, то const, и наоборот.
    Д ока за тел ь ст во. Равенство D
    ξ
    = 0 означает, грубо говоря, что центр тяжести массы, распределённой справа от нуля, оказался равен нулю.
    Это возможно только если вся масса сосредоточена в нуле, те. И наоборот если c, то D
    ξ
    = E (c − E c)
    2
    = E 0 = 0.
    (D5) Дисперсия не зависит от сдвига случайной величины на постоянную доказать ).
    (D6) Если
    ξ
    и
    η
    независимы, то D (
    ξ
    +
    η
    ) = D
    ξ
    + D
    η
    ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    Д ока за тел ь ст во. Действительно, применяя свойство (E7), получим (
    ξ
    +
    η
    ) = E (
    ξ
    +
    η
    )
    2
    − (E (
    ξ
    +
    η
    ))
    2
    =
    = E
    ξ
    2
    + E
    η
    2
    + 2E (
    ξη
    ) − (E
    ξ
    )
    2
    − (E
    η
    )
    2
    − 2E
    ξ
    E
    η
    = D
    ξ
    + Замечание. См. замечание
    1
    С лед ст в и е 9. Если
    ξ
    и
    η
    независимы, то D (
    ξ

    η
    ) = D
    ξ
    + Доказательство. Из свойств (D6) и (D2) получим (
    ξ

    η
    ) = D (
    ξ
    + (−
    η
    )) = D
    ξ
    + D (−
    η
    ) = D
    ξ
    + (−1)
    2
    D
    η
    = D
    ξ
    + Следствие. Для произвольных случайных величин
    ξ
    и
    η
    имеет место равенство (
    ξ
    ±
    η
    ) = D
    ξ
    + D
    η
    ± 2 E (
    ξη
    ) − Это равенство мы получили в доказательстве свойства (D6). Разность (
    ξη
    ) − обращается в нуль для независимых
    ξ
    и
    η
    . Мы изучим подробно эту разность в следующей главе 3. Средние и дисперсии стандартных распределений
    П р им ер (вырожденное распределение I
    c
    ). Математическое ожидание и дисперсию этого распределения мы знаем из свойств (E2) и (D3):
    E c = c,
    D c = Пример (распределение Бернулли B
    p
    ). Вычислим первый и второй моменты E
    ξ
    = 1 · p + 0 · q = p ; E
    ξ
    2
    = 1 2
    · p + 0 2
    · q = p. По ним найдём дисперсию D
    ξ
    = E
    ξ
    2
    − (E
    ξ
    )
    2
    = p − p
    2
    = Пример (биномиальное распределение B
    n, p
    ). Используем устойчивость биномиального распределения относительно суммирования — свойство стр. Пусть, . . . ,
    ξ
    n
    — независимые случайные величины с распределением Бернулли B
    p
    = B
    1, p
    . Тогда их сумма S
    n
    =
    ξ
    1
    + . . . +
    ξ
    n имеет распределение B
    n, p
    , и по свойству (E4),
    E S
    n
    =
    n i=1
    E
    ξ
    i
    = nE
    ξ
    1
    = Поскольку независимы, и дисперсия каждой равна pq, то S
    n
    =
    n i=1
    D
    ξ
    i
    = nD
    ξ
    1
    = Итак, E
    ξ
    = np, D
    ξ
    = npq для, p

    § 3. Средние и дисперсии стандартных распределений
    93
    П р им ер (геометрическое распределение G
    p
    ). Вычислим E
    ξ
    :
    E
    ξ
    =

    k=1
    k p q k−1
    = p

    k=1
    k q k−1
    = p

    k=1
    dq k
    dq
    =
    = p d
    dq

    k=1
    q k
    = p d
    dq q
    1 − q
    = p
    1
    (1 − Вычислим так называемый второй факториальный момент 1) =

    k=1
    k(k − 1) p q k−1
    = p q

    k=0
    d
    2
    q k
    dq
    2
    = p q d
    2
    dq
    2

    k=0
    q k
    =
    = p q d
    2
    dq
    2 1
    1 − q
    = p q
    2
    (1 − q)
    3
    =
    2q p
    2
    Найдём дисперсию через второй факториальный момент E
    ξ
    (
    ξ
    − 1) + E
    ξ
    − (E
    ξ
    )
    2
    =
    2q p
    2
    +
    1
    p

    1
    p
    2
    =
    2q − 1 + p p
    2
    =
    q Пример (распределение Пуассона Π
    λ
    ). Вычислим E
    ξ
    :
    E
    ξ
    =

    k=0
    k
    λ
    k k!
    e

    λ
    = e

    λ

    k=1
    k
    λ
    k k!
    = e

    λ

    k=1
    λ
    k
    (k − 1)!
    =
    =
    λ
    e

    λ

    k=1
    λ
    k−1
    (k − 1)!
    =
    λ
    e

    λ

    m=0
    λ
    m Моменты более высоких порядков легко находятся через факториальные моменты) порядка m. Так, второй факториаль- ный момент
    ξ
    равен
    E
    ξ
    (
    ξ
    − 1) =

    k=0
    k(k − 1)
    λ
    k k!
    e

    λ
    =
    λ
    2
    e

    λ

    k=2
    λ
    k−2
    (k − Поэтому E
    ξ
    2
    = E
    ξ
    (
    ξ
    − 1) + и D
    ξ
    = E
    ξ
    2
    − Пример (равномерное распределение U
    a, b
    ). Математическое ожидание+ мы вычислили в примере. Второй момент равен) dx =
    b a
    x
    2 1
    b − a dx =
    b
    3
    − a
    3 3(b − a)
    =
    a
    2
    + ab + b
    2 Дисперсия равна D
    ξ
    = E
    ξ
    2
    − (E
    ξ
    )
    2
    =
    (b − a)
    2 12
    ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    П р им ер (стандартное нормальное распределение N
    0, 1
    ). Математическое ожидание этого распределения существует, поскольку E |
    ξ
    | < ∞ :
    E |
    ξ
    | =
    2

    2
    π

    0
    xe
    −x
    2
    /2
    dx =
    2

    2
    π

    0
    e
    −x
    2
    /2
    d(x
    2
    /2) =
    2

    2
    π
    < Математическое ожидание
    ξ
    равно
    E
    ξ
    =

    −∞
    xf
    ξ
    (x) dx =
    1

    2
    π

    −∞
    x e
    −x
    2
    /2
    dx = т. к. интеграл сходится, а подынтегральная функция нечётна. Далее =
    2

    2
    π

    0
    x
    2
    e
    −x
    2
    /2
    dx = −
    2

    2
    π

    0
    x de
    −x
    2
    /2
    =
    = −
    2x

    2
    π
    e
    −x
    2
    /2

    0
    + 2

    0 1

    2
    π
    e
    −x
    2
    /2
    dx = 0 +

    −∞
    1

    2
    π
    e
    −x
    2
    /2
    dx = Поэтому D
    ξ
    = E
    ξ
    2
    − (E
    ξ
    )
    2
    = 1 − 0 = 1 Пример (нормальное распределение N
    a,
    σ
    2
    ). Мы знаем, что если, то имеет стандартное нормальное распределение. Мы только что вычислили E
    η
    = 0, D
    η
    = 1. Тогда (над каждым равенством подписать, каким свойствам оно обязано )
    E
    ξ
    = E (
    ση
    + a) =
    σ
    E
    η
    + a = a;
    D
    ξ
    = D (
    ση
    + a) Итак, параметры a и
    σ
    2
    нормального распределения суть его математическое ожидание и дисперсия.
    П р им ер (показательное распределение E
    α
    ). Найдём для произвольного натурального числа k момент порядка k :
    E
    ξ
    k
    =

    −∞
    x k
    f
    ξ
    (x) dx =

    0
    x k
    α
    e

    α
    x dx =
    1
    α
    k

    0
    (
    α
    x)
    k e

    α
    x d(
    α
    x) В последнем равенстве мы воспользовались гамма-функцией Эйлера + 1) =

    0
    u k
    e
    −u du = Тогда E
    ξ
    =
    1
    α
    , E
    ξ
    2
    =
    2
    α
    2
    , D
    ξ
    = E
    ξ
    2
    − (E
    ξ
    )
    2
    =
    1
    α
    2

    § 4. Производящая функция моментов
    95
    П р им ер (стандартное распределение Коши C
    0, 1
    ). Математическое ожидание распределения Коши не существует , т. к. расходится интеграл |
    ξ
    | =

    −∞
    |x|
    1
    π
    (1 + x
    2
    )
    dx =

    0 1
    π
    (1 + x
    2
    )
    dx
    2
    = lim x→+∞
    1
    π
    ln(1 + x
    2
    ) = +Расходится он из-за того, что подынтегральная функция ведёт себя на бесконечности как 1/x . Поэтому не существуют ни дисперсия, ни моменты более высоких порядков этого распределения (также как и распределения Пример (распределение Парето). У распределения Парето существуют только моменты порядка t <
    α
    , поскольку |
    ξ
    |
    t
    =

    1
    x t
    α
    1
    x
    α
    +1
    dx =
    α

    1 1
    x
    (
    α
    −t)+1
    dx сходится при t > 0 и расходится при Упражнение. Посчитать момент порядка t распределения Паре- то. При каких
    α
    у этого распределения существует дисперсия А две тысячи триста семнадцатый момент 4. Производящая функция моментов
    Рассмотрим случайную величину, у которой конечны моменты всех положительных порядков. Например, такова случайная величина с показательным распределением. Составим при некотором t ряди предположим, что этот ряд сходится, и что его сумма равна + t
    ξ
    +
    t
    2
    ξ
    2 2!
    +
    t
    3
    ξ
    3 3!
    + . . .
    = E e Определение. Производящей функцией моментов называется функция M
    ξ
    (t) действительного аргумента t, равная) = E e Эта функция определена, если указанное математическое ожидание существует для всех t из некоторого отрезка, включающего t = Вычислять производящую функцию моментов удобно по свойству (математического ожидания. Смысл введения этой дополнительной функции кроется в её великолепных свойствах, главное из которых разным распределениям отвечают разные производящие функции моментов. Название
    ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    производящей функции моментов указывает ещё на одно полезное свойство:
    разлагая её вряд Тейлора по степеням t, получаем коэффициенты разложения, равные моментам случайной величины. Соответственно, k -я производная этой функции в нуле равна моменту k -го порядка M
    ξ
    (0),
    E
    ξ
    2
    = M
    ξ
    (0),
    E
    ξ
    k
    = Полезное свойство производящей функции моментов — производящая функция моментов суммы независимых случайных величин равна произведению их производящих функций) = M
    ξ
    (t) · Пример. Пусть. Вычислим по производящей функции моментов. При t <
    α
    M
    ξ
    (t) = E e t
    ξ
    =

    0
    e tx
    α
    e

    α
    x dx =
    α

    0
    e x(t−
    α
    )
    dx =
    α
    α
    − t
    = 1 При t
    α
    < 1 функцию M
    ξ
    (t) = 1 можно разложить вряд. Сравнивая этот ряд с разложением (
    19
    ), находим Пример. Пусть, 1
    . Вычислим по производящей функции моментов) = E e t
    ξ
    =

    −∞
    e tx
    1

    2
    π
    e
    −x
    2
    /2
    dx = e t
    2
    /2

    −∞
    1

    2
    π
    e
    −(x−t)
    2
    /2
    dx = e Последний интеграл равен единице, покольку это интеграл по всей прямой от плотности нормального распределения с параметрами t и При любом t функцию M
    ξ
    (t) = e можно разложить вряд + . . Сравнивая этот ряд с разложением (
    19
    ), находим E
    ξ
    4
    = 3. Видно, что все моменты нечётных порядков стандартного нормального распределения равны нулю, а моменты чётного порядка 2k равны произведению всех нечётных чисел от 1 до 2k − 1 включительно E
    ξ
    2k
    = 1 · 3 · 5 · . . . · (2k − 1).

    § 5. Другие числовые характеристики распределений 5. Другие числовые характеристики распределений
    Распределения можно характеризовать и многими другими показателями,
    большинство из которых находит основное применение в статистике. Здесь мы только кратко познакомим читателя сих определениями.
    Медианой распределения случайной величины
    ξ
    называется любое из чисел таких, что 2
    ,
    P(
    ξ
    µ
    )
    1 Медиана распределения всегда существует, но может быть не единственна.
    Например, у биномиального распределения с параметрами 3 и медианой будет любое число из отрезка [1, 2]. Действительно,
    ξ
    принимает значения, 1, 2 и 3 с вероятностями соответственно 8
    ,
    3 8
    ,
    3 и 8
    . Поэтому) =
    1 2
    ,
    P(
    ξ
    2) =
    1 Часто в таких случаях в качестве медианы берут середину отрезка медиан».
    Для распределений с непрерывной и строго монотонной функцией распределения медиана является единственным решением уравнения F (
    µ
    ) =
    1 Это точка, левее и правее которой на числовой прямой сосредоточено ровно по половине всей вероятностной массы. Если распределение имеет плотность, то площади каждой из областей под графиком плотности слева и справа от точки
    µ
    равны друг другу и равны Медиана является одной из квантилей распределения. Пусть, для простоты, функция распределения F непрерывна и строго монотонна. Тогда квантилью уровня, где (0, 1), называется решение уравнения (x
    δ
    ) =
    δ
    . Квантиль уровня
    δ
    отрезает от области под графиком плотности область с площадью
    δ
    слева от себя. Справа от площадь области под графиком плотности равна 1 −
    δ
    . Медиана является квантилью уровня 2
    x
    µ
    x
    0
    ,
    1
    x
    0
    ,
    8 1
    1 2
    0
    ,
    1 0
    ,
    8
    F
    (x)
    x
    µ
    x
    δ
    f
    (x)
    1 Рис. 20. Медиана и квантили на графике функции распределения и плотности
    Квантили уровней, кратных 0,01, называют процентилями, квантили уровней, кратных 0,1, — децилями, уровней, кратных 0,25, — квартилями
    ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    Для нормального распределения и медиана, и математическое ожидание равны a. Для несимметричных распределений медиана и математическое ожидание обычно не совпадают.
    П р им ер. Найдём по таблице значений функции Φ(x) (стр) значения некоторых часто употребляющихся квантилей стандартного нормального распределения −x
    0,995
    = −2,576,
    x
    0,025
    = −x
    0,975
    = −1,96,
    x
    0,05
    = −x
    0,95
    = −1,645,
    x
    0,1
    = −x
    0,9
    = −1,282,
    x
    0,5
    = Модой абсолютно непрерывного распределения называют любую точку локального максимума плотности распределения. Для дискретных распределений модой считают любое значение a i
    , вероятность которого p i
    больше,
    чем вероятности соседних значений.
    Распределение, обладающее единственной модой, называют унимодаль- ным. Идеальным примером унимодального распределения является стандартное нормальное распределение. Плотность произвольного унимодально- го распределения может быть как более плоской, таки более «островершин- ной по сравнению с кривой Гаусса, симметричной либо наклонённой в одну сторону. Для описания таких свойств плотности используют коэффициент эксцесса и коэффициент асимметрии распределения.
    Коэффициентом асимметрии распределения с конечным третьим моментом называется число E
    ξ
    − где a = Для симметричных распределений коэффициент асимметрии равен нулю.
    При
    β
    1
    > 0 график плотности распределения более крутой слева и более пологий справа, при 0 — наоборот.
    Коэффициентом эксцесса распределения с конечным четвёртым моментом называется число E
    ξ
    − a
    σ
    4
    − Для всех нормальных распределений коэффициент эксцесса равен нулю.
    Действительно, для
    ξ
    ∼ N
    a,
    σ
    2
    величина
    η
    =
    ξ
    − имеет стандартное нормальное распределение по свойству
    3
    (стр.
    63
    ). Четвёртый момент E
    η
    4
    = этого распределения мы вычислили в примере. Поэтому При 0 плотность распределения имеет более острую вершину, чем кривая Гаусса, при 0 — наоборот, более плоскую

    § 6. Числовые характеристики зависимости случайных величин 6. Числовые характеристики зависимости случайных величин
    Зависимость двух случайных величин можно полностью описать их совместным распределением. Однако нахождение совместного распределения часто невозможно либо из-за его сложности, либо по причине отсутствия полной информации. Хотелось бы иметь более простые характеристики, позволяющие судить о наличии и силе зависимости случайных величин без вычисления их совместного распределения.
    Ковариация двух случайных величин. Мы знаем, что для независимых случайных величин с конечными вторыми моментами дисперсия их суммы равна сумме их дисперсий. В общем случае дисперсия суммы равна (
    ξ
    +
    η
    ) = D
    ξ
    + D
    η
    + 2 E (
    ξη
    ) − По свойству (E7) математического ожидания, величина E (
    ξη
    ) − равна нулю, если случайные величины
    ξ
    и
    η
    независимы, но из равенства её
    нулю независимость отнюдь не следует величины могут быть даже функционально зависимы, но иметь нулевую ковариацию, как в примерена стр.
    90
    Тем не менее эту величину часто используют как некоторый индикатор наличия зависимости между двумя случайными величинами.
    О пределен и е 27. Ковариацией cov(
    ξ
    ,
    η
    ) случайных величин
    ξ
    и
    η
    называется число cov(
    ξ
    ,
    η
    ) = E (
    ξ
    − E
    ξ
    )(
    η
    − E
    η
    ) = E (
    ξη
    ) − Свойство. Ковариация обладает следующими свойствами) = D
    ξ
    ,
    cov(
    ξ
    ,
    η
    ) = cov(
    η
    ,
    ξ
    ),
    cov(c
    ξ
    ,
    η
    ) = c Упражнение. Доказать свойство
    13
    С вой ст во. Дисперсия суммы нескольких случайных величин вычисляется по любой из следующих формул (
    ξ
    1
    + . . . +
    ξ
    n
    ) =
    n i=1
    D
    ξ
    i
    +
    i=j cov(
    ξ
    i
    ,
    ξ
    j
    ) =
    n i=1
    D
    ξ
    i
    + 2
    i)
    2
    =
    n i=1
    a
    2
    i
    +
    i=j a
    i a
    j
    =
    n i=1
    a
    2
    i
    + 2
    ii Говоря о многомерном нормальном распределении в §
    3
    главы
    VI
    (стр.
    78
    ),
    мы произносили слова матрица ковариаций». Дадим им определение.
    Матрица, составленная из ковариаций случайных величин и, называется матрицей ковариаций случайного вектора (
    ξ
    1
    , . . . ,
    ξ
    n
    ). Эта матрица
    ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    имеет следующий вид =





    D
    ξ
    1
    cov(
    ξ
    1
    ,
    ξ
    2
    ) . . . cov(
    ξ
    1
    ,
    ξ
    n
    )
    cov(
    ξ
    1
    ,
    ξ
    2
    )
    D
    ξ
    2
    . . . cov(
    ξ
    2
    ,
    ξ
    n
    )
    cov(
    ξ
    1
    ,
    ξ
    n
    ) cov(
    ξ
    2
    ,
    ξ
    n
    ) . . Пример. Пусть случайный вектор (
    ξ
    1
    , . . . ,
    ξ
    n
    ) имеет многомерное нормальное распределение и диагональную матрицу ковариаций Σ : все ко- вариации и при i = j равны нулю.
    Тогда диагональной будет и матрица, обратная к Σ. Поэтому справедливо равенство (
    16
    ) на стр плотность совместного распределения распадается в произведение плотностей, те. случайные величины независимы. Итак, для вектора, имеющего многомерное нормальное распределение, равенство нулю всех ковариаций равносильно независимости координат вектора.
    П р им ер. Покажем, что с помощью ковариации можно судить о зависимости даже тогда, когда для вычисления совместного распределения недостаточно данных. Пусть
    ξ
    и
    η
    независимые случайные величины, и дисперсия отлична от нуля (что это значит ). Покажем, что
    ξ
    и
    ξ
    +
    η
    зависимы:
    E
    ξ
    (
    ξ
    +
    η
    ) = E
    ξ
    2
    + E
    ξ
    E
    η
    ,
    E
    ξ
    · E (
    ξ
    +
    η
    ) = (E
    ξ
    )
    2
    + поэтому cov(
    ξ
    ,
    ξ
    +
    η
    ) = E
    ξ
    2
    + E
    ξ
    E
    η
    − (E
    ξ
    )
    2
    + E
    ξ
    E
    η
    = D
    ξ
    > 0 . Следова- тельно,
    ξ
    и
    ξ
    +
    η
    зависимы.
    Но величина cov(
    ξ
    ,
    η
    ) не отражает силу зависимости скажем, при увеличении ив десять раз ковариация увеличится в сто разно величины не станут более зависимыми. Нужно как-то нормировать ковариацию, получив из неё безразмерную величину, абсолютное значение которой:
    а) не менялось бы приумножении случайных величин на число;
    б) свидетельствовало бы о силе зависимости случайных величин.
    Следующая величина есть всего лишь нормированная ковариация.
    Коэффициент корреляции и его свойства. Дадим определение.
    О пределен и е 28. Коэффициентом корреляции) случайных величин и, дисперсии которых существуют и отличны от нуля, называется число) Пример. Рассмотрим продолжение примера, но пусть
    ξ
    и
    η
    не только независимы, но и имеют одинаковую дисперсию, неравную нулю

    § 6. Числовые характеристики зависимости случайных величин
    101
    Найдём коэффициент корреляции величин
    ξ
    и
    ξ
    +
    η
    :
    ρ
    (
    ξ
    ,
    ξ
    +
    η
    ) =
    cov(
    ξ
    ,
    ξ
    +
    η
    )

    D
    ξ

    D (
    ξ
    +
    η
    )
    =
    D
    ξ
    D
    ξ
    D
    ξ
    + Коэффициент корреляции оказался равен косинусу угла в 45

    , образованного
    «векторами»
    ξ
    и
    ξ
    +
    η
    , когда
    ξ
    и
    η
    «ортогональны» (независимы) и их
    «длина» (дисперсия) одинакова.
    Т е орем а 27. Коэффициент корреляции обладает свойствами) если
    ξ
    и
    η
    независимы, то) = 0;
    (R2) |
    ρ
    (
    ξ
    ,
    η
    )|
    1;
    (R3) |
    ρ
    (
    ξ
    ,
    η
    )| = 1 тогда и только тогда, когда
    ξ
    и
    η
    линейно связаны.
    Д ока за тел ь ст во. Свойство (R1) мы уже много раз (сколько ) упоминали и один раз доказали, и даже привели пример того, что свойство (в обратную сторону неверно (примерна стр.
    90
    ).
    Докажем (R2). Рассмотрим преобразование случайной величины, называемое стандартизацией. Случайная величина
    ξ
    имеет нулевое математическое ожидание и единичную дисперсию E
    ξ
    − E
    ξ

    D
    ξ
    =
    E
    ξ
    − E
    ξ

    D
    ξ
    = 0;
    E
    ξ
    2
    = D
    ξ
    = D
    ξ
    − E
    ξ

    D
    ξ
    =
    D (
    ξ
    − E
    ξ
    )
    D
    ξ
    = Коэффициент корреляции теперь запишется проще) = Далее, неравенство (x ± y)
    2 0 равносильно неравенству 2
    (x
    2
    + y
    2
    )
    xy
    1 2
    (x
    2
    + Подставив в него
    ξ
    вместо вместо y и взяв математические ожидания всех частей неравенства, получим свойство (R2):
    − 1 = −
    1 2
    E
    ξ
    2
    +
    η
    2
    ρ
    (
    ξ
    ,
    η
    ) = E
    ξ
    ·
    η
    1 2
    E
    ξ
    2
    +
    η
    2
    = Докажем свойство (R3). В одну сторону утверждение проверяется непосредственно если a
    ξ
    + b, то, a
    ξ
    + b) =
    E (
    ξ
    (a
    ξ
    + b)) − E
    ξ
    · E (a
    ξ
    + b)

    D
    ξ

    D (a
    ξ
    + b)
    =
    aD
    ξ

    D
    ξ

    a
    2
    D
    ξ
    =
    1,
    a > 0;
    −1,
    a < Докажем вторую часть свойства (R3): если |
    ρ
    (
    ξ
    ,
    η
    )| = 1 , то существуют числа a = 0 и b такие, что P(
    η
    = a
    ξ
    + b) = 1 Рассмотрим сначала случай) =
    ρ ξ
    ,
    η
    = 1 . Это возможно только когда второе неравенство в формуле (
    21
    ) превращается в равенство те ГЛАВА VII. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЙ
    Математическое ожидание положительной случайной величины
    ξ

    η
    2
    мо- жет быть равно нулю, если только 0, те. если E
    η
    D
    η
    =
    ξ
    − E
    ξ

    D
    ξ
    ,
    η
    =
    D
    η

    D
    ξ
    ξ
    + E
    η

    D
    η

    D
    ξ
    E
    ξ
    = a
    ξ
    + В случае) = −1 нужно рассмотреть первое неравенство в формуле (и повторить рассуждения. Тем самым теорема
    27
    доказана.
    Полезно знать следующие часто употребляемые термины. Говорят, что
    ξ
    и
    η
    отрицательно коррелированы, если) < 0; положительно коррели- рованы, если) > 0; некоррелированы, если) = Смысл знака) хорошо виден в случае) = ±1. Тогда знак
    ρ
    равен знаку a в равенстве a
    ξ
    + b. Так) = 1 означает, что чем больше, тем больше. Напротив) = −1 означает, что чем больше, тем меньше
    η
    Знак коэффициента корреляции в случае, когда |
    ρ
    (
    ξ
    ,
    η
    )| < 1, можно трактовать как тенденцию в среднем чем больше, тем в среднем больше
    (меньше)
    η
    . В этом случае зависимость между
    ξ
    и
    η
    уже нелинейная и,
    возможно, даже не функциональная.
    Следующее свойство показывает, что модуль коэффициента корреляции не меняется при линейных преобразованиях случайных величина вот знак изменится на противоположный, если a < Свойство. При любых постоянных a = 0 и b имеет место равенство Упражнение. Доказать свойство
    15
    П р им ер. Найдём коэффициент корреляции случайных величин из примера
    50
    на стр.
    74
    По таблице совместного распределения вычислим E (
    ξη
    ) :
    E (
    ξη
    ) =
    i, j a
    i b
    j p
    i, j
    = 1 · 1 ·
    1 4
    + 1 · 2 ·
    1 4
    + 2 · 2 ·
    1 8
    + 2 · 3 ·
    1 8
    = Зная распределения
    ξ
    и
    η
    , найдём их среднее и дисперсию 2 ·
    1 2
    = 1, D
    ξ
    = 2 ·
    1 2
    ·
    1 2
    =
    1 2
    , E
    η
    = 3 ·
    1 2
    =
    3 2
    , D
    η
    = 3 ·
    1 2
    ·
    1 2
    =
    3 Вычислим коэффициент корреляции) = 2 − 1 ·
    3 2
    =
    1 2
    ,
    ρ
    (
    ξ
    ,
    η
    ) =
    1/2 1/2 ·
    3/4
    =

    2

    3

    § 7. Контрольные вопросы 7. Контрольные вопросы
    1.
    Дать определение математического ожидания случайной величины с дискретным распределением.
    2.
    Дать определение математического ожидания случайной величины с абсолютно непрерывным распределением. Математическое ожидание случайной величины — число или функция?
    4.

    1   2   3   4   5   6   7   8   9


    написать администратору сайта