Реклама на сайте (разместить):



Реклама и пожертвования позволяют нам быть независимыми!

Зависимость (в теории вероятностей)

Материал из Викизнание
Перейти к: навигация, поиск
Эвентология
Открытый Helgus~µастер~Kласс — H~µ~K
Это незавершённая статья из области эвентологии и её применений, редактируемая при участии Мастера

В теории вероятностей два случайных события называются зависимыми, если наступление одного из них изменяет вероятность наступления другого. Аналогично, две случайные величины называют зависимыми, если значение одной из них влияет на вероятность значений другой. В противных случаях и события, и случайные величины называются независимыми относительно вероятности.

Зависимые события[править]

Будем считать, что дано фиксированное вероятностное пространство (\Omega ,{\mathcal  {F}},{\mathbb  {P}}).

Определение 1. Два события A,B\in {\mathcal  {F}} зависимы, если

{\mathbb  {P}}(A\cap B)\not ={\mathbb  {P}}(A)\cdot {\mathbb  {P}}(B). В противном случае события называются независимыми.

Замечание 1. В том случае, если вероятность одного события, скажем B ненулевая, то есть {\mathbb  {P}}(B)>0, определение зависимости эквивалентно:

{\mathbb  {P}}(A\mid B)\not ={\mathbb  {P}}(A),

то есть условная вероятность события A при условии B не равна безусловной вероятности события A.

Определение 2. Пусть есть семейство (конечное или бесконечное) случайных событий \{A_{{i}}\}_{{i\in I}}\subset {\mathcal  {F}}, где I — произвольное индексное множество. Тогда эти события попарно независимы, если любые два события из этого семества независимы, то есть

{\mathbb  {P}}(A_{i}\cap A_{j})={\mathbb  {P}}(A_{i})\cdot {\mathbb  {P}}(A_{j}),\;\forall i\not =j.

Определение 3. Пусть есть семейство (конечное или бесконечное) случайных событий \{A_{{i}}\}_{{i\in I}}\subset {\mathcal  {F}}. Тогда эти события совместно независимы, если для любого конечного набора этих событий \{A_{{i_{k}}}\}_{{k=1}}^{N} верно:

{\mathbb  {P}}(A_{{i_{1}}}\cap \ldots \cap A_{{i_{N}}})={\mathbb  {P}}(A_{{i_{1}}})\ldots {\mathbb  {P}}(A_{{i_{N}}}).

Замечание 2. Cовместная независимость, очевидно, влечет попарную независимость. Обратное, вообще говоря, неверно.

Пример 1. Пусть брошены три уравновешенные монеты. Определим события следующим образом:

  • A_{1}: монеты 1 и 2 упали одной и той же стороной;
  • A_{2}: монеты 2 и 3 упали одной и той же стороной;
  • A_{3}: монеты 1 и 3 упали одной и той же стороной;

Легко проверить, что любые два события из этого набора независимы. Все же три в совокупности зависимы, ибо зная, например, что события A_{1},A_{2} произошли, мы знаем точно, что A_{3} также произошло.

Зависимые сигма-алгебры[править]

Определение 4. Пусть {\mathcal  {A}}_{1},{\mathcal  {A}}_{2}\subset {\mathcal  {F}} две сигма-алгебры на одном и том же вероятностном пространстве. Они называются зависимыми, если какие либо их представители зависимы между собой, то есть:

{\mathbb  {P}}(A_{1}\cap A_{2})\not ={\mathbb  {P}}(A_{1})\cdot {\mathbb  {P}}(A_{2}),\;\exists A_{1}\in {\mathcal  {A}}_{1},\,A_{2}\in {\mathcal  {A}}_{2}.

Если вместо двух имеется целое семейство (возможно бесконечное) сигма-алгебр, то для него определяется попарная и совместная зависимость очевидным образом. В противном случае говорят о независимых сигма-алгебрах.

Зависимые случайные величины[править]

Определения[править]

Определение 5. Пусть дано семейство случайных величин (X_{i})_{{i\in I}}, так что X_{i}:\Omega \to {\mathbb  {R}},\;\forall i\in I. Тогда эти случайные величины попарно зависимы, если попарно зависимы порождённые ими сигма-алгебры \{\sigma (X_{i})\}_{{i\in I}}. Случайные величины зависимы в совокупности, если таковы порождённые ими сигма-алгебры.

Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины X,Y зависимы тогда и только тогда, когда:

  • Найдутся A,B\in {\mathcal  {B}}({\mathbb  {R}}),
{\mathbb  {P}}(X\in A,Y\in B)\not ={\mathbb  {P}}(X\in A)\cdot {\mathbb  {P}}(Y\in B);
  • Найдутся борелевские функции f,g:{\mathbb  {R}}\to {\mathbb  {R}}, для которых случайные величины f(X),g(Y) зависимы;
  • Найдутся ограниченные борелевские функции f,g:{\mathbb  {R}}\to {\mathbb  {R}}, такие что
{\mathbb  {E}}\left[f(X)g(Y)\right]\not ={\mathbb  {E}}\left[f(X)\right]\cdot {\mathbb  {E}}\left[g(Y)\right];

Свойства независимых случайных величин[править]

  • Пусть {\mathbb  {P}}^{{X,Y}} - распределение случайного вектора (X,Y), {\mathbb  {P}}^{X} - распределение X и {\mathbb  {P}}^{Y} - распределение Y. Тогда X,Y независимы тогда и только тогда, когда
{\mathbb  {P}}^{{X,Y}}={\mathbb  {P}}^{X}\otimes {\mathbb  {P}}^{Y},

где \otimes обозначает (прямое) произведение мер;

F_{{X,Y}}(x,y)=F_{X}(x)\cdot F_{Y}(y);
  • Пусть случайные величины X,Y дискретны. Тогда они независимы тогда и только тогда, когда
{\mathbb  {P}}(X=i,Y=j)={\mathbb  {P}}(X=i)\cdot {\mathbb  {P}}(Y=j).
  • Пусть случайные величины X,Y совместно абсолютно непрерывны, то есть их совместное распределение имеет плотность f_{{X,Y}}(x,y). Тогда они независимы тогда и только тогда, когда
f_{{X,Y}}(x,y)=f_{X}(x)\cdot f_{Y}(y),\;\forall (x,y)\in {\mathbb  {R}}^{2},

где f_{X}(x),f_{Y}(y) - плотности случайных величин X и Y соответственно.

См. также[править]

Статью можно улучшить?
✍ Редактировать 💸 Спонсировать 🔔 Подписаться 📩 Переслать 💬 Обсудить
Позвать друзей
Вам также может быть интересно: