В теории вероятностей два случайных события и называются условно независимыми относительно третьего события , если они независимы при условии, что событие произошло.

Другими словами, и условно независимы относительно тогда и только тогда, когда произошло, но знание того, произошло или нет, не влияет на вероятность , и, наоборот, знание того, произошло или нет, не влияет на вероятность .

Понятие условной независимости также может быть применено к случайным величинам и случайным векторам.

Условная независимость событий

править

Определение

править

В обозначениях теории вероятностей,   и   условно независимы относительно   тогда и только тогда, когда  . Относительная независимость   и   относительно   обозначается  .

Формально:

Условная независимость событий

 

или равносильно:

 

Примеры

править

В обсуждении на StackExchange приводится несколько полезных примеров. См. ниже.[1]

Цветные клетки

править

Каждая клетка на поле представляет собой возможный исход. События  ,   и   представлены областями, закрашенными в красный, синий и жёлтый цвета соответственно. Пересечение   и   окрашено в фиолетовый и т. д.

 

Вероятность каждого из этих событий — это отношение площади закрашенной области к общей площади поля.

В обоих примерах   и   условно независимы по отношению к  , поскольку

 [2],

но не являются условно независимыми по отношению к  , поскольку

 .

Погода и задержки

править

Представим себе двух человек. Пусть   и   — события, что каждый из них вовремя вернётся домой к ужину. Пусть   будет событием, при котором город настигла снежная буря. Из-за бури вероятности   и   довольно низкие, но всё равно эти события остаются независимыми друг от друга. Действительно, знание того, что один человек опоздает, вовсе не гарантирует то, что другой тоже опоздает. Люди могут жить в разных районах, ездить разными маршрутами, использовать разные виды транспорта. Если бы это было не так, то эти события были бы условно зависимы.

Игральный кубик

править

При одновременном броске двух кубиков можно считать, что результаты бросков не зависят друг от друга. Посмотрев на один из них, нельзя узнать, что выпало на втором. Однако, если на первом выпало 3 и кто-то сказал, что сумма на двух кубиках чётна, то эта дополнительная информация ограничивает количество исходов для второго кубика. (Тогда на втором точно выпало нечётное число). Другими словами, два события могут быть независимы сами по себе, но при каком-то условии будут условно зависимы.

Условная независимость случайных величин

править

Две случайные величины   и   условно независимы относительно третьей случайной величины  , тогда и только тогда, когда распределения их условных вероятностей относительно   являются независимыми.

То есть это происходит, когда для каждого данного численного значения   распределение вероятностей   не зависит от значений   и распределение вероятностей   не зависит от значений  .

Формально:

Условная независимость случайных величин

 

где   – это
условная функция распределения   и   с заданным  .

Два события   и   условно независимы относительно сигма-алгебры  , если  , где   — условное математическое ожидание индикаторной функции   события   относительно сигма-алгебры  . То есть   по определению.

Две случайные величины   и   условно независимы относительно сигма-алгебры  , если предыдущее равенство справедливо для всех   в   и   в  .

Две случайные величины   и   условно независимы относительно случайной величины  , если они независимы относительно сигма-алгебры  , порождённой случайной величиной  . Это обозначается как   или  .

Если   имеет счётное множество значений, то это эквивалентно условной независимости   и   для событий вида  . Условная независимость трёх и более событий или трёх и более случайных величин определяется аналогично.

Следующие два примера показывают, что независимость случайных величин никак не связана с их условной независимостью.

Первый пример

править

Возьмём   и рассмотрим два случая.

Если  , возьмём независимые  .

Если  , возьмём независимые  .

Здесь   и  .

Рассмотрим случай, когда  . Тогда легко убедиться, что:

 ,

 .

Таким образом, если  , то распределение   меняется, и наоборот. Значит,   и   зависимы.

Второй пример

править

Пусть  ;  ;

 .

В данном примере   и   мы взяли независимыми, но они будут условно зависимыми относительно  , потому что если  , то  . Но  .

Условная независимость случайных векторов

править

Два случайных вектора   и   условно независимы относительно третьего случайного вектора   тогда и только тогда, когда их условные распределения независимы относительно  .

Формально:

Условная независимость случайных векторов

 

где  ,
а условные распределения определены следующим образом:

 

Использование в Байесовских выводах

править

Пусть   — это доля голосующих, которые выступят «за» на предстоящем референдуме. Возьмём результаты случайного выборочного опроса среди   голосующих из популяции. Пусть   равно  , если   голосует «за», или   в противном случае, для каждого голосующего  .

В частотном подходе к статистическим выводам доле   не приписывается никакого распределения вероятности (кроме тех случаев, когда эти вероятности могут быть интерпретированы как относительные частоты возникновения некоторого события или как пропорции в некоторой популяции), и можно сказать, что   — это независимые случайные величины.

С другой стороны, в Байесовском подходе к статистическим выводам доля   понимается как случайная величина с некоторым распределением вероятностей. Для каждого отрезка устанавливается степень доверия тому, что   попадёт в этот отрезок. Каждому отрезку ставится в соответствие вероятность попадания   в этот отрезок. В такой модели случайные величины   являются зависимыми, но они являются условно независимыми относительно данного значения  . В частности, если большое количество   равно  , согласно результату выборочного опроса, то это влечёт высокую условную вероятность того, что значение   близко к  . Следовательно, условная вероятность того, что ожидаемое значение следующего   будет равно  , высока (для данного выборочного опроса).

Следствия условной независимости

править

Из основного определения выведен ряд следствий, применимых для работы с условной независимостью.[3][4]

Поскольку эти следствия справедливы для любого вероятностного пространства, то они остаются справедливыми при добавлении зависимости по отношению к некоторой другой переменной, скажем,  . То есть   также означает  .

Далее все литеры обозначают случайные величины. Запятая обозначает «И».

Симметрия

править
 .

Декомпозиция

править
 .

Доказательство:

  •   (означает  );
  •   (переменная   исчезла в результате интегрирования);
  •  .

Аналогично доказывается независимость   и  .

Слабое объединение

править
 .

Доказательство:

  • По определению:  .
  • Из композиции следует:  ,  .
  • Объединение двух предыдущих равенств даёт:  , из чего следует  .

Второе соотношение можно доказать аналогично.

Сокращение

править
 .

Доказательство:

Это свойство можно доказать, если заметить, что  , где каждое равенство совпадает с   и   соответственно.

Комбинирование

править

Взяв последние три свойства, доказанные выше, получаем

  .

Эти следствия названы «Аксиомами Графоида»,[5] поскольку они выполняются в графах при  , что можно интерпретировать как «Все пути от   до   пересекают множество  ».[6]

Условная независимость матожидания[7]

править

 .

См. также

править

Примечания

править
  1. Could someone explain conditional independence?
  2. Чтобы разобраться в этом примере, нужно понять, что P(RB | Y) — вероятность пересечения фиолетовой и жёлтой области. На первой картине видно, что это пересечение состоит из 2 клеток, а жёлтая область — из 12 клеток. Тогда, P(RB | Y) = 2/12 = 1/6. Аналогично, P(R | Y) = 4/12 = 1/3; P(B | Y) = 6/12 = 1/2.
  3. Dawid, A. P. (1979). "Conditional Independence in Statistical Theory". Journal of the Royal Statistical Society, Series B. 41 (1): 1—31. JSTOR 2984718. MR 0535541.
  4. J Pearl, Causality: Models, Reasoning, and Inference, 2000, Cambridge University Press
  5. Graphoids: A Graph-Based Logic for Reasoning About Relevance Relations.
  6. Pearl, Judea. Probabilistic reasoning in intelligent systems: networks of plausible inference. — Morgan Kaufmann, 1988.
  7. П.А.Мейер. Вероятность и потенциалы. — Глава II: Независимость. Условные математические ожидания. Тема: Условная независимость Теорема: 51: Мир, 1973. — С. 45—46.

Ссылки

править