Содержание:

Дисперсией функции случайной величины называются мера разброса значений случайных величин по отношению к ее математическому ожиданию. В русскоязычных учебниках обозначается как $D\left[X\right]$, а в иностранной как $Var(X)$.

Зачастую в статистике обозначается как $\theta_x^2$ или же $\theta^{2}$. 

Среднеквадратическое отклонение, стандартный разброс или стандартное отклонение – это квадратный дисперсионный корень, который равняется $\theta$. Измерение данных величин происходит в тех же самых единицах, в которых измеряется и сама случайная величина. Сама же дисперсия меряется в квадратах данной измерительной единицы. 

Неравенство Чебышёва гласит, что значение случайной величины будут отставать от математического ожидания данной случайной величины более чем на $k$ нормальных отклонений, с вероятностью менее $1/k^{2}$. При некоторых обстоятельствах данная оценка может увеличиваться. К примеру, как минимум в 95% ситуаций значения случайной величины, которые имеют нормальное распределение, находятся на удалении от ее среднего показателя менее, чем на 2 стандартных отклонения, а в 99,7% - не выше, чем на 3. 

Определение

Дисперсия случайной величины – это математическое ожидание квадрата отклонения случайной величины от ее математического ожидания. 

Возьмем $\chi$ в качестве случайной величины, которая определена на вероятностном пространстве. В этом случае дисперсия - $D[X]=E[(X-E)2]$

Здесь $E$ –обозначается в качестве математического ожидания. 

Преимуществом дисперсии в качестве меры дисперсии является то, что она поддается алгебраическим манипуляциям.  Например, в артиллерии важно знать насколько кучно смогут лечь снаряды вблизи цели, которую планируется поразить. 

Поверхностно может показаться, что для того, чтобы дать правильную оценку, нужно лишь провести вычислительные манипуляции со всеми возможными значениями отклонения случайной величины, а затем просто определить их усредненное значение. Но таким методом можно получить только среднее значение отклонения, то есть $M[X-M(X)]$, для всех случайных величин равно нулю. Это можно объяснить тем, что одни возможные отклонения являются положительными, а другие – отрицательными, в результате при их взаимопогашении среднее значение будет равняться нулю. Именно поэтому зачастую возможные отклонения заменяют на их абсолютные значения или квадраты. Такой способ может оперировать с абсолютными величинами, что нередко приводит к определенным трудностям. Поэтому проще всего вычислить среднее значение квадрата отклонения, которое и называется дисперсией. 

Закон распределения дискретной случайной величины

Данное определение определяет соответствие между полученными на опыте значениями этой величины $X= {xi} $ и их вероятностями $pi = P(xi).$. При этом в сумме они дают 1: $∑i=1npi=1$.

Этот закон задается при помощи любых таблиц, графиков или аналитическим способом при помощи формулы. 

К примеру, закон распределения случайной величины $X = {0;1;2;3}$, которая равняется количеству выпадения решек при трех бросках монетки, аналитически можно задать при помощи формулы $pi=P(xi)=P3(i)=C3i23,  i={0;1;2;3}$.

Свойства дисперсии

Дисперсия имеет основные свойства, к которым относятся:

  1. Квадрат размерности случайной величины равняется размерности дисперсии;
  2. Квадрат размерности случайной величины равняется размерности дисперсии;
  3. Дисперсия постоянной величины всегда равняется нулю: $D(C) = 0$;
  4. Сумма дисперсий равняется сумме независимых случайных величин: $D(X + Y) = D(X) + D(Y)$;
  5. Постоянный множитель выносится за знак дисперсии: $D(CX) = C2 • D(X)$.

Рассмотрим также другие свойства с доказательствами:

Первое свойство. Дисперсия постоянной величины C равна нулю; D(C) = 0.

Доказательство. По определению дисперсии, $D(C) = M{[C – M(C)]2}$.

Из первого свойства математического ожидания $D(C) = M[(C – C)2] = M(0) = 0$.

Второе свойство. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат:

$D(CX) = C2 D(X)$

Доказательство. По определению дисперсии, D(CX) = M{[CX – M(CX)]2}

Из второго свойства математического ожидания D(CX)=M{[CX – CM(X)]2}= C2M{[X – M(X)]2}=C2D(X)

Третье свойство. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин:

D[X + Y ] = D[X] + D[Y ].

Доказательство. По формуле для вычисления дисперсии имеем

D(X + Y) = M[(X + Y )2] − [M(X + Y)]2

Раскрыв скобки и пользуясь свойствами математического ожидания суммы нескольких величин и произведения двух независимых случайных величин, получим

D(X + Y) = M[X2+ 2XY + Y2] − [M(X) + M(Y )]2 = M(X2) + 2M(X)M(Y) + M(Y2) − M2(X) − 2M(X)M(Y) − M2(Y) = {M(X2) − [M(X)]2}+{M(Y2) − [M(Y)]2} = D(X) + D(Y). Итак, D(X + Y) = D(X) + D(Y)

Четвертое свойство. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий:

$D(X − Y) = D(X) + D(Y)$

В силу третьего свойства $D(X − Y) = D(X) + D(–Y)$По второму свойству

$D(X − Y) = D(X) + (–1)2 D(Y) или D(X − Y) = D(X) + D(Y)$

236
проверенных автора готовы помочь в написании работы любой сложности
Мы помогли уже 4 372 ученикам и студентам сдать работы от решения задач до дипломных на отлично! Узнай стоимость своей работы за 15 минут!